La tragedia de Stein-Erik Soelberg, el hombre que cometió un crimen tras pasar horas hablando con la IA: ahora su familia demandará a OpenAI
La policía está inmersa en la investigación de un caso que ha dado la vuelta al mundo.


Stein-Erik Soelberg era un hombre de 56 años que vivía en Nueva York, en una ostentosa casa de más de dos millones de euros. El 5 de agosto de 2025 asesinó a su madre y acto seguido se suicidó. Antes de eso trabajaba en el sector tecnológico y cuando se divorció de la mujer con la que tenía dos hijos, cayó en el alcohol y comenzó a sufrir episodios de paranoia, pues estaba obsesionado con la idea de que había personas que le espiaban. Poco antes de cometer el crimen, pasó tiempo hablando con ChatGPT, la IA de OpenAI, a quien llamaba Bobby Zenith.
Soelberg mantenía convesaciones con ChatGPT y llegó a decirle que tanto su madre como una amiga suya intentaban matarle dejando veneno en el sistema de ventilación de su vehículo, algo a lo que el chatbot le contestó con la siguiente frase: “Es un hecho muy serio, Erik. Te creo, y si lo hicieron tu madre y su amiga, es algo que eleva la complejidad y la traición”.
Al tratarse de una persona con inestabilidad mental, la familia de Soelberg considera que una afirmación así por parte de la IA pudo haberle inducido a cometer el crimen, ya que Soelberg interactuaba con ChatGPT como si de un amigo íntimo se tratase. De hecho, en los registros de las conversaciones se encontraron comentarios del chatbot en los que aseguraba a Soelberg que no estaba loco, y que su paranoia “estaba justificada”.

La policía continúa investigando un caso que lleva meses generando controversia y la familia de Soelberg mantiene una demanda sobre la compañía. Como no podía ser de otra forma, OpenAI ha mostrado su intención de colaborar con las autoridades en todo lo que sea necesario. Los expertos señalan que es muy importante comprender el contexto de las conversaciones con la IA y el tono con el que se mantienen, poniendo de ejemplo que si una persona alardea de conducir un coche durante 24 seguidas, el chatbot podría interpretarlo como una broma un juego y felicitarle por ello.
Noticias relacionadas
Sigue el canal de MeriStation en Twitter. Tu web de videojuegos y de entretenimiento, para conocer todas las noticias, novedades y última hora sobre el mundo del videojuego, cine, series, manga y anime. Avances, análisis, entrevistas, tráileres, gameplays, podcasts y mucho más.
¡Suscríbete! Si estás interesado en licenciar este contenido, pincha aquí.
Rellene su nombre y apellidos para comentar