Gaming Club
Regístrate
españaESPAÑAméxicoMÉXICOusaUSA
Betech
Ciencia y tecnología

Tecnología

Una carta a Chat GPT alerta sobre que la IA se plantee la destrucción de la humanidad

Varios investigadores de OpenAI han remitido una misiva al consejo de administración, que según Reuters ha podido tener que ver con el despido de Sam Altman (luego readmitido).

Actualizado a
Chat GPT

El sillón del CEO de OpenAI —la compañía detrás de Chat GPT— ha permanecido vacío durante 4 días, el tiempo que ha durado el despido exprés de Sam Altman, su consejero delegado. De acuerdo con dos fuentes consultadas por Reuters, varios investigadores de la empresa redactaron una carta dirigida a los directivos, en la que advirtieron sobre un posible avance de la IA que les preocupa. Los profesionales temen que las máquinas superinteligentes se puedan plantear, incluso, la destrucción de la humanidad.

Aunque The Verge ha señalado que la misiva nunca llegó al consejo y que no tuvo nada que ver con la destitución del directivo, las fuentes de Reuters mencionan la carta como uno de los factores que han conducido a esta situación, al igual que las preocupaciones por la comercialización de ciertos avances tecnológicos sin comprender el alcance de sus consecuencias.

OpenAI no ha querido realizar declaraciones a la prensa, pero en un mensaje interno han hecho referencia tanto a un proyecto denominado Q* como a una carta recibida por el consejo antes de los hechos acaecidos el fin de semana. Un representante de la compañía ha admitido que el mensaje lo remitió la ejecutiva Mira Murati para alertar sobre las historias que iban a aparecer en los medios de comunicación.

FILE PHOTO: Sam Altman, CEO de OpenAI.  REUTERS/Carlos Barria/File Photo
Ampliar
FILE PHOTO: Sam Altman, CEO de OpenAI. REUTERS/Carlos Barria/File PhotoCARLOS BARRIAREUTERS

¿Qué es la superinteligencia y por qué preocupa a los investigadores?

Según Reuters, algunos empleados de OpenAI están convencidos de que el proyecto Q-Star puede suponer un avance significativo en el campo de la superinteligencia artificial, superior a la de los humanos. El nuevo modelo ha sido capaz de resolver ciertos problemas matemáticos, tal y como ha revelado una fuente que ha pedido no ser identificada porque no está autorizada a hablar en público. Sin embargo, el problema era equivalente al nivel de un estudiante de primaria, lo que no ha impedido que parte del equipo de investigación sea muy optimista acerca del futuro de Q-Star.

Los investigadores contemplan las matemáticas como la clave para el desarrollo de la inteligencia artificial generativa, ya que la IA actual se centra sobre todo en la escritura o en la traducción. En cambio. Las matemáticas implican que solo hay una única respuesta, de modo que la inteligencia artificial tendría que tener capacidades de razonamiento similares a los de los seres humanos, de ahí el peligro. Además, a diferencia de una calculadora, AGI puede generalizar, aprender y adquirir más conocimientos.

El propio Altman dejó caer recientemente en un cumbre de directivos que el avance podía estar muy cerca: “Cuatro veces en la historia de OpenAI, la más reciente hace solo unas semanas, he tenido la oportunidad de estar en la sala en la que hemos empujado el velo de la ignorancia atrás y la frontera del descubrimiento hacia delante. Poder hacerlo es el honor profesional de mi vida”.

Normas