OpenAI avisa: El futuro de ChatGPT peligra en Europa
La inteligencia artificial más utilizada podría tener los días contados en Europa. ¿Qué está pasando?
ChatGPT ha revolucionado todo tipo de sectores. Si bien es cierto que su coste de mantenimiento es colosal, las posibilidades que ofrece esta inteligencia artificial son impresionantes. El problema es que el futuro de este proyecto de OpenAI peligra en Europa.
No hablamos de un rumor o una filtración, sino que el propio Sam Altman, CEO de OpenAI, ha sido el que ha advertido que la compañía podría cerrar ChatGPT en Europa en respuesta a la regulación de IA que está desarrollando la UE.
Tal y como recogen desde The Verge, en una charla con periodistas en Londres, Altman dijo que tenía "muchas preocupaciones" sobre la Ley de IA de la UE, que los legisladores están finalizando actualmente.
ChatGPT podría cerrar su servicio en Europa
Hay algunos términos de esta Ley de Inteligencia artificial que incluye nuevas obligaciones para los fabricantes de los llamados "modelos básicos": sistemas de inteligencia artificial a gran escala que impulsan servicios como ChatGPT y DALL-E de OpenAI.
Y, Altman ha dejado claro que estos detalles son muy importantes, y que intentarán cumplir con la normativa que imponga la UE, pero si no es posible, dejarán de operar con ChatGPT en Europa.
A Altman le preocupa que ChatGPT sea considerado como una IA de alto riesgo a través de la nueva legislación de la UE. Y esto se traduce en una serie de requisitos de seguridad y transparencia que el CEO de OpenAI no tiene claro que lo puedan cumplir por limitaciones técnicas.
Para empeorar las cosas, en el borrador actual de la Ley de IA dejan claro que los creadores de estos modelos básicos, como ChatGPT, deben divulgar todo el diseño de su sistema, incluyendo “la potencia de cómputo requerida, el tiempo de capacitación y otra información relevante relacionada con el tamaño y la potencia del modelo”, además de ofrecer “resúmenes de los datos protegidos por derechos de autor” con los contenidos que usan.
Este último punto es muy polémico, porque obligar a OpenAI a identificar contenidos protegidos por derecho de autor que ha usado para entrenar a su IA se podría traducir en posibles demandas. Cuando las empresas divulgan estas fuentes de datos, quedan expuestas a desafíos legales y es justo lo que quieren evitar.
Sin ir más lejos, el rival de OpenAI, Stability AI, está siendo demandado actualmente por el creador de imágenes de archivo Getty Images por usar sus datos protegidos por derechos de autor para entrenar su generador de imágenes de IA.
Respecto a compartir información, esto se traduce en millones en pérdidas para OpenAI. Al principio la compañía detrás de ChatGPT sí que ofrecía esta información, pero a medida que el proyecto creció, su valor aumentó a nivel comercial, por lo que dejaron de dar esta información.
Incluso en declaraciones a The Verge, la compañía dijo que “ se había equivocado al revelar tanto en el pasado, y que era necesario mantener en secreto información como los métodos de capacitación y las fuentes de datos para evitar que sus rivales copiaran su trabajo”
¿Va a cerrar ChatGPT en Europa? De momento es muy pronto para saberlo, pero su futuro es bastante incierto hasta que la UE publique su nueva Ley IA.