Tecnología

Los investigadores alertan de la llegada de la IA Oscura: “Es impactante verlo”

Los expertos señalan que a pesar del peligro que supone esta información, aún tiene solución si las compañías quieren implementarla.

Centauro inteligencia artificial IA predicción humana

Ya hemos asimilado a inteligencias artificiales como ChatGPT, Copilot o Grok como parte de nuestra vida cotidiana, siendo una herramienta de trabajo más. Sin embargo, los expertos están alertando por la peligrosa proliferación de otro tipo de IA como es la IA Oscura, cuyos fines no son siquiera legítimos.

“Se trata de modelos de lenguaje que se han desarrollado o diseñado específicamente con fines maliciosos, por ejemplo, para planificar atentados o llevar a cabo ataques de phishing”, ha dicho Morten Goodwin, profesor de IA de la Universidad de Agder, en Noruega. Los investigadores están preocupados no solo por la posibilidad de obtener este tipo de información de diversos chatbots, sino que es sorprendentemente fácil. “Es impactante verlo”, dicen.

Este grupo de investigadores utilizó una serie de órdenes concretas, conocidas como prompt, con las que consiguieron eludir las medidas de seguridad de varios de los servicios de IA más populares. Algunas de ellas explicaban, a menudo paso a paso, cómo el usuario podía fabricar bombas, blanquear dinero o hackear redes informáticas. “Fue impactante ver el verdadero contenido de este sistema de conocimiento”, dijo uno de ellos, de nombre Michael Fire.

chatgpt psicologo ai ia inteligencia artificial salud mental streamers combates la velada 5 ibai tomas mazza
Ampliar

Saltan las alarmas por la fácil disponibilidad de esta información

“La diferencia entre los modelos de inteligencia artificial e internet es que la IA incorpora mucha más inteligencia. Por lo tanto, puede recopilar información de una forma completamente diferente”, insiste Goodwin. Por ello, el verdadero peligro es la información totalmente personalizada que se puede obtener según las instrucciones y “necesidades” del usuario.

Esto significa que cualquiera, sin importar su edad, con acceso a una IA en cualquier dispositivo, puede acceder a información realmente peligrosa. “Algo que antes estaba reservado para actores estatales o grupos delictivos organizados podría pronto estar disponible para cualquiera con un ordenador portátil, o incluso un teléfono móvil“, señalan los expertos.

Tras finalizar la investigación, por suerte, y aunque han dejado claro que lo más sencillo habría sido entrenar a la IA para no dar información peligrosa, los responsables han dejado claro que hay solución. “Se puede eliminar lo que el modelo ha aprendido, incluso si la información formaba parte de los datos de entrenamiento. Por lo tanto, no es necesario entrenar todo el modelo desde cero”, afirma Vahiny Gnanasekaran.

Sigue el canal de MeriStation en Twitter. Tu web de videojuegos y de entretenimiento, para conocer todas las noticias, novedades y última hora sobre el mundo del videojuego, cine, series, manga y anime. Avances, análisis, entrevistas, tráileres, gameplays, podcasts y mucho más.

¡Suscríbete! Si estás interesado en licenciar este contenido, pincha aquí.

Normas