Ediciones
Resultados
Síguenos en
Hola

CIENCIA

Una experta señala el “verdadero peligro” de la inteligencia artificial

Nerea Luis, responsable de IA en Sngular, dialoga con AS para esclarecer algunos aspectos sobre el auge de esta nueva tecnología en 2023.

SNGULAR

Un nuevo desarrollo de la tecnología se ha extendido en la sociedad en este 2023. La inteligencia artificial (IA) ha conseguido estar presente en diferentes ámbitos en un tiempo récord. Su aplicación en la realidad ha conseguido hitos que suponen un paso más allá de lo que la tecnología disponible ha podido hacer hasta el momento de su llegada, y parece no tener límites.

Con un potencial de imitar todas aquellas virtudes de las que un ser humano se diferencia entre las demás especies del planeta, su meteórica progresión ha hecho dudar a propios y extraños de su viabilidad a largo plazo, dado que puede llegar a fomentar actividades que exceden los límites éticos planteados por la propia humanidad, suponiendo un peligro para la sociedad tal y como la conocemos. Generar composiciones musicales sin la intervención de artistas, crear imágenes que no se corresponden con la realidad o la capacidad de procesar e interactuar con el ser humano mediante la generación de textos... son algunas de las muchas praxis que la inteligencia artificial ha demostrado tener competencia para erigirse como una herramienta clave dentro de la sociedad, no sin estar exenta de polémica.

Por ello, y con el objetivo de dilucidar los aspectos anteriormente mencionados, Diario AS ha hablado con Nerea Luis, responsable del área de IA en Sngular, donde ha respondido a algunas de las cuestiones planteadas además de otras acerca del largo plazo de la inteligencia artificial en la sociedad.

Desde un plano mucho más didáctico. ¿En qué consiste inteligencia artificial?

La inteligencia artificial yo siempre la describo como la forma de convertir datos en conocimiento. Para poder hacer eso que parece simple, necesitas encontrar primero entre los datos relaciones. Además de recuperar los datos, necesitas encontrar relaciones entre ellos y luego estudiar esa evolución de esas relaciones a lo largo del tiempo. El área de Machine y Deep Learning son los que más han crecido dentro de esta disciplina. Lo que pasa que de forma paralela, digamos que desde los orígenes de la inteligencia artificial se plantea el área de conocimiento como, digamos, ese ansia humana por llegar a lo que ahora se denomina como inteligencia artificial general. Esto es como un “supercerebro artificial”, en el que somos capaces de adaptarnos a cualquier contexto y hacer cualquier cosa. Lo que realmente se está trabajando a día de hoy, qué consiste trabajar datos y convertirlos en conocimiento y la que a lo que se llegará, no en algún momento y fue la excusa para iniciar este este campo de estudio a finales de los 60.

“La inteligencia artificial es la forma de convertir datos en conocimiento”

Nerea Luis

En 2023 la inteligencia artificial ha supuesto un auge mediático, pero a nivel profesional, ¿cuánto lleva desarrollándose?

Sí, así es. En 2023 la inteligencia artificial actualmente está viviendo un momento de auge. Ya se observaba un cambio importante a partir sobre todo de un paper que publicó Google en 2017. Entonces se empieza sobre todo a hablar de esto. Sale una nueva arquitectura llamada Transformers, que básicamente lo que reporta Google es que han conseguido un nuevo algoritmo, es decir, una nueva configuración de aprendizaje que salta una de las barreras que llevaban tiempo encalladas. Consistía en ver cómo procesar los textos de forma paralela. Es decir, cuando tú quieres utilizar inteligencia artificial, quieres que sea más rápida que el humano. De cara a la visión artificial, transformamos las imágenes en píxeles que al final son números y luego aplicamos ahí transformaciones.

Sin embargo, con las palabras no había un método efectivo, especialmente a la hora de cambiar de contexto. Utilizando un símil, es como un germen, que sucede en 2017 y se va acrecentando muchísimo acompañado de lo que ahora se conoce como inteligencia artificial generativa. En el momento en el que los investigadores, sobre todo de grandes empresas como Google o Facebook se dan cuenta del potencial que tienen estas nuevas arquitecturas llamadas Transformers a la hora de retener el contexto de cierta información que va cambiando en una conversación, se empieza a hablar de estos modelos generativos.

“Google ha conseguido una nueva configuración de aprendizaje que salta una de las barreras que llevaban tiempo encalladas”

Nerea Luis

¿Cuándo se produce entonces ese cambio que en 2023 hemos podido percibir?

Para mí, lo que cambia mucho la forma de percibir todo esto es la pandemia, con la salida de GPT 3, que fue en mayo de 2020. Ahí es donde vemos por primera vez, digamos un modelo funcionando generativo de texto sobre una interfaz. Eso a nivel técnico fue un salto en el sentido de que daba esa sensación de que cualquiera prácticamente podía usarlo. Luego, a finales de 2022, salió este GTP que ya se publica directamente en formato web. Al no tener que registrarte en su página ni pagar, hace que de repente capte esa atención mundial, resultado de la magnitud técnica y demás, que es en lo que se venía trabajando en años anteriores.

La inteligencia artificial está sirviendo como fuente de información para medios de comunicación. Como profesional en la inteligencia artificial, ¿qué validez otorgas a la inteligencia artificial como fuente de información?

Depende cómo entendamos la fuente de información. Yo no lo utilizaría como una fuente en la que apoyarme para asegurar la veracidad de algo, pero sí para recoger información rápida. Puede servir para un trabajo exploratorio, donde se necesite de una base. Por ejemplo, cuando lleguemos al ordenador, por así decirlo, ya vamos a tener una función que nos puede generar un borrador partiendo sin partir desde una hoja en blanco. La propia estructura de estos sistemas lo que intentan hacer es una especie de estimación de cuál es la siguiente palabra que hay que poner en la frase. Con lo cual, aunque nos parezca que son inteligentes y que están reteniendo la información, es normal que fallen, se inventen cosas porque van a tender a autocompletar en vez de a razonar. Por lo tanto, precisión no, exploración sí, creo que es una buena manera de resumirlo. Esta tecnología todavía no está madura.

Que en 2023 la inteligencia artificial viva un momento de máxima exponencia mediática es porque está al alcance de la sociedad. ¿Qué beneficios inmediatos reporta este tipo de desarrollo tecnológico?

La inteligencia artificial generativa es la que está pegando el boom ahora mismo, tenemos el ejemplo de GPT o Midjourney si queremos hablar de generación de imágenes. Pero por ejemplo, yéndonos a la visión artificial como un componente generativo está aterrizando en tareas de etiquetado. Existe un modelo llamado SAM. Segmenta cualquier cosa. Lo ha sacado META. Por ejemplo, a la hora de etiquetar imágenes, una labor que suele ser muy tediosa. Directamente utiliza el componente generativo y basado en el lenguaje junto a esa asociación con la que se hace forma a la imagen. Tiene un impacto brutal en todos los algoritmos de visión.

Luego hay otra que son los algoritmos llamados NERF. Estudian la generación 3D de objetos a partir de fotos sin pasar por un renderizado. Hacen como una estimación 3D de cómo es ese objeto en la realidad. En definitiva, ambas están orientadas a agilizar una tarea intentando utilizar la mínima mano de obra humana. Entonces, este tipo de cosas son brutales. El impacto que tienen, seguramente lo veremos extenderse en unos seis meses o un año. Sin embargo, el impacto que va a tener en desarrollar modelos de visión artificial en diferentes campos es muy grande.

A pesar de todos estos avances en un periodo tan breve, se están dando casos donde el desarrollo de este tipo de tecnología está rebasando límites éticos. ¿Qué peligros ves al respecto?

Tiene que ver con la falta de regulación. Ahora que la inteligencia artificial está avanzando tan rápido, es verdad que debería haber en cierto modo un marco regulatorio, no que ayude a frenar, que no es el caso, sino que ayude a estandarizar. Por ejemplo, que los sistemas de inteligencia artificial que se usen en salud o sanidad tienen que cumplir con estas normas o una auditoría para hacer una gestión de datos apropiada.

Por otra parte, nos podemos llevar alguna sorpresa para mal este efecto que ha tenido Chat GPT. Todo el mundo está volcando información y luego no es consciente del tipo de información que está volcando. Por ejemplo, mandando datos personales a un servidor que está en Estados Unidos y que nadie tiene acceso. No sé si considerarlo como peligro, pero a día de hoy igual sí por cómo se está avanzando en el campo, porque la ausencia de regulación puede ser mala.

“A día de hoy, la ausencia de regulación puede ser mala”

Nerea Luis

¿Podría ser un sustitutivo de los recursos humanos?

Yo creo que la inteligencia artificial es buena haciendo tareas, pero no trabajos enteros. Obviamente habrá ciertas tareas que se van a automatizar. Pero es algo que lleva pasando desde las primeras revoluciones industriales. El verdadero peligro no es tanto el futuro del trabajo, sino el entender en qué ventana de tiempo va a suceder. Lo que se está observando es que la ventana de tiempo se acorta respecto a la salida de internet o la anterior de los dispositivos móviles. Es decir, cada vez pasan más cosas en menos tiempo, y sumado a la falta de regulación, creo que puede ser la visión más negativa que se pueda tener del campo ahora mismo.

Sin embargo, para mí contrarresta todo lo positivo. Creo que es un momento único todo lo que está sucediendo alrededor de la inteligencia artificial creo que es único. Tiene mucho potencial y además generará también nuevos puestos de trabajo. Simplemente, al ser todo más nuevo, cuesta más predecirlo, pero sin duda que va a aportar por ahí.

“El verdadero peligro es entender en qué ventana de tiempo va a suceder”

Nerea Luis

Durante 2023, hemos visto disparidad de criterios en los países a la hora de regular la inteligencia artificial. China apuesta por potenciar su desarrollo, algunas regiones de EEUU lo han prohibido en ámbitos educativos, Italia también, pero España no ha hecho nada aún al respecto…

Ahora mismo hay un borrador en el que se lleva trabajando dos años en torno a la inteligencia artificial en la Unión Europea, enfocado a que todos estos modelos cumplan con la Ley de Protección de Datos y garantizar a los ciudadanos en cierto modo una calidad de las respuestas de la teconología. Lo que se pretende, sobre todo, no es regular la inteligencia artificial como tal, sino a la inteligencia artificial aplicada a casos de uso muy concretos, que son aquellos sectores donde la toma de decisiones afecta a las personas o impacta directamente en educación, sanidad, trabajo, judicial… la ausencia de esa regulación es la que pone a cada uno un poco a su libre albedrío. Dentro de los riesgos que hay son filtraciones de datos o de enviar datos que no debes. Si sale algo aplicado a sistemas judiciales, seguramente la gente no lo tomaría tan bien, especialmente si no hay garantías de cómo funciona ese sistema. Entonces para mí ese es el punto de vista ciudadano de que todo va a salir acorde a lo que al menos se espera.

¿Crees conveniente introducir este tipo de tecnologías campo a estudiar en ámbitos educativos?

Sería bueno utilizarlo en general. Esta conversación ya la he tenido con profesores. Creo que lo absurdo es decir que “está prohibido usarlo”. De usar Google o Wikipedia a utilizar la inteligencia artificial para mí es un salto cualitativo más. Entiendo el miedo que puede haber mayor dificultad para detectar plagios, Yo creo que es un buen momento para plantearse cómo se debe evaluar. Por ejemplo, en un trabajo, se debe cambiar el chip y tomar la base que nos da GPT para mejorarlo. En un futuro, habrá fórmulas que directamente nos permitan centrarnos en el detalle y en nuestra personalización del texto. En mi opinión, ahí está el valor que añade la inteligencia artificial.

“Para mí es un salto cualitativo más”

Nerea Luis

Dentro de la inteligencia artificial, ¿cuál es el siguiente paso que puede suponer otro cambio al desarrollo vigente?

Lo que sí que va a generar mucho cambio es el momento en el que puedas interactuar con tu voz, con este tipo de herramientas. O sea, ese sí que creo que va a ser un gran cambio el que tú ahora lo está haciendo por teclado. Es un tema de hábito, pero seguramente en el momento en el que implemente el reconocimiento de voz pienso que va a ser un cambio. Con ese tipo de sistemas, ya no tienen ni que usar el teclado salvo para ciertas cosas muy puntuales.

Ya para concluir, una pregunta reflexiva: Directores de Google han dimitido alegando no querer formar parte de esta nueva era, sabiendo ellos mismos que tecnología han creado. Por otra parte, la CEO de Canva aseguró que “entramos en una nueva era” y hay que adaptarse a ella. ¿Con cuál de estas reflexiones te quedas tú?

Yo soy optimista. Sin embargo, creo no puedes ser solamente optimista, tienes que ser consciente del punto en el que está la tecnología y de las limitaciones que provocan esta ausencia de regulación. Creo que las dimisiones como tal tienen más que ver con una falta de alineación con la dirección y la falta de comodidad en temas éticos. Por ejemplo, prometer lanzar GPT sin haber hecho ninguna prueba o experimento controlado con población. En ese momento, a nivel laboral, te puedes convencer a tí mismo que no quieres formar parte de dicho desarrollo por la repercusión negativa que pueda llegar a tener.

Por mi parte, no considero que haya que parar no se ha visto también en algunos científicos que pedían como una moratoria de seis meses o de un año. Creo que sería muy idealista. Mi posición en este caso es simplemente continuar, esperar a que se haga oficial el borrador legislativo europeo, ver qué cosas pasan, cómo afecta a la industria y a partir de ahí, ver sí ha sido un error y parar de verdad en el caso de que se nos haya ido de las manos.