Hombre Vs Inteligencia Artificial

Google crea un botón para que las máquinas no acaben con los humanos

Google crea un botón para que las máquinas no acaben con los humanos

Lo que hace 30 años era la fantasía de James Cameron hoy está un paso más cerca de ser palpable. Y es que cuando Google dice que hay que protegerse contra la Inteligencia Artificial, es por algo.

"Tres mil millones de vidas humanas se apagaron el 29 de Agosto de 1997. Los supervivientes del fuego nuclear llamaron a aquello el día del juicio final. Sólo vivieron para hacer frente a otra pesadilla: la guerra contra las máquinas".

 

En películas como 2001, Una Odisea del Espacio, The Matrix o la primera Terminator, la idea de Inteligencias Artificiales tan avanzadas que llegasen a cobrar vida propia ha sido una fuente inagotable para el cine, la TV, los videojuegos, la literatura. Pero lo que James Cameron presentó en 1984, esa IA de nombre Skynet que cobraba conciencia de sí misma y decidía eliminar a los seres humanos por considerarlo inferiores, no hace más que abandonar poco a poco el terreno de la fantasía cibernética para adentrarse en el de la plausibilidad. ¿Nos hemos vuelto locos? Pues no en cuanto a posibilidad teoríca, como la propia Google confirma.

Desconectar a SKYNET

Con sólo echar un vistazo a ese dispositivo que llevamos todo el día a cuestas, ya nos hacemos una idea de a la velocidad abisma a la que la tecnología evoluciona, con elementos como bots, asistentes y personajes virtuales programados para aprender de nosotros cuanto más hablamos con ellos. En resumen, el ser humano está obsesionado con replicar su propia inteligencia de forma electrónica, y conseguir IA's capaces de aprender como lo haría una persona real. Pero esto está llegando a tal límite que DeepMind, una compañía comprada por Google y que vale 509 millones de euros, lleva dos años trabajando con la Universidad de Oxford en una forma de asegurarse que una IA no pueda evitar que un humano la controle.

"Si un agente IA está operando en tiempo real bajo la supervisión humana, de vez en cuando debería ser necesario para un operador humano el apretar el gran botón rojo para prevenir que el agente continúe con una dañina secuencia de acciones -dañinas para el agente o para el entorno- y dirigir al agente a una situación segura". Esto es un fragmento del informe publicado en la web del MIRI (Machine Intelligence Research Institute) y escrito por varios expertos de DeepMind, la Oxford University y otros científicos expertos en el campo de la investigación científica e inteligencia artificial. Y básicamente se traduce en que debe existir una forma de parar una IA que no desea ser controlada.

El informe continúa aduciendo a que existen algoritmos que son fáciles de interrumpir, pero que otros no se puede y exigen ser modficados antes de poder desconectarlos. Pero es esta frase del estudio la que más inquietud provoca, ya que sus autores admiten que "no está claro si todos los algoritmos pueden ser interrumpidos de forma segura", ya que refleja el hecho de que estamos creando algunas cosas que no sabemos cómo pararlas, por lo que DeepMind seguirá adelante con ese "gran botón rojo" que impida a las IAs revelarse tal y como viene en el informe.

¿Es exagerado pensar que un día conectaremos Skynet y habrá una guerra, o será como en The Matrix? Es exagerado, pero lo que los avances tecnológicos de los últimos 30 años en este campo están demostrando en artículos de la propia comunidad científica y no de en guiones de Hollywood es que sigue siendo exagerado pero a la vez algo menos hipotético y más plausible cuanto más se progresa a nivel tecnológico. Os dejamos con las palabras de Nick Bostrom, del Humanity Institute, en el evento anual de Silicon Valley en la Universidad de Oxford:

"Creo personalmente que una vez que la equivalencia humana sea alcanzada, no se tardará mucho en ver a las máquinas convertidas en superinteligentes. Puede que se tarde un tiempo en llegar al nivel humano, pero creo que a partir de ahí el siguiente paso para la superinteligencia podría ser muy rápido. Creo que estas máquinas con superinteligencia podrían ser extremadamente poderosas por las mismas razones básicas que los humanos somos más poderosos que otros animales de este planeta. No se trata de que nuestros músculos sean más fuertes o nuestros dientes más afilados, es porque nuestro cerebro es mejor".

0 Comentarios

Normas Mostrar