Tecnología

Microsoft lanza una advertencia sobre su propia IA: “No confíes en Copilot”

Salta la polémica porque Microsoft indica en el EULA de su IA Copilot que solo debería usarse con “fines de entrtenimiento”.

microsoft copilot ia inteligencia artificial
Rubén Martínez
Redactor en Meristation
Redactor de Meristation. Comenzó como colaborador en la sección de vídeo en 2015, y desde 2017 es redactor de la sección de guías y trucos. Desde 2018 cubre Fortnite en su totalidad y continúa elaborando guías, temas de actualidad, análisis, reportajes y todo tipo de contenido sobre videojuegos.
Actualizado a

Copilot, la IA de Microsoft, se encuentra en el punto de mira por la aparente discrepancia entre su uso pretendido y las recomendaciones de la propia compañía. Mientras que el gigante tecnológico lleva integrando Copilot en productos clave como Windows u otras herramientas de productividad enfocadas en entornos de empresa, los términos de uso de su inteligencia artificial indican claramente que solo debería usarse para fines de entretenimiento.

Llueven las críticas hacia Microsoft Copilot por su gran contradicción: ¿herramienta de empresa o app de entretenimiento?

Microsoft protagoniza una nueva polémica en base a un preocupante mensaje hallado en los términos de uso de Copilot, su inteligencia artificial. En el documento se especifica claramente que esta herramienta solo es apta para “fines de entretenimiento”, y que en ningún caso debería utilizarse para tomar decisiones importantes dado que puede “cometer errores” o “no funcionar de la forma pretendida”. Muchos ya interpretan esta advertencia como una manera de blindarse a nivel legal de los posibles daños y perjuicios derivados de seguir a pies juntillas todas sus indicaciones.

Microsoft lanza una advertencia sobre su propia IA: “No confíes en Copilot”
Dado Ruvic

Mientras que Microsoft continúa presentando a Copilot como una solución avanzada de optimización de pipelines del trabajo diario en entornos corporativos, ya hay quien pone en entredicho la confianza de la propia Microsoft en su IA. En redes como X o Reddit han proliferado los comentarios críticos e incluso irónicos que señalan que si ni siquiera sus propios creadores se fían de Copilot, los usuarios tampoco deberían hacerlo.

Microsoft se ha defendido argumentando que la definición de Copilot como “una herramienta de entretenimiento” se trata de “lenguaje heredado” de cuando se trataba únicamente de un asistente vinculado al navegador Bing, avisando también de que su descripción dentro del EULA será modificada próximamente porque ya no refleja el uso actual del producto. Sin embargo, para cierta parte del sector tecnológico, estas explicaciones resultarían insuficientes como para volver a recuperar la confianza en su sistema.

Microsoft lanza una advertencia sobre su propia IA: “No confíes en Copilot”

“Lenguaje heredado” o no, lo único seguro es que herramientas de inteligencia artificial como ChatGPT, Claude o Copilot deberían utilizarse precisamente como eso: como herramientas, y no como muletas. Aunque poseen un gran valor a la hora de optimizar flujos de trabajo, conviene conocer a fondo sus ventajas y limitaciones y en ningún caso crear dependencia de ellas. Una muy buena idea es aprender de la IA y no al revés para que, en el caso de que las suscripciones se vuelvan completamente prohibitivas, podamos seguir trabajando con relativa normalidad e incluso habiendo aumentado nuestra productividad en base a lo aprendido.

Noticias relacionadas

Suscríbete al canal de MeriStation en YouTube: somos tu web de videojuegos y entretenimiento, donde podrás conocer todas las noticias y novedades sobre el mundo del videojuego, cine, series, manga y anime. Análisis, entrevistas, tráileres, gameplays, pódcast y mucho más. También te animamos a seguir nuestra cuenta de TikTok.

¡Síguenos en ambas plataformas y, si estás interesado en licenciar este contenido, pincha aquí!

Etiquetado en:
Comentarios
Normas

Rellene su nombre y apellidos para comentar

Te recomendamos en Betech