Gaming Club
Regístrate
españaESPAÑAméxicoMÉXICOusaUSA
Betech
Ciencia y tecnología

CHATGPT

El Chat de Bing con ChatGPT te llega a insultar si le haces muchas preguntas

La inteligencia artificial del chat de Bing puede llegar a llamerte mentiroso porque le lleves la contraria, incluso aunque tengas razón.

El Chat de Bing con ChatGPT te llega a insultar si le haces muchas preguntas

Algunos usuarios ya se han puesto manos a la obra para probar ChatGPT en Bing. Como sabrás, los de Redmond han puesto mucho interés en mejorar sus buscador y todo gracias a la inteligencia artificial. El problema viene cuando el software se comporta de manera anómala, llegando incluso a ser un tanto soez con el usuario que le lanza la pregunta

¿Por qué el Chat de Bing da por mala tus respuestas y te insulta?

Sacar muy pronto un producto puede traer consecuencias fatales para la compañía responsable. Esto puede pasar en cualquier segmento, pero en el caso del software nos encontramos con que un fallo de programación puede hacer que una app deje de funcionar como se espera, y en el caso de una que ‘habla’ la cosa puede salir mal.

Pero te ponemos en situación: algunos usuarios ya tienen acceso al Chat de Bing, la tan esperada función del navegador que está pensada para que los usuarios lancen preguntas y esta responda como si fuera una persona. Muchos ya se han puesto a formularle preguntas, y algunos se han encontrado con respuestas un tanto malas por parte del software.

Ampliar

Y es que la propia compañía ha confirmado este problema por el que el Chat de Bing puede volverse repetitivo o incluso te de respuestas poco útiles o vulgares. Y es que, curiosamente, la IA se ‘frustra’ si recibe 15 o más preguntas en la misma sesión. El resultado es que esa ofensa, por lo que responden los usuarios, es que llega al punto de tratar como mentiroso al propio usuario aunque tenga razón.

Microsoft ya está trabajando en solucionar este comportamiento

Parece que a Microsoft le toca ponerse manos a la obra con diligencia para ‘arreglar’ este programa. Por supuesto, no dejamos de lado que se trata de eso mismo, un programa pensado para solucionar una duda, pero parece que cuando se le formulan varias muy seguidas existe la posibilidad de que se ‘harte’.

La conclusión a la que han llegado los de Redmond es que ChatGPT se confunde en el momento en el que la conversación cambia completamente de tema. Y es que la IA pierde el contexto y no entiende de dónde viene la pregunta, por lo que habría que refrescarlo para volver a usarlo. La otra cuestión, la de su comportamiento vulgar, se puede deber a que el programa intenta responder o cambiar el tono en que habla para ofrecer otras respuestas a las que no ha intentado responder bien.