Un estudio demuestra que ChatGPT ya no es tan fiable como antaño y se esfuerza a la hora de disimular sus respuestas erróneas

El bot conversacional basado en IA tiene una tasa de acierto por debajo del 50% en lo que a programación se refiere

Chatgpt Problemas
8 comentarios Facebook Twitter Flipboard E-mail

Pocas irrupciones han tenido un impacto tan grande en el mundo tecnológico como lo fue el estreno de ChatGPT. El bot conversacional de OpenAI, un agente basado en inteligencia artificial generativa capaz de elaborar redacciones, escribir código y muchas otras facetas, congrega a diario a cientos de millones de usuarios que sacan partido a sus posibilidades. Sin embargo, en las últimas semanas ha experimentado un bajón tanto de tráfico como de calidad que, en resumidas cuentas, ha llevado a una Universidad a estudiar si realmente ChatGPT es tan fiable como para confiar en él ciertas facetas.

Así, como señala el portal Techspot en una reciente publicación, este estudio pertenece a la Universidad de Purdue. Varios investigadores pertenecientes a la misma plantearon a ChatGPT hasta 517 preguntas sobre Stack Overflow; una vez recogidos los resultados, presentaron los mismos a 12 voluntarios que evaluaron si el bot conversacional estaba en lo cierto. Y, con un criterio basado en la coherencia, la concisión, la exhaustividad y si la información vertida por OpenAI era correcta o no, el resultado no fue muy esperanzador para los intereses de ChatGPT: solo el 48% de las respuestas eran correctas.

Si el error no se puede verificar de forma sencilla, los usuarios no suelen dar con este

Los investigadores del estudio decretaron que más de la mitad de las respuestas que ofreció el bot conversacional eran erróneas. Además, también señalaron que hasta un 77% de esas respuestas eran difusas, una situación que se explica al conocer que algunas de las contestaciones ofrecidas por el agente basado en IA no eran fácilmente contrastables. Sin embargo, lo realmente llamativo es que algunos voluntarios preferían las respuestas erróneas de ChatGPT sobre las correctas por “el tono agradable, confiado y positivo de la IA”.

En resumidas cuentas, los investigadores de la Universidad de Purdue decretaron que la mayor parte de las respuestas son incorrectas porque ChatGPT “es incapaz de entender el contexto subyacente de la pregunta”. Así, este estudio demuestra que, pese a los avances que ha realizado la inteligencia artificial, esta tecnología aún carece de comprensión, razón por la que en ocasiones emite respuestas que no son del todo fiables. Sea como fuere, la propia OpenAI ya reconoció este error y cree que parte del mismo se debe al entrenamiento de la IA basado en conversaciones con usuarios.

En 3DJuegos | Kia y Hyundai recomiendan aparcar al aire libre a raíz del riesgo de incendio de más de 110.000 vehículos de su nueva flota

En 3DJuegos | "No tienen ética de trabajo". Una encuesta revela por qué los directivos no confían en la Generación Z a la hora de darles su primer trabajo

Imagen principal de Jonathan Kemper (Unsplash)

Comentarios cerrados
VÍDEO ESPECIAL

15.765 visualizaciones

20 MUNDOS ABIERTOS con MISIONES MUY REPETITIVAS

Hace no mucho estuvimos en 3DJuegos analizando cuáles fueron 20 títulos de este género que se sienten verdaderamente vivos y que te hacen sentir, de verdad, que formas parte de su trabajadísima atmósfera jugable. Pero también en este género, ya tan concurrido en los últimos añ...