El secreto detrás de las alucinaciones de la IA: aunque no deban, siempre siguen órdenes

El secreto detrás de las alucinaciones de la IA: aunque no deban, siempre siguen órdenes

La inteligencia artificial tiende a rellenar con información los espacios vacíos en sus bases de datos

1 comentario Facebook Twitter Flipboard E-mail
Inteligencia Artificial Alucinaciones
abelardo-gonzalez

Abelardo González

Editor - Tech

Hay un misterio que rodea a todos los modelos de inteligencia artificial, ya que nadie es capaz de explicar cómo funcionan. Sobre el papel, se limitan a repetir lo que han aprendido con cierto nivel de conocimiento, pero la intención de muchos gigantes tecnológicos de alcanzar una IA capaz de razonar ha cambiado las reglas del juego. Por ello, una investigación ha querido hacer hincapié en esta condición y, gracias a sus descubrimientos, hemos podido conocer qué utilizan figuras como Anthropic, una de las compañías más importantes del sector.

Como señala TechSpot, la firma norteamericana apuesta por una nueva técnica conocida como "circuit tracing". Gracias a la misma, son capaces de rastrear los pasos que sigue el modelo para generar respuestas. Al hacerlo, han descubierto que Claude piensa en conceptos antes de traducir. De esta forma, no traduce de forma directa, sino que identifica el concepto de forma neutral y, tras ello, selecciona las palabras adecuadas en el idioma correspondiente. Por ello, sus respuestas pueden llegar a variar si se ofrecen en inglés, chino o español.

Aún queda mucho terreno por descubrir

Gracias a la introducción de elementos como la computación cuántica, los modelos de inteligencia artificial son capaces de resolver problemas matemáticos de forma no convencional. Al hacerlo, descartan la idea de seguir los pasos tradicionales, ya que optan por aproximar números y combinar estimaciones para llegar al resultado. De hecho, la IA es capaz de ocultar esta información, ya que si se le pregunta el método que ha seguido para resolver un problema, describe pasos estándar en lugar de profundizar en los que realmente utilizó.

Según indica dicha investigación, aspectos como la generación de poesía muestran una previsión, dado que la IA no elige la siguiente palabra al azar. En su lugar, opta por determinar la rima y, tras ello, decide construir la línea restante. A raíz de este descubrimiento, la mera idea de que los modelos eligen sus palabras al azar está más en duda que nunca. De hecho, parece que tienen estrategias más complejas para generar respuestas coherentes, pero ni siquiera dicha situación consigue evitar que los gigantes del sector dejen atrás un fenómeno tan complejo como las alucinaciones de la IA.

En otra publicación, Ars Technica profundiza en un estudio relacionado con la tendencia que tiene la inteligencia artificial a inventar datos o información. Para ello, también aludieron a las investigaciones de Anthropic con Claude y, según comprobaron, parece ser que los modelos de IA tienden a adivinar en lugar de rechazar la pregunta. Por ello, las compañías están empezando a entrenar a sus modelos para que aprendan a rechazar preguntas, ya que no deberían responder si no tienen información suficiente como para cumplir la petición.

De esta forma, las compañías detrás de los modelos de IA podrían evitar situaciones como las invenciones de ChatGPT que dañan la imagen pública de algunas personas. No obstante, algunos modelos pueden ser manipulados no solo para dar información falsa (véase el caso de Claude, dado que la propia Anthropic lo ha reconocido), sino para utilizar su conocimiento en contra de sí misma. A pesar de ello, la rapidez que ofrece la IA para resolver una pregunta en cuestión de minutos sigue ligada a este tipo de alucinaciones y problemas.

El extraño mundo de las alucinaciones de la IA

Aunque las compañías intentarán acabar con este fenómeno, lo problemático es que las alucinaciones ocurren en todo tipo de modelos. De esta forma, no solo afecta a los chatbots con sus respuestas plausibles e incorrectas, sino que también sucede en generadores de imágenes y en vehículos autónomos. Por ello, como indica otra publicación de TechSpot, es importante tener en cuenta que este tipo de desinformación puede desencadenar tanto en errores judiciales como en accidentes de tráfico fatales.

A raíz de la popularidad de los modelos de inteligencia artificial, las personas tienden a dar como verídicas las respuestas de la IA. De hecho, la confianza de los mismos aumenta al ver la estructuración de dichos mensajes, ya que una respuesta bien formulada aumenta el riesgo de desinformación. Sin embargo, el exceso de confianza es sumamente peligroso porque puede dar pie a casos como el del abogado falso que utilizaba ChatGPT para resolver sus casos. Desgraciadamente, este es solo un pequeño ejemplo de todo lo que puede derivar de las alucinaciones de la IA.

A la vista de todo lo citado, es evidente que las grandes empresas de inteligencia artificial aún deben trabajar de cara a garantizar unos mínimos de calidad. Así, Google es una de las compañías que más apuesta por esta tecnología y, como consecuencia directa de ello, ha desarrollado una IA capaz de planificar tus viajes a través de Google Maps. Sin embargo, el uso excesivo de la IA tiene consecuencias, dado que la fiebre por las imágenes de Ghibli llevaron al CEO de OpenAI a lanzar una advertencia crítica. Sea como fuere, el futuro pasa por optimizar los resultados y no la búsqueda de mejorar todo lo conocido hasta la fecha.

Imagen principal de 3DJuegos

En 3DJuegos | Warner Bros. y otros estudios de cine han encontrado una mina de oro en internet que quieren aprovechar: monetizar los tráilers falsos que hay de sus pelis

En 3DJuegos | Aunque lo miran de cerca, CD Projekt RED no quiere complicarse la vida con The Witcher 4 y no usará la IA generativa

×

Utilizamos cookies de terceros para generar estadísticas de audiencia y mostrar publicidad personalizada analizando tu navegación. Si sigues navegando estarás aceptando su uso. Más información