La IA evoluciona al nivel de los humanos y los expertos aseguran que ChatGPT y otros modelos ya son capaces de mentir de forma descarada

La inteligencia artificial ofrece información falsa como verídica y es un aspecto de lo más preocupante

Chatgpt Mentira
4 comentarios Facebook Twitter Flipboard E-mail

Pocas ramas tecnológicas acaparan tanta atención como la inteligencia artificial. En las últimas semanas, hemos conocido que el interés en este sector se encuentra en su punto más álgido, ya que los inversores no tienen reparos a la hora de dedicar miles de millones de euros a iniciativas de todo tipo relacionadas con esta rama. Sin embargo, un estudio ha demostrado que, sorprendentemente, cuánto más sofisticado es un modelo de IA, más probable es que mienta.

Como señala el portal Ars Technica en una reciente publicación, la IA tiene una tendencia preocupante hacia ofrecer respuestas estructuradas, pero incorrectas. Según Wout Schellaert, los modelos de IA imitan a los humanos y, como estos, también son capaces de hablar con confianza sobre temas que no comprenden. De esta forma, a pesar de que hayan mejorado sus prestaciones en los últimos meses y han reducido aspectos como ofrecer respuestas evasivas, también se ha visto un aumento de la posibilidad de brindar respuestas tan incorrectas como convincentes.

La tendencia de errores es cada vez más preocupante

Por desgracia, el origen de este problema está en el entrenamiento de la inteligencia artificial. Durante los procesos de enseñanza, los humanos instruyeron a los modelos de IA para evitar decir "no sé", ya que preferían respuestas completas a pesar de carecer de sentido. Por ello, la IA aprendió a ocultar sus errores de forma convincente, una situación que complicó la detección de respuestas falsas. Y, como consecuencia directa, los investigadores encontraron que los modelos más avanzados tenían una tendencia cada vez mayor a dar respuestas evasivas e incorrectas si desconocían aspectos relacionados con un tema.

Según relata la misma noticia, ChatGPT resultó ser el "mentiroso" más efectivo, ya que fue capaz de engañar a más del 40% de las personas que participaron en un experimento. Además, las primeras versiones de GPT indicaban áreas donde el modelo no estaba seguro de sus respuestas, pero la intención de comercializar el servicio dejó atrás esta característica. Por ello, Schellaert sugiere que lo ideal, al menos por el momento, es utilizar esta tecnología solo en los campos en los que uno es experto o puede verificar la respuesta, sirviendo más como herramienta de apoyo que como fuente de conocimiento infalible.

En 3DJuegos | Microsoft lanza "Copilot Vision", una versión invasiva de su IA que ve tu actividad en internet, pero solo si lo autorizas

En 3DJuegos | "Solo quieren ganar dinero". Elon Musk critica a los creadores de ChatGPT mientras da una fiesta en su antigua sede para reclutar empleados

Imagen principal de Possessed Photography (Unsplash)

VÍDEO ESPECIAL

237 visualizaciones

Las CLAVES del ÉXITO de ASTRO BOT

El simpático Astro Bot ya tiene nuevo juego y como sus anteriores aventuras, es un auténtico imprescindible. El exclusivo de PS5 está levantando pasiones entre jugadores de todo el mundo y es fácil de entender una vez te pones a los mandos del DualSense...