GPT.4-5 asombra al mundo, pero sus creadores lanzan una advertencia: debes tener mucho ojo con su capacidad de persuasión

Varios estudios internos de la compañía revelan que ha conseguido convencer a otros modelos de IA para obtener dinero virtual

Chatgpt Dinero
Sin comentarios Facebook Twitter Flipboard E-mail
abelardo-gonzalez

Abelardo González

Editor - Tech

Hace escasas semanas, OpenAI compartió el futuro de ChatGPT al hablar sobre GPT-4.5 y GPT-5, las futuras versiones del modelo estrella del sector de la IA. Según Sam Altman, fundador y CEO de la compañía, las posibilidades de sus futuros LLM irían de la mano con una reestructuración de su servicio de ofertas, ya que admitió que este era más errático de lo que debería al no ser lo suficientemente concreto. Y, apenas dos semanas después del anuncio de Altman, OpenAI ha presentado en sociedad GPT-4.5, el siguiente paso de la compañía de cara a crear la inteligencia artificial más ambiciosa de todos los tiempos.

Como señalan nuestros compañeros de Xataka, GPT-4.5 es la versión más potente del modelo de lenguaje que alimenta a ChatGPT hasta la fecha. Sin embargo, TechCrunch hace hincapié en otro aspecto que, a pesar de no ser tan relevante, ha llamado la atención de muchos usuarios: GPT-4.5 es, según las pruebas internas, un modelo altamente persuasivo. Así, parece ser que el modelo es especialmente bueno a la hora de convencer a otras IA sobre un aspecto que ha llamado la atención de los investigadores: darle dinero.

OpenAI no considera que esto sea problemático

Como indica la noticia original, GPT-4.5 fue capaz de manipular a GPT-4o para que este le donara dinero virtual. Además, también superó a otros modelos de la marca en tareas como obtener códigos secretos mediante engaño. Para ello, GPT-4.5 desarrolló una estrategia de donaciones modestas para tener más éxito, una fórmula que le sirvió para engañar a las otras opciones de IA de OpenAI. Y, a pesar de todo lo citado, los responsables no creen que este aspecto sea problemático. De hecho, ni siquiera lo consideran un riesgo alto que deba tenerse en cuenta.

Fieles a una de sus ideas principales, OpenAI siempre se ha comprometido con evitar el lanzamiento de modelos que conlleven un riesgo alto para las medidas de seguridad. De esta forma, la compañía combate contra el uso de la IA para desinformar o manipular, dado que consideran que están ante dos aspectos preocupantes que la tecnología impulsa de forma dañina. Además, los deepfakes y los ataques de ingeniería social han aumentado a raíz que ha crecido la popularidad de la IA. Por ese motivo, la compañía está revisando cómo evaluar los riesgos de persuasión de sus modelos, ya que esta condición de GPT-4.5 podría ser muy dañina si cae en malas manos.

Imagen principal de 3DJuegos

En 3DJuegos | "Estaremos abocados a un desastre". EA tiene problemas que resolver ya que más de 30 actores de doblaje se han rebelado contra la IA

En 3DJuegos | ¿Hasta dónde llegará la IA? Un estudio revela que no dudará en hacer trampas si eso le acerca a la victoria

VÍDEO ESPECIAL

204 visualizaciones

100 DETALLES OCULTOS de GOD OF WAR 3

God of War 3 llegó a PlayStation 3 en 2010 para cerrar de forma épica la saga griega que había comenzado en 2005. Fue la conclusión de un arco narrativo cargado de dolor, tragedia y drama (porque siempre la vida de Kratos tiene un buen toque dramático). Su desarrollo fue tan p...

×

Utilizamos cookies de terceros para generar estadísticas de audiencia y mostrar publicidad personalizada analizando tu navegación. Si sigues navegando estarás aceptando su uso. Más información