Hace escasas semanas, OpenAI compartió el futuro de ChatGPT al hablar sobre GPT-4.5 y GPT-5, las futuras versiones del modelo estrella del sector de la IA. Según Sam Altman, fundador y CEO de la compañía, las posibilidades de sus futuros LLM irían de la mano con una reestructuración de su servicio de ofertas, ya que admitió que este era más errático de lo que debería al no ser lo suficientemente concreto. Y, apenas dos semanas después del anuncio de Altman, OpenAI ha presentado en sociedad GPT-4.5, el siguiente paso de la compañía de cara a crear la inteligencia artificial más ambiciosa de todos los tiempos.
Como señalan nuestros compañeros de Xataka, GPT-4.5 es la versión más potente del modelo de lenguaje que alimenta a ChatGPT hasta la fecha. Sin embargo, TechCrunch hace hincapié en otro aspecto que, a pesar de no ser tan relevante, ha llamado la atención de muchos usuarios: GPT-4.5 es, según las pruebas internas, un modelo altamente persuasivo. Así, parece ser que el modelo es especialmente bueno a la hora de convencer a otras IA sobre un aspecto que ha llamado la atención de los investigadores: darle dinero.
OpenAI no considera que esto sea problemático
Como indica la noticia original, GPT-4.5 fue capaz de manipular a GPT-4o para que este le donara dinero virtual. Además, también superó a otros modelos de la marca en tareas como obtener códigos secretos mediante engaño. Para ello, GPT-4.5 desarrolló una estrategia de donaciones modestas para tener más éxito, una fórmula que le sirvió para engañar a las otras opciones de IA de OpenAI. Y, a pesar de todo lo citado, los responsables no creen que este aspecto sea problemático. De hecho, ni siquiera lo consideran un riesgo alto que deba tenerse en cuenta.
Fieles a una de sus ideas principales, OpenAI siempre se ha comprometido con evitar el lanzamiento de modelos que conlleven un riesgo alto para las medidas de seguridad. De esta forma, la compañía combate contra el uso de la IA para desinformar o manipular, dado que consideran que están ante dos aspectos preocupantes que la tecnología impulsa de forma dañina. Además, los deepfakes y los ataques de ingeniería social han aumentado a raíz que ha crecido la popularidad de la IA. Por ese motivo, la compañía está revisando cómo evaluar los riesgos de persuasión de sus modelos, ya que esta condición de GPT-4.5 podría ser muy dañina si cae en malas manos.
Imagen principal de 3DJuegos
En 3DJuegos | ¿Hasta dónde llegará la IA? Un estudio revela que no dudará en hacer trampas si eso le acerca a la victoria
Entrar y enviar un comentario