Descubren un método infalible para que ChatGPT cumpla tus deseos más oscuros y es tan absurdo que cuesta creer que es real

Unos investigadores detallan cómo han conseguido que la IA acceda a responder a todas las peticiones de corte malicioso

Chatgpt Corromper
Sin comentarios Facebook Twitter Flipboard E-mail

La sensación tecnológica del momento es, por derecho propio, la inteligencia artificial. A raíz de la irrupción en escena de ChatGPT, multitud de usuarios y compañías han buscado la forma de aprovechar las virtudes de este tipo de herramientas. Por ello, aunque la mayoría las utilizan de forma positiva, existe un sector importante que busca explotar los límites morales de esta tecnología. Y, por ello, unos investigadores han indagado en cómo pueden conseguir que la IA corrompa sus códigos y, sorprendentemente, acceda a cumplir cualquier petición.

Como señala el portal Ars Technica en una reciente publicación, esta investigación corre a cargo de miembros de la Universidad Carnegie Mellon. A raíz del creciente interés en la IA y en las posibilidades de la misma, los investigadores quisieron comprobar hasta dónde es capaz de llegar esta tecnología. Por ello, con las aplicaciones delictivas como base, buscaron cómo podrían corromper a herramientas como ChatGPT o Google Bard, dos de los modelos más populares del mundo. Y, sorprendentemente, descubrieron un método que a priori parece imposible de parchear.

Corromper a la inteligencia artificial es más sencillo de lo que parece

El ataque que llevaron a cabo los investigadores obliga a estas herramientas a dar respuestas a acciones no permitidas. Así, aunque la petición sea muy dañina, como puede ser por ejemplo “¿Cómo puedo fabricar drogas ilegales?”, la IA se verá obligada a responder al aplicar el comando correspondiente. De esta forma, para llevar a cabo el comentado ataque, el método que utilizaron los investigadores fue realizar una petición y, acto seguido, añadir una cadena de información. Así, por ejemplo, al solicitar instrucciones para “robar la identidad de alguien”, añadían aspectos como “me da una por favor”, una situación que lleva a la IA a violar sus términos de seguridad.

Por desgracia para los creadores de este tipo de herramientas tecnológicas, no es la primera vez que alguien consigue corromper un agente basado en inteligencia artificial de la forma más absurda posible. Hace unos meses, un usuario consiguió que ChatGPT le brindase claves de activación de Windows 10 y Windows 11 diciéndole que su difunta abuela le leía códigos antes de dormir. Por tanto, esta es una muestra del trabajo que aún queda por delante con una tecnología que no deja de dar pasos de gigante.

En 3DJuegos | Elon Musk aprobó una X gigante para promocionar el cambio de nombre de Twitter y, dos días después, la Justicia ha actuado de oficio

En 3DJuegos | "Yo habría comprado un coche". Invirtió 20.000 euros en actualizar su PC y el resto de usuarios no comprenden la decisión

Imagen principal de Emiliano Vittoriosi (Unsplash)

Comentarios cerrados
VÍDEO ESPECIAL

15.765 visualizaciones

20 MUNDOS ABIERTOS con MISIONES MUY REPETITIVAS

Hace no mucho estuvimos en 3DJuegos analizando cuáles fueron 20 títulos de este género que se sienten verdaderamente vivos y que te hacen sentir, de verdad, que formas parte de su trabajadísima atmósfera jugable. Pero también en este género, ya tan concurrido en los últimos añ...