El gemelo malvado de ChatGPT cuesta 60 euros al mes, está en la dark web y cumplirá todas las peticiones que le hagas

Esta reimaginación del bot conversacional carece de moral y no dudará a la hora de ayudar a estafar o delinquir

Chatgpt Wormgpt Virus Hacker
3 comentarios Facebook Twitter Flipboard E-mail

Uno de los principales aspectos de ChatGPT es su capacidad de seguir las normas. Cuando se le plantean situaciones de dudosa ética o moralidad, el bot se muestra reacio a acceder a las peticiones de los usuarios, una situación que es posible gracias a los límites interpuestos por OpenAI y Microsoft. Por ello, muchas personas se quedan con la miel en los labios a la hora de intentar llevar un paso más allá al agente basado en inteligencia artificial. Y, con dicha situación como premisa, un hacker ideó a WormGPT, el hermano malvado del popular bot conversacional.

Como recoge el portal PC Gamer en una reciente publicación, WormGPT está en contra de los límites de la moralidad. Por ello, todos aquellos que lo utilicen pueden llevar a cabo tareas nefastas como la creación de malware o, incluso, plantillas para correos electrónicos phishing. De esta forma, WormGPT es ideal para delinquir y estafar a otros usuarios, un aspecto con el que ChatGPT se muestra tajante. Y, como el mismo medio informa, está a disposición de cualquier interesado que desee cumplir dos condiciones: navegar en la dark web y, a su vez, gastar 60 euros al mes.

El gemelo malvado funciona de manera similar a ChatGPT

En esencia, WormGPT funciona de forma muy similar a ChatGPT. A través de peticiones, los usuarios pueden llevar a cabo distintas demandas utilizando lenguaje natural para que, posteriormente, el bot acceda a cumplir todo lo que estos desean. Así, ofrece resúmenes, código, redacciones y otras funciones presentes en ChatGPT. No obstante, a diferencia de este, WormGPT no está sujeto a obligaciones legales de ningún tipo y es capaz de cruzar los límites tantas veces como se desee. Por ello, es un arma muy peligrosa para agentes con malas intenciones.

En el pasado, ya hemos visto cómo los usuarios consiguen saltarse las restricciones de ChatGPT de manera ingeniosa. Hace escasos meses, un usuario consiguió que este le brindase claves de activación de Windows únicamente pidiéndole que se hiciera pasar por su abuela. Sin embargo, WormGPT no exige ingenio de ningún tipo, ya que es capaz de cumplir este tipo de peticiones sin que el usuario tenga que dar giros de 180º. Por ello, como ya advirtieron los expertos, esta herramienta basada en IA es muy peligrosa por las posibilidades que tiene en su haber.

En 3DJuegos | "Era lo más barato". ChatGPT hace historia y se convierte en la primera IA que oficia una boda

En 3DJuegos | Australia utilizará robots asesinos para matar a 6 millones de gatos porque no sabe qué hacer con los problemas que están causando

Imagen principal de Tom Roberts (Unsplash) 

Comentarios cerrados
VÍDEO ESPECIAL

15.765 visualizaciones

20 MUNDOS ABIERTOS con MISIONES MUY REPETITIVAS

Hace no mucho estuvimos en 3DJuegos analizando cuáles fueron 20 títulos de este género que se sienten verdaderamente vivos y que te hacen sentir, de verdad, que formas parte de su trabajadísima atmósfera jugable. Pero también en este género, ya tan concurrido en los últimos añ...