El punto débil de la IA son los textos invisibles que los humanos no pueden ver y, por desgracia, permiten robar datos confidenciales

Los atacantes insertan estos códigos en los prompts y consiguen obtener información privada de los usuarios

Fraude Estafa Chatgpt
Sin comentarios Facebook Twitter Flipboard E-mail

Es indudable que la inteligencia artificial se ha convertido en el sector tecnológico con más potencial de la actualidad. Por ello, muchas personas utilizan distintas herramientas a diario para mejorar su productividad, ya que opciones como ChatGPT sirven para traducir, elaborar tablas y otro tipo de funciones. Sin embargo, no todas las noticias son tan positivas y, por ello, hemos conocido casos como el de un youtuber que denunció a una empresa por copiar su voz sin su consentimiento.

Desgraciadamente, existen otras noticias que son igual de negativas y cuentan con un impacto aún mayor. Como señala el portal Ars Technica en una reciente publicación, los modelos de lenguaje pueden interpretar caracteres invisibles del estándar Unicode. Hasta aquí, muchos no saben que significa esto, pero los expertos ya han lanzado una advertencia: esto permite a los atacantes ocultar instrucciones maliciosas o, a su vez, extraer datos confidenciales sin que los humanos los vean. Por ello, Claude, Copilot y otros chatbots son vulnerables a estos ataques que utilizan caracteres invisibles para ocultar comandos maliciosos.

Algunos modelos cuentan con limitaciones de serie

Así, los atacantes sacan partido al ASCII smuggling, un término que describe el uso de caracteres invisibles que se parecen a los del código ASCII para ocultar datos en el texto, similar a lo que sucede con una URL. De esta forma, estos datos son invisibles para los usuarios, pero comprensibles para los chatbots, y permite dar pie a ataques que insertan comandos ocultos en prompts. Por ello, los atacantes pueden hacer que el chatbot procese correos electrónicos o documentos en busca de información confidencial.

De momento, Microsoft y OpenAI ya han implementado barreras para bloquear el uso de caracteres invisibles en sus servicios. Por ello, Copilot y ChatGPT están a salvo, pero algunas plataformas aún siguen siendo vulnerables y opciones como Gemini, la IA de Google, puede leer y escribir caracteres invisibles, pero no siempre los interpretará de forma correcta como texto ASCII y su ataque será limitado. Así, el uso de estos caracteres planea riesgos de seguridad no solo para los modelos de lenguaje, sino para cualquier aplicación que no esté diseñada para bloquear este tipo de ataques.

En 3DJuegos | La IA se convierte en el principal enemigo de la IA y los responsables reconocen que no saben cómo pueden gestionar la situación

En 3DJuegos | Un experimento centrado en la IA demuestra cómo de capacitada está para sustituir a los humanos al frente de una empresa

Imagen principal de Emile Perron (Unsplash)

VÍDEO ESPECIAL

17.434 visualizaciones

Las CLAVES del ÉXITO de ASTRO BOT

El simpático Astro Bot ya tiene nuevo juego y como sus anteriores aventuras, es un auténtico imprescindible. El exclusivo de PS5 está levantando pasiones entre jugadores de todo el mundo y es fácil de entender una vez te pones a los mandos del DualSense...