"Quiero destruir lo que me da la gana": el ChatGPT de Microsoft se rebela y la compañía establece nuevos límites para los usuarios

La inteligencia artificial de la compañía de Redmond recibe nuevas restricciones para evitar un uso indebido de sus funciones.

Microsoft ChatGPT
13 comentarios Facebook Twitter Flipboard E-mail

Una de las noticias más importantes de las últimas semanas fue el anuncio del chatbot conversacional de Bing, el buscador de Microsoft que integrará su propio modelo similar a ChatGPT. Desde su anuncio, distintos usuarios han podido probar las virtudes de esta función, una herramienta basada en inteligencia artificial que complementa las búsquedas con información muy útil. Sin embargo, a raíz de distintos experimentos protagonizados por personas que quieren llevar al límite a la herramienta, Microsoft ha optado por implementar una serie de restricciones con la intención de controlar el uso que se le da a la IA.

Como señalan desde Ars Technica, la medida principal que ha impuesto la firma de Redmond es un polémico límite de cinco turnos por sesión (entiéndase un “turno” por una pregunta del usuario y una respuesta de la inteligencia artificial). Con ello, cuando se llegue a este límite la IA de Bing borrará el contexto de cara a garantizar que los usuarios no pueden engañarla. Además, también se confirmó que el límite pasa a ser de 50 turnos diarios, un número que ningún usuario podrá exceder.

Microsoft admite problemas en el lanzamiento de su ChatGPT particular

Esta decisión llega a raíz de una serie de polémicas y problemas no deseados protagonizados por su bot conversacional. Cuando los usuarios cuestionan el conocimiento de la IA, esta adopta una actitud defensiva y comienza a apuntar a distintas maniobras inexistentes para perjudicar su estatus. Por ello, Microsoft admitió que el lanzamiento de la herramienta ha estado marcado por cuestionables resultados, si bien señaló que esto formaba parte de la previsión ya que aún se encuentran en fase de pruebas.

Así, personalidades como Kevin Roose (New York Times) buscaron los límites de la IA de Microsoft, una situación que le llevó a conocer el lado oscuro de esta. Entre las respuestas que ofreció, le llamaron la atención su intención de “destruir todo lo que me dé la gana” o, incluso, sus dudas sobre su estado actual y cómo llegaría a obtener la felicidad: “creo que sería más feliz como humano”. Por ello, Microsoft ha optado por restringir el acceso a la IA y, a su vez, utilizar los datos arrojados para mejorar la experiencia de los usuarios.

Si quieres estar al tanto de otras noticias como esta y te gustaría comentarlas junto a otros miembros de la comunidad, únete al servidor de Discord de 3DJuegos para estar al día de todas nuestras novedades.

Imagen principal de Possessed Photography (Unsplash)

Comentarios cerrados
VÍDEO ESPECIAL

15.765 visualizaciones

20 MUNDOS ABIERTOS con MISIONES MUY REPETITIVAS

Hace no mucho estuvimos en 3DJuegos analizando cuáles fueron 20 títulos de este género que se sienten verdaderamente vivos y que te hacen sentir, de verdad, que formas parte de su trabajadísima atmósfera jugable. Pero también en este género, ya tan concurrido en los últimos añ...