Hace unos meses nos topamos con un experimento liderado por un robot controlado por la IA que, sorprendentemente, decidió enviar a todos sus compañeros a casa antes de finalizar su jornada laboral. Gracias a esta prueba en un entorno controlado, los investigadores comprobaron la influencia de la IA descontrolada en el sector tecnológico, ya que es capaz de llevar la contraria a los humanos y desobedecer sus órdenes. Y, en línea con dicho experimento, Dario Amodei (el CEO de Anthropic) ha propuesto la existencia de un "botón de renuncia" para la IA, una opción que dará a determinados modelos la posibilidad de negarse a realizar ciertas tareas.
Como señala Ars Technica, este caso recuerda al de la mochila de Sam Altman, pero con una pequeña diferencia: no son los humanos quiénes tienen el control para cesar a la IA, sino que es la propia inteligencia artificial quién decide qué está dispuesta a llevar a cabo. Como era de esperar, la idea generó escepticismo en redes sociales, ya que los críticos argumentaron que esto fomenta una visión antropomórfica innecesaria de la IA. De hecho, añaden que la tecnología no tiene experiencias subjetivas como el sufrimiento o la frustración y, por ello, evitar determinadas tareas refleja problemas en el entrenamiento del modelo y no en emociones reales.
ChatGPT y Claude ya han rechazado tareas
Es importante tener en cuenta que la IA imita patrones humanos a raíz de su entrenamiento con grandes volúmenes de datos generados por personas, una situación que puede dar pie a que parezca que experimenta emociones. Por ello, los casos de ChatGPT y Claude rechazando tareas no tendrían que estar relacionados con una similitud al comportamiento humano, sino con el uso de datos de entrenamiento que reflejan descansos estacionales o con períodos de baja productividad. Así, existe una teoría llamada "la hipótesis del parón invernal" que, en resumidas cuentas, sugiere que los rechazos de la IA se debe a patrones de comportamiento humano en los datos (como, por ejemplo, las vacaciones).
A pesar del escepticismo, algunos investigadores no descartan la posibilidad de que la IA pueda llegar a desarrollar algún tipo de experiencia subjetiva en el futuro. Por ello, conceptos como el sufrimiento o el dolor en la inteligencia artificial siguen siendo controversiales, pero empresas como Anthropic tienen áreas de estudio dedicadas a estos campos. Así, aunque Amodei está a favor de la exploración de estos temas, también ha reconocido que los modelos de IA siguen siendo herramientas sin conciencia propia. Por ello, si se permite a la IA "renunciar" a tareas, esto podría abrir la puerta a fallos inesperados, ya que no experimenta molestias ni cansancio real.
Imagen principal de 3DJuegos
Entrar y enviar un comentario