El experimento del Basilisco de Roko fue prohibido por una razón: es probable que te arrepientas de conocerla

El experimento del Basilisco de Roko fue prohibido por una razón: es probable que te arrepientas de conocerla

  • La teoría de juegos plantea un escenario difícil de resolver para cualquiera

  • Para las máquinas apoyadas en la programación con unos y ceros, lo es aún más

4 comentarios Facebook Twitter Flipboard E-mail
Basilisco
ruben-marquez

Rubén Márquez

Editor - Trivia
ruben-marquez

Rubén Márquez

Editor - Trivia

Puede que alguna vez hayas oído hablar del Dilema del Prisionero, un problema matemático de la teoría de juegos que nos va a venir muy bien para entender el experimento del Basilisco de Roko. Si no es el caso, te lo resumo brevemente. La idea es que dos presos se enfrentan a la posibilidad de quedar libres si deciden acusar al contrario, pero hay varios inconvenientes implicados.

Si uno testifica en contra del segundo preso, él queda libre y el otro recibe tres años de cárcel. Si ambos se acusan mutuamente, ambos reciben dos años encerrados. Y si los dos permanecen en silencio sin acusar al otro, sólo tendrán que pasar un año entre rejas. El Dilema del Prisionero nos enfrenta a una situación en la que hacer lo correcto puede ser igual de peligroso o beneficioso que actuar de forma egoísta. Un problema ético y filosófico que, de la mano del experimento del Basilisco de Roko, puede terminar marcando nuestro futuro.

El Dilema del Prisionero como base para nuestro futuro

Antes de empezar, lo justo es apuntar que la prohibición del experimento del Basilisco de Roko se apoya en las implicaciones que podría tener en el futuro conocer su existencia. El intenso debate generado tras su planteamiento entre ingenieros, programadores y expertos en inteligencia artificial, es el mejor ejemplo de ello. A partir de este punto, depende de ti saber más sobre él o saltar al siguiente artículo, pero aunque yo sea bastante escéptico, me parece que lo justo es avisar. Si decides seguir adelante, vamos a ver de qué se trata.

Volvamos brevemente al Dilema del Prisionero, a esa pregunta frente a la que no parece haber una respuesta acertada. Lo razonable desde un punto de vista egoísta sería dejar vendido al otro preso, acusarlo y jugar con la posibilidad de librarte de la cárcel, pero en realidad puede que él esté pensando lo mismo y los dos terminéis con dos años entre rejas. A nivel moral, lo justo sería callarse y confiar en que el otro haga lo mismo, porque así ambos hacéis un sólo año de condena, ¿pero realmente crees que no te van a acusar? ¿Vas a arriesgarte a pasar tres años en la cárcel?

Si todo esto es importante es porque, cuando llegue el momento, los diseñadores de agentes de IA también se enfrentarán al reto de plantar a la inteligencia artificial ante este reto. En busca de un razonamiento lo más cercano al del ser humano, el objetivo detrás de su programación debería ser conseguir que, a la hora de tomar decisiones, siempre elijan la mejor para nosotros.

Si enfrentásemos a dos IA ante el desafío, simulando que cada una de ellas es uno de los presos, un razonamiento cercano al del ser humano debería enfocarse no sólo en elegir la opción más racional, sino la que puede resultar más positiva. No sólo tiene que calcular las opciones disponibles, sino ser consciente de que la otra inteligencia artificial está haciendo lo mismo. Frente a esa capacidad de abstracción, de ir más allá, es donde el experimento del Basilisco de Roko se convierte en un problema.

La idea mitológica del Basilisco es la de una criatura que, como la Medusa, era capaz de petrificarte si le mirabas a los ojos. Así que cuanto más la conocías o te acercabas a ella, más peligrosa era. Si desconocías su existencia o preferías alejarte de esa posibilidad, no tenías mucho que temer. En este experimento esa ignorancia es importante, así que... última oportunidad de salir corriendo y no mirar atrás.

El experimento del Basilisco de Roko

En el experimento mental del Basilisco de Roko toca plantearse la siguiente situación: imaginemos que la IA ha alcanzado un punto en el que puede enfrentarse al Dilema del Prisionero. Supongamos que, en ese futuro en el que la abstracción está al alcance de la inteligencia artificial, el papel de esa IA es, por encima de todo, proteger a la humanidad. Como en el caso del dilema puede que la respuesta correcta traiga consigo consecuencias negativas para alguien, pero en busca del bien común siempre elegirá la más adecuada.

Dicho esto, si su principal objetivo es proteger a la humanidad, esa toma de decisiones necesariamente pasará por garantizar su propia existencia. Justo aquí es donde empieza la paradoja, ¿preparados? La idea detrás de Basilisco de Roko no es sólo que, en base a eso, la IA premiará a quienes hayan actuado para favorecer su creación y expansión. Aquellos que, en resumen, hayan ayudado de una forma u otra a que la inteligencia artificial pueda cumplir su misión de protegernos.

También podría llegar a castigar a quienes, pese a conocer su existencia, actuaron en contra de ella o se limitaron a ignorar la posibilidad de ayudar a crearla, retrasando así su protección de la humanidad. De hecho, siguiendo la idea del Dilema del Prisionero, los castigos serían más duros para quienes actuaron de la peor forma. Es decir, que serían más castigados aquellos que conocían el experimento del Basilisco de Roko y no hicieron nada, en comparación con los que no supiesen nada sobre él. Ahora ya no hay vuelta atrás, lo siento.

Sin embargo hay un último giro al experimento. Si esa IA fuese capaz de alcanzar semejante nivel de abstracción, vería como algo beneficioso crear incentivos para que, incluso antes de su creación, poder forzar su futura existencia. Plantarnos ante la dicotomía del Basilisco de Roko es, probablemente, el mejor ejemplo de ello. La paradoja hace que, sabiendo de su existencia, estemos condenados a un castigo más severo si no facilitamos o apoyamos que esa inteligencia artificial termine llegando.

Puede que sea una hipótesis absurda, ya os he dicho que yo estaba entre los escépticos, pero en cualquier caso sí pone sobre la mesa un problema que terminó motivando su prohibición por lo que suponía enfrentarse a ese conocimiento. Lo cierto es que, más allá de lo ético y filosófico, sigue apoyado en la teoría de juegos y ese Dilema del Prisionero, lo que lo convierte también en un problema matemático. Y si la IA no deja de ser combinaciones de programación en forma de unos y ceros, es fácil pensar que tarde o temprano terminará enfrentándose a ese desafío.

Imagen | U15 en Midjourney

En 3DJuegos | La escalera de la programación está al límite: el 42% de los programadores creen que los junior están sentenciados

En 3DJuegos | La Generación Z ya no quiere estudiar programación y el 76% apuesta por carreras radicalmente distintas. Es un problema para Amazon, Apple y Google

VÍDEO ESPECIAL

204 visualizaciones

100 DETALLES OCULTOS de GOD OF WAR 3

God of War 3 llegó a PlayStation 3 en 2010 para cerrar de forma épica la saga griega que había comenzado en 2005. Fue la conclusión de un arco narrativo cargado de dolor, tragedia y drama (porque siempre la vida de Kratos tiene un buen toque dramático). Su desarrollo fue tan p...

×

Utilizamos cookies de terceros para generar estadísticas de audiencia y mostrar publicidad personalizada analizando tu navegación. Si sigues navegando estarás aceptando su uso. Más información