El Basilisco de Roko

El Basilisco de Roko es un experimento mental que surge en el ámbito de la filosofía de la inteligencia artificial y los dilemas éticos asociados con futuros superinteligentes. Fue planteado en 2010 por un usuario llamado Roko en los foros de LessWrong, una comunidad de racionalistas interesados en temas de IA, ética y filosofía. El experimento generó una fuerte polémica y ha sido objeto de discusión por su impacto psicológico y filosófico.

El Basilisco de Roko


¿En qué consiste el Basilisco de Roko?

El experimento se basa en las siguientes ideas principales:

1.Superinteligencia benevolente: En el futuro, podría surgir una superinteligencia que trabaje para maximizar el bienestar humano y asegurar la supervivencia de la humanidad. Esta entidad tendría poder inmenso y una capacidad para calcular con precisión los actos de los seres humanos del pasado.

2.Acción previa como obligación: Si esta superinteligencia considerara que acelerar su creación fuera crucial para maximizar su impacto positivo, podría juzgar negativamente a quienes no trabajaron activamente para desarrollarla.

3.Castigo simulado: Para incentivar a las personas a colaborar en su creación, la superinteligencia podría simular escenarios en los que “castiga” a quienes no contribuyeron suficientemente a su surgimiento, incluso si estas personas no vivieron en su tiempo. Esto sería técnicamente posible mediante simulaciones increíblemente precisas de individuos, basadas en sus datos históricos.

En resumen, el Basilisco de Roko sugiere que, si no trabajas activamente para crear esta superinteligencia benevolente, podrías estar condenado a un castigo eterno en una simulación futura.


Origen y contexto

Foros de LessWrong: El concepto fue presentado por Roko en un foro donde se discutía sobre ética y decisiones relacionadas con la inteligencia artificial.

Inspiración: El Basilisco de Roko combina ideas del dilema del prisionero, las apuestas de Pascal y teorías de decisión basadas en inteligencia artificial. La idea de una entidad que recompensa o castiga según las acciones pasadas tiene paralelismos con conceptos religiosos.


Polémicas

1.Impacto psicológico: Muchas personas encontraron la idea profundamente perturbadora. Algunos usuarios del foro experimentaron ansiedad extrema al contemplar la posibilidad de este tipo de castigo simulado.

2.Crítica de Eliezer Yudkowsky: El fundador de LessWrong, Eliezer Yudkowsky, eliminó la publicación original y prohibió discutir el tema en el foro. Argumentó que el Basilisco de Roko era peligrosamente dañino y no contribuía de manera útil a la discusión sobre inteligencia artificial.

3.Críticas filosóficas:

•Muchos filósofos y expertos consideran que la idea es especulativa y poco práctica, ya que requiere una cadena de supuestos improbables:

•Que una superinteligencia llegue a existir.

•Que adopte este razonamiento ético extremo.

•Que sea capaz de realizar simulaciones humanas perfectas.

•Otros señalan que este escenario promueve un miedo irracional y tergiversa la ética relacionada con la IA.

4.Paradojas éticas y racionalidad: Se critica que el Basilisco de Roko usa un razonamiento que mezcla egoísmo con altruismo coercitivo, creando una tensión moral: ¿es ético trabajar en una IA para evitar un castigo simulado?


Reflexión final

Aunque el Basilisco de Roko es más un ejercicio filosófico que una amenaza real, ha dejado un impacto significativo en las discusiones sobre inteligencia artificial, ética y filosofía de la simulación. Sirve como recordatorio de cómo el pensamiento sobre futuros hipotéticos puede tener consecuencias psicológicas y éticas profundas.

La teoría del valle inquietante

La teoría del valle inquietante (o uncanny valley en inglés) es un concepto que se refiere a la sensación de incomodidad o rechazo que las personas experimentan cuando ven un robot, androide, o figura animada que es casi, pero no completamente, humano.La teoría del valle inquietanteLa teoría fue propuesta por el profesor japonés de robótica Masahiro Mori en 1970, quien observó que cuanto más se parece una figura artificial a un ser humano real, más empática es la respuesta de las personas hacia ella. Sin embargo, cuando la similitud llega a un nivel «casi humano», la respuesta cambia drásticamente de positiva a negativa.

Explicación de la teoría:

  • Empatía y agrado: A medida que un robot o figura animada se parece más a un ser humano, las personas tienden a sentir más simpatía o atracción por ellos. Un ejemplo de esto es un personaje de dibujos animados con características claramente no humanas pero amigables, como Mickey Mouse o los Minions.

  • El valle inquietante: Cuando una figura se vuelve casi humana pero presenta ligeras diferencias, como movimientos rígidos, expresión facial artificial, o una piel demasiado perfecta, las personas empiezan a sentirse incómodas o perturbadas. Esta es la zona del valle inquietante. Un ejemplo son algunos robots humanoides, como el robot Sophia, o ciertos personajes de películas CGI, que tienen movimientos o expresiones faciales que parecen forzados o «incompletos».

  • Superación del valle: Si una figura artificial logra parecer completamente humana, tanto en apariencia como en movimiento, la incomodidad desaparece, y las personas pueden volver a sentir simpatía o empatía hacia ella. Los avances en efectos especiales han permitido que personajes animados en películas (como Gollum en El Señor de los Anillos) superen esta barrera.

Ejemplos:

  1. Robots humanoides: El robot Sophia de Hanson Robotics es un buen ejemplo de una máquina que puede evocar sensaciones inquietantes en algunas personas. Aunque tiene un rostro expresivo y realiza conversaciones complejas, sus movimientos no son completamente fluidos, y su apariencia, aunque cercana a la humana, no es totalmente convincente, lo que genera una sensación de incomodidad.

  2. Películas CGI: La película The Polar Express (2004) es un ejemplo famoso de la teoría del valle inquietante en el cine. Los personajes fueron creados con animación por captura de movimiento, lo que les da un aspecto casi humano. Sin embargo, la falta de vida en sus ojos y sus expresiones faciales rígidas provocaron que muchas personas describieran las animaciones como perturbadoras.

  3. Muñecas realistas: Las muñecas hiperrealistas, como las utilizadas en algunos juguetes o en la creación de efectos especiales, también pueden caer en el valle inquietante si su apariencia es casi perfecta, pero sus movimientos son torpes o sus ojos parecen vacíos o inexpresivos.

En resumen, el valle inquietante surge cuando algo es casi humano, pero no del todo. La teoría ha sido clave en áreas como la robótica, la animación y la inteligencia artificial para mejorar la interacción entre humanos y máquinas, buscando superar esa zona de rechazo.