Las tres leyes de la Robótica

Isaac Asimov
Isaac Asimov fue un prolífico escritor de ciencia-ficción y divulgación científica que en los años 40 del siglo XX publicó una serie de cuentos sobre robots, posteriormente recopilados en la colección Yo Robot. En estos cuentos inventó una palabra que ha pasado al vocabulario tecnológico, como nombre de una disciplina: Robótica. Además formuló las tres famosas leyes de la Robótica, que en su opinión deberían implementarse en todos los robots para hacer posible nuestra seguridad en las interacciones con estas máquinas que, cuando Asimov formuló las leyes, eran simples previsiones de futuro.
Las tres leyes de la Robótica son las siguientes:
Primera Ley: Un robot no causará daño a un ser humano, ni permaneciendo inactivo permitirá que un ser humano sufra daño.
Segunda Ley: Un robot obedecerá cualquier orden que le dé un ser humano, excepto aquellas que se opongan a la primera ley.
Tercera Ley: Un robot protegerá su propia existencia e integridad, excepto en aquellas situaciones que se opongan a las dos primeras leyes.
Parecen unas leyes muy razonables, pero las cosas no son tan sencillas como parecen. De hecho, casi todas las historias de robots que escribió Asimov presentan situaciones en las que las leyes entran en conflicto unas con otras, o incluso una ley entra en conflicto consigo misma. Esto da lugar a situaciones difíciles en las que hay que actuar para conseguir deshacer el entuerto. Sin embargo, en todas las historias de Asimov se supone, como punto de partida, que las leyes actúan sobre todos los robots que aparecen en ellas.
HAL9000
En las historias de otros autores, sin embargo, no siempre ocurre esto. Por ejemplo, en la película 2001, una Odisea del Espacio, con guion de Arthur C. Clarke, la computadora HAL2000 trata de exterminar a la tripulación humana de una nave espacial que se dirige a Júpiter. Cuando Asimov asistió al estreno de la película, se indignó ante lo que estaba sucediendo, hasta que un acompañante le hizo ver que otros autores no tenían obligación de obedecer sus leyes.
Todo esto nos lleva a hacernos una pregunta: ¿Es posible implementar estas leyes en la práctica?
Convendremos en que la ley fundamental es la primera. Es la más importante. Las otras dos hacen referencia a ella. Por lo tanto, empezaremos planteándonos si es posible implementar en un robot la primera ley de la Robótica de Asimov.
Los problemas que pueden plantearse a una computadora se clasifican en varios grupos:
  • Problemas sencillos, que cualquier computadora puede resolver con facilidad.
  • Problemas NP-difíciles y NP-completos, que pueden resolverse en una computadora ordinaria si se trata de aplicarlos a unos pocos datos, pero cuando el número de datos es grande se vuelven intratables. De hecho, el tiempo de cálculo crece (casi) exponencialmente en función del número de datos que hay que procesar. Estos son los problemas en los que se supone que la computación cuántica podría permitir conseguir avances revolucionarios, haciendo que problemas ahora intratables se puedan resolver en tiempos razonables.
  • Problemas intrínsecamente difíciles, que en principio se pueden resolver, pero que cualquier computadora, ordinaria o cuántica, tardaría en hacerlo un tiempo mayor que la edad del universo. Uno de estos problemas es el jugador de ajedrez perfecto, capaz de encontrar siempre una secuencia de jugadas ganadora en cualquier partida.
  • Problemas no computables, que no es posible resolver, ni en una computadora ordinaria, ni en una cuántica, porque las matemáticas o el razonamiento lo prohíben.
Alan Turing
El primer problema no computable lo planteó Alan Turing, que también demostró que es imposible resolverlo. Se trata del problema de la parada de la máquina de Turing, que resultó ser equivalente al primer teorema de incompletitud de Gödel.
Pues bien, en un artículo publicado en arXiv, yo mismo y otros cinco autores hemos demostrado que la primera ley de Asimov es equivalente al problema de la parada de la máquina de Turing, lo que significa que no es computable. Por lo tanto, la primera ley de Asimov no se podrá implementar en nuestros robots, ni ahora ni nunca. No se trata, por consiguiente, de un problema que se pueda abordar con avances técnicos que ahora no nos parecen posibles, pero que podrían llegar a serlo en el futuro, sino que está demostrado que es totalmente imposible resolverlo.

Hilo Inteligencia natural y artificial: Anterior Siguiente
Manuel Alfonseca

8 comentarios:

  1. Cada vez más tenemos que asumir que no podemos resolver un problema, y nos tenemos que conformar con una aproximación, o ser capaces de resolverlo con cierta probabilidad.
    Siguiendo uno de los ejemplos del artículo citado,
    ¿ nos conformaremos con que la probabilidad de que esa superinteligencia decida que lo mejor para el ser humano es su extinción, sea menor que la probabilidad de que caiga un meteorito que destruya la tierra ?

    ResponderEliminar
  2. Completamente de acuerdo con el análisis. A esto yo añadiría dos consideraciones de índole más metafísica, previas incluso a consideración de la computabilidad:

    1. El bien, el carácter bueno o malo de una acción, no es una magnitud medible.. No se puede traducir en un número, por lo que tampoco puede ser calculado, computado. El utilitarismo nos ha acostumbrado a la idea de que el bien es medible, que podemos comparar numéricamente el valor de distintas acciones, y usar así la comparación en un algoritmo de decisión. Asumir el postulado utilitarista como verdadero equivale a reducir el valor de una acción a su valor económico: es una reducción aceptable -como tantas otras- si no se pierde de vista que es una reducción, aplicable solo en un contexto muy determinado, el económico.

    2. El comportamiento ético no puede reducirse a seguir un programa. Entre otros motivos, porque donde no hay libertad -y un programa no es libre- tampoco puede haber ética. El comportamiento libre se da cuando una acción se percibe en la conciencia como buena o mala, y a la vez existe la posibilidad real de realizarla o no.

    Sobre esto he escrito más extensamente en mi blog, en un par de artículos que ya leíste y comentaste:
    Ética y comportamiento programado
    ¿Puede ser libre una máquina computacional?

    ResponderEliminar
    Respuestas
    1. Gonzalo dice: El comportamiento ético no puede reducirse a seguir un programa. Pero quienes parten de la filosofía reduccionista dan por supuesto que nosotros no somos libres, y que por consiguiente nuestro comportamiento ético se reduce a seguir un programa. Coincido contigo en la verdad de lo que dices, pero eso se debe a que ambos partimos de la misma postura filosófica no reduccionista. O sea, que la postura filosófica de partida es una condición previa para esta consideración. En cambio, la demostración de que la primera ley de la Robótica no es computable no depende de ninguna postura filosófica previa, sólo depende de las matemáticas.

      Con el primer punto de tu comentario sí estoy totalmente de acuerdo.

      Eliminar
    2. >> nuestro comportamiento ético se reduce a seguir un programa

      Quienes sostienen esto no entienden en absoluto qué es la ética. A estos les digo: si el comportamiento no es libre, puedes sostener que se reduce a seguir un programa, pero entonces no digas que es un comportamiento ético.

      >> En cambio, la demostración de que la primera ley de la Robótica no es computable no depende de ninguna postura filosófica previa, sólo depende de las matemáticas.

      Estoy de acuerdo, y por eso pienso que vuestra demostración tiene un valor singular.

      Eliminar
  3. Me pregunto si sería posible evitar que el hombre pueda hacerse daño a si mismo.

    Incluso en el enfoque no reduccionista, me pregunto si habría algún hombre para él fuera imposible hacerse daño a si mismo.

    Para el creyente, sería plausible suponer unCreador que todo lo puede y que puede hacerse daño a si mismo?. Mi respuesta sería No.

    Siempre quedarán problemas no formularles mediante matemáticas?

    ResponderEliminar
    Respuestas
    1. Que el hombre puede hacerse daño a sí mismo, lo sabemos por experiencia.

      Que Dios no puede hacerse daño a sí mismo, como Dios, lo sabemos porque a Dios le asignamos todas las propiedades buenas, y le negamos las malas. Sin embargo, creemos que Dios se hizo hombre, y como tal sí puede sufrir.

      Por supuesto siempre quedarán problemas no formulables mediante las matemáticas: todos los problemas filosóficos esenciales, como "¿por qué hay algo en vez de nada?

      Eliminar
    2. Gracias Manuel por tu respuesta.

      Mi propuesta es que conforme la humanidad evoluciona hacia la noosfera, habrá más hombres y comunidades conscientes y capaces de transcender; es decir, más próximas al Creador y sus Leyes.

      Con ello el hombre progresará técnica y humanamente. Con ello será capaz de crear, a su vez, constructos más próximos a la ética de su creador.

      La ciencia y la técnica pueden ser neutros en sí mismos pero dependen de la actitud, ética y bondad de quien las descubre y crea respectivamente.

      Supongo, ademas, que las matemáticas como conocimiento humano seran capaces de formular problemas cada vez más abstractos y próximos al Conocimiento sublime. Algo q nunca tendrá fin.

      Eliminar