Isaac Asimov |
Isaac Asimov fue un prolífico escritor de ciencia-ficción y divulgación
científica que en los años 40 del siglo XX publicó una serie de cuentos sobre
robots, posteriormente recopilados en la colección Yo Robot. En estos cuentos
inventó una palabra que ha pasado al vocabulario tecnológico, como nombre de
una disciplina: Robótica. Además formuló las tres famosas
leyes de la Robótica, que en su opinión deberían implementarse en todos los robots
para hacer posible nuestra seguridad en las interacciones con estas máquinas
que, cuando Asimov formuló las leyes, eran simples previsiones de futuro.
Las tres leyes de la Robótica son las siguientes:
Primera Ley: Un
robot no causará daño a un ser humano, ni permaneciendo inactivo permitirá que
un ser humano sufra daño.
Segunda Ley: Un
robot obedecerá cualquier orden que le dé un ser humano, excepto aquellas que
se opongan a la primera ley.
Tercera Ley: Un
robot protegerá su propia existencia e integridad, excepto en aquellas
situaciones que se opongan a las dos primeras leyes.
Parecen unas leyes muy razonables, pero las cosas no son tan sencillas como
parecen. De hecho, casi todas las historias de robots que escribió Asimov
presentan situaciones en las que las leyes entran en conflicto unas con otras,
o incluso una ley entra en conflicto consigo misma. Esto da lugar a situaciones
difíciles en las que hay que actuar para conseguir deshacer el entuerto. Sin
embargo, en todas las historias de Asimov se supone, como punto de partida, que
las leyes actúan sobre todos los robots que aparecen en ellas.
HAL9000 |
En las historias de otros autores, sin embargo, no siempre ocurre esto.
Por ejemplo, en la película 2001, una Odisea del Espacio, con guion de
Arthur C. Clarke, la computadora HAL2000 trata de exterminar a la tripulación
humana de una nave espacial que se dirige a Júpiter. Cuando Asimov asistió al
estreno de la película, se indignó ante lo que estaba sucediendo, hasta que un
acompañante le hizo ver que otros autores no tenían obligación de obedecer sus
leyes.
Todo esto nos lleva a hacernos una pregunta: ¿Es posible implementar estas leyes en la
práctica?
Convendremos en que la ley fundamental es la primera. Es la más importante.
Las otras dos hacen referencia a ella. Por lo tanto, empezaremos planteándonos
si es posible implementar en un robot la primera ley de la Robótica de Asimov.
Los problemas que pueden plantearse a una computadora se clasifican en
varios grupos:
- Problemas sencillos, que cualquier computadora
puede resolver con facilidad.
- Problemas
NP-difíciles y NP-completos, que pueden resolverse en una computadora ordinaria si se trata
de aplicarlos a unos pocos datos, pero cuando el número de datos es grande
se vuelven intratables. De hecho, el tiempo de cálculo crece (casi) exponencialmente
en función del número de datos que hay que procesar. Estos son los
problemas en los que se supone que la computación cuántica podría permitir
conseguir avances revolucionarios, haciendo que problemas ahora intratables
se puedan resolver en tiempos razonables.
- Problemas
intrínsecamente difíciles, que en principio se pueden resolver, pero que cualquier
computadora, ordinaria o cuántica, tardaría en hacerlo un tiempo mayor que
la edad del universo. Uno de estos problemas es el jugador de ajedrez
perfecto, capaz de encontrar siempre una secuencia de jugadas ganadora en
cualquier partida.
- Problemas no
computables,
que no es posible resolver, ni en una computadora ordinaria, ni en una cuántica,
porque las matemáticas o el razonamiento lo prohíben.
Alan Turing |
El primer problema no computable lo planteó Alan Turing, que también
demostró que es imposible resolverlo. Se trata del problema de la parada de la
máquina de Turing, que resultó ser equivalente al primer teorema de
incompletitud de Gödel.
Pues bien, en un artículo publicado en arXiv, yo
mismo y otros cinco autores hemos demostrado que la primera ley de Asimov es
equivalente al problema de la parada de la máquina de Turing, lo que significa
que no es computable. Por lo tanto, la primera ley de Asimov no se podrá
implementar en nuestros robots, ni ahora ni nunca. No se trata, por
consiguiente, de un problema que se pueda abordar con avances técnicos que
ahora no nos parecen posibles, pero que podrían llegar a serlo en el futuro,
sino que está demostrado que es totalmente imposible resolverlo.Hilo Inteligencia natural y artificial: Anterior Siguiente
Manuel Alfonseca
Muy interesante. Enhorabuena.
ResponderEliminarCada vez más tenemos que asumir que no podemos resolver un problema, y nos tenemos que conformar con una aproximación, o ser capaces de resolverlo con cierta probabilidad.
ResponderEliminarSiguiendo uno de los ejemplos del artículo citado,
¿ nos conformaremos con que la probabilidad de que esa superinteligencia decida que lo mejor para el ser humano es su extinción, sea menor que la probabilidad de que caiga un meteorito que destruya la tierra ?
Completamente de acuerdo con el análisis. A esto yo añadiría dos consideraciones de índole más metafísica, previas incluso a consideración de la computabilidad:
ResponderEliminar1. El bien, el carácter bueno o malo de una acción, no es una magnitud medible.. No se puede traducir en un número, por lo que tampoco puede ser calculado, computado. El utilitarismo nos ha acostumbrado a la idea de que el bien es medible, que podemos comparar numéricamente el valor de distintas acciones, y usar así la comparación en un algoritmo de decisión. Asumir el postulado utilitarista como verdadero equivale a reducir el valor de una acción a su valor económico: es una reducción aceptable -como tantas otras- si no se pierde de vista que es una reducción, aplicable solo en un contexto muy determinado, el económico.
2. El comportamiento ético no puede reducirse a seguir un programa. Entre otros motivos, porque donde no hay libertad -y un programa no es libre- tampoco puede haber ética. El comportamiento libre se da cuando una acción se percibe en la conciencia como buena o mala, y a la vez existe la posibilidad real de realizarla o no.
Sobre esto he escrito más extensamente en mi blog, en un par de artículos que ya leíste y comentaste:
Ética y comportamiento programado
¿Puede ser libre una máquina computacional?
Gonzalo dice: El comportamiento ético no puede reducirse a seguir un programa. Pero quienes parten de la filosofía reduccionista dan por supuesto que nosotros no somos libres, y que por consiguiente nuestro comportamiento ético se reduce a seguir un programa. Coincido contigo en la verdad de lo que dices, pero eso se debe a que ambos partimos de la misma postura filosófica no reduccionista. O sea, que la postura filosófica de partida es una condición previa para esta consideración. En cambio, la demostración de que la primera ley de la Robótica no es computable no depende de ninguna postura filosófica previa, sólo depende de las matemáticas.
EliminarCon el primer punto de tu comentario sí estoy totalmente de acuerdo.
>> nuestro comportamiento ético se reduce a seguir un programa
EliminarQuienes sostienen esto no entienden en absoluto qué es la ética. A estos les digo: si el comportamiento no es libre, puedes sostener que se reduce a seguir un programa, pero entonces no digas que es un comportamiento ético.
>> En cambio, la demostración de que la primera ley de la Robótica no es computable no depende de ninguna postura filosófica previa, sólo depende de las matemáticas.
Estoy de acuerdo, y por eso pienso que vuestra demostración tiene un valor singular.
Me pregunto si sería posible evitar que el hombre pueda hacerse daño a si mismo.
ResponderEliminarIncluso en el enfoque no reduccionista, me pregunto si habría algún hombre para él fuera imposible hacerse daño a si mismo.
Para el creyente, sería plausible suponer unCreador que todo lo puede y que puede hacerse daño a si mismo?. Mi respuesta sería No.
Siempre quedarán problemas no formularles mediante matemáticas?
Que el hombre puede hacerse daño a sí mismo, lo sabemos por experiencia.
EliminarQue Dios no puede hacerse daño a sí mismo, como Dios, lo sabemos porque a Dios le asignamos todas las propiedades buenas, y le negamos las malas. Sin embargo, creemos que Dios se hizo hombre, y como tal sí puede sufrir.
Por supuesto siempre quedarán problemas no formulables mediante las matemáticas: todos los problemas filosóficos esenciales, como "¿por qué hay algo en vez de nada?
Gracias Manuel por tu respuesta.
EliminarMi propuesta es que conforme la humanidad evoluciona hacia la noosfera, habrá más hombres y comunidades conscientes y capaces de transcender; es decir, más próximas al Creador y sus Leyes.
Con ello el hombre progresará técnica y humanamente. Con ello será capaz de crear, a su vez, constructos más próximos a la ética de su creador.
La ciencia y la técnica pueden ser neutros en sí mismos pero dependen de la actitud, ética y bondad de quien las descubre y crea respectivamente.
Supongo, ademas, que las matemáticas como conocimiento humano seran capaces de formular problemas cada vez más abstractos y próximos al Conocimiento sublime. Algo q nunca tendrá fin.