Alan Turing |
En 1950, en un artículo
publicado en la revista Mind, Alan
Turing escribió esto:
Yo creo que en
unos cincuenta años será posible programar computadoras, con una capacidad de
almacenamiento de alrededor de 109, para que sean capaces de jugar
tan bien al juego de la imitación que un interrogador promedio no tendrá más
del 70 por ciento de probabilidad de hacer la identificación correcta después
de cinco minutos de interrogatorio.
¿Por qué precisamente un 70 por ciento? Porque estudios realizados en los
que una persona trataba de engañar sobre su sexo a otra que no podía verla,
daban ese resultado. En un setenta por ciento de los casos, la persona que
tenía que adivinar si le estaban engañando acertaba con la respuesta correcta.
Con otras palabras, lo que viene a decir Turing es esto:
Si la máquina
llegara a ser capaz de engañar a los seres humanos, haciéndose pasar por
humana, con la misma facilidad con que un ser humano puede engañar a otro,
habría que considerarla inteligente.
Durante muchos años, más de los cincuenta previstos, ningún programa se
acercó siquiera a resolver la prueba de Turing. Uno de los más interesantes fue
ELIZA, que se hacía pasar por un psiquiatra que dialoga con sus supuestos
pacientes. Pero sólo los pacientes más inocentes se dejaban engañar,
bastaba con intercambiar media docena de frases para descubrir que estabas hablando
con una computadora, por la forma rígida en que contestaba, aunque en alguna
ocasión sus preguntas resultaban sorprendentes, como señaló Carl Sagan en su
libro The
dragons of Eden.
En una prueba realizada en 2014, la predicción de Turing pareció cumplirse
con 14 años de retraso, cuando un chatbot (un
programa que toma parte en una conversación de chat) llamado Eugene Goostman consiguió convencer
al 33% de sus contertulios, tras cinco minutos de conversación, de que era un
chico ucraniano de 13 años. Sin embargo, algunos analistas no ven las cosas tan
claras. El hecho de que el programa se hiciese pasar por un adolescente
extranjero, en lugar de un compatriota adulto, aumentó el nivel de credulidad
de sus contertulios en el chat. Comentando este resultado, Evan
Ackerman escribió:
La prueba de
Turing no demuestra que un programa sea capaz de pensar. Más bien indica si un
programa puede engañar a un ser humano. Y los seres humanos somos realmente
tontos.
John Searle |
Que la prueba de Turing no basta para
detectar la inteligencia lo había señalado ya en 1980 el filósofo John Searle,
con su experimento mental
de la habitación china. Veamos en qué consiste:
- Supongamos que tenemos un programa de ordenador que es capaz de pasar satisfactoriamente la prueba de Turing dialogando (por ejemplo) con una mujer china. En la conversación, tanto la mujer como el ordenador se comunican por medio de caracteres chinos a través de un teletipo. El ordenador, que está dentro de una habitación sin que la mujer lo vea, lo hace tan bien que es capaz de engañarla, por lo que la mujer creerá estar dialogando con un ser humano que conoce la lengua china.
- Ahora Searle saca el ordenador de la habitación, y en su lugar se coloca él mismo, que no sabe chino, aunque se lleva consigo el listado del programa que utilizaba la computadora para dialogar con la mujer. En principio, utilizando ese programa, Searle sería capaz de dialogar con ella en chino tan bien como lo hacía el ordenador (aunque evidentemente más despacio). Cada vez que reciba un texto escrito en chino, sigue el listado del programa y escribe los signos de la respuesta que habría dado el ordenador.
- Pero en el caso de Searle hay una diferencia: como no sabe chino, no se ha enterado de la conversación que ha tenido con la mujer, aunque esa conversación haya sido capaz de engañarla, haciéndole pensar que estuvo dialogando con un ser humano que conoce la lengua china.
- Es evidente que el ordenador tampoco entiende la conversación que ha mantenido con la mujer, pues su actuación ha sido idéntica a la de Searle. Pero es de suponer que el ordenador no es consciente de que no la entiende, mientras Searle sí lo es.
Luego no basta con que un ordenador sea capaz de pasar
la prueba de Turing para que podamos considerarlo tan inteligente como un ser
humano. Hacen falta dos cosas más: que al menos alguna vez comprenda lo que lee
y lo que escribe, y que sea consciente de la situación. Mientras eso no ocurra,
no podremos hablar estrictamente de inteligencia artificial. Y esta situación está, evidentemente, mucho más lejos
en el futuro (suponiendo que sea posible) que la solución de la prueba de
Turing.
Hilo Inteligencia natural y artificial: Anterior Siguiente
Manuel Alfonseca
No será posible. Para que una computadora tenga consciencia haría falta que esté viva. No hay ninguna prueba acerca de vida basada en el silicio. Todo esto no es más que ciencia ficción (como los caballos de fuego de la mitología antigua).
ResponderEliminarHabría que preguntar, suponiendo que el ordenador tiene inteligencia, si también tiene pensamiento; y esto, al margen de lo que muchos dicen coloquialmente cuando el ordenador tarda en arrancar o ejecutar una tarea: "está pensando".
ResponderEliminarAl ordenador se le atribuye inteligencia computacional. Pero, en mi opinión, carece de inteligencia emocional, inteligencia interpersonal, inteligencia intrapersonal, inteligencia musical u otras. Porque el ordenador no es persona. No soy un experto, pero hacer equivalente la inteligencia del ordenador a la del ser humano, ¿no sería una falacia de falsa equivalencia? Atribuir rasgos humanos a un objeto inanimado, ¿no sería una forma de falacia patética?
Hay mucho antropomorfismo en los seres humanos. Eso es parte del problema.
EliminarSi un ordenador es inteligente, ¿qué cociente intelectual tiene? ¿Se puede medir el CI de un ordenador?
ResponderEliminarKim Peek recordaba el 98% de los 12000 libros que había leído, leía dos páginas en ocho segundos, usando cada ojo para leer una página distinta, y apenas tardaba una hora en memorizar un libro, reteniendo de un modo preciso e instantáneo la información. Conocía de memoria todos los mapas de EE.UU., podía responder exactamente cómo llegar de una ciudad a otra explicando detalladamente que calles tomar. Su capacidad de almacenar información era virtualmente ilimitada. No entendía lo que retenía porque no necesitaba pensarlo, simplemente estaba ahí. Era capaz de escuchar cualquier canción y tocarla en un piano y era capaz de reconocer el autor de miles de piezas musicales escuchando pocos segundos, así como hacer cálculos complejos. (Wikipedia)
Debido a sus habilidades, algunos le llamaban Kimputer.
Sin embargo, sólo tenía un CI de 87, y era una persona dependiente.
Esto dice la Wikipedia respecto al cociente intelectual:
EliminarLos resultados del estudio sugieren que las pruebas de CI tienen «fallos fundamentales» porque no toman en cuenta «la compleja naturaleza del intelecto humano con todos sus distintos componentes». La inteligencia se compone de circuitos diferentes y unas personas pueden destacar en un área de inteligencia y no en otra. Sería el caso, por ejemplo, de personas con habilidades lingüísticas fantásticas y una memoria brillante pero con poca capacidad de razonamiento o viceversa. Los investigadores concluyen: «Nuestros resultados desmienten de una vez por todas la idea de que una sola medida de inteligencia, como es el cociente intelectual, es suficiente para concentrar todas las diferencias en la capacidad cognitiva que vemos entre las personas; el cerebro humano es el objeto más complejo que se conoce, por ahora, y la idea de que solo existe una medida de la inteligencia podría estar equivocada.»
No sé que se haya planteado el test del CI a un programa de ordenador. No creo que actualmente haya ningún programa que pueda realizarlo. En cualquier caso, tampoco serviría de mucho.
Gracias por la respuesta, Sr. Alfonseca.
EliminarLa afirmación de que "la inteligencia del ordenador es como (es equiparable a) la del ser humano", ¿se puede considerar un mito?
Actualmente sí.
EliminarDesde un punto de vista práctico/ingenieril, el Test de Turing sí es realizable y hay muchos robots que lo pasan. Me explico: cada vez que al final de un formulario de internet se nos pide reconocer una palabra camuflada o deformada (o declarar que no somos un robot, como en los comentarios de este blog), estamos siendo sometidos a un test para distinguir si somos humanos o máquinas. Técnicamente es un CAPTCHA (Completely Automated Public Turing test to tell Computers and Humans Apart). Estos tests son cada vez más complejos porque los robots internautas son cada vez más “inteligentes” y son capaces de superar las versiones más sencillas del test.
ResponderEliminarOtra cosa completamente distinta es si, de modo radical, que es lo que verdaderamente cuenta, es posible diseñar un prueba empírica (un test) que sirva para distinguir humanos de máquinas; y si es posible construir una máquina que tenga un comportamiento verdaderamente humano.
En el “juego de imitación” podemos construir una máquina (el imitador) que se comporte como los típicos humanos, y podemos construir una máquina (el probador) que distinga entre comportamientos humanos típicos y extraños. Pero esto deja sin resolver la cuestión esencial de si el imitador es verdaderamente libre como un humano, en el sentido de que es capaz de proponerse sus propios objetivos (algo que sin duda va más allá del comportamiento típico).
Es decir, si los humanos no tenemos objetivos dados a priori, sino que somos capaces de proponernos nuestras propias metas en la vida, entonces somos radicamente distintos de una máquina, que se define precisamente por el objetivo que tiene que lograr, un objetivo que no se ha dado ella misma. Son precisamente los que no se atreven a afirmar radicalmente la libertad los que más fácilmente caerán en la tentación de considerar que los humanos no son en último término otra cosa que complicados robots biológicos, y por lo tanto imitables por una máquina.
No me alargo más, pero he desarrollado esas ideas con más amplitud en dos artículos que referencio a continuación, con permiso del Profesor Alfonseca:
Gonzalo Génova, Ignacio Quintanilla Navarro. Are Human Beings Humean Robots? Journal of Experimental & Theoretical Artificial Intelligence. Published online 01 Dec 2017.
http://www.tandfonline.com/eprint/5ByQAq9k9S559VdjNcff/full
Gonzalo Génova. Máquinas computacionales y conciencia artificial. Naturaleza y Libertad 7:123-143, 2016.
http://www.uma.es/naturalezaylibertad/resources/Vol_7_2016/6-Genova.pdf