La arquitectura de Von Neumann, que se aplica a casi todos los ordenadores que se han construido durante toda la historia de la informática, construye las computadoras a partir de dos partes claramente separadas: la unidad de proceso, en la que se ejecutan las instrucciones, y la memoria, donde se guardan los datos. En consecuencia, casi todos los programas que ejecutamos en nuestros ordenadores se dividen en dos secciones diferentes: el algoritmo (las instrucciones ejecutables) y los datos que constituyen la información aportada al algoritmo (su input).
Una separación tan clara se parece a los dos conceptos que aparecen en el título de este artículo:
- Información: El conjunto
de datos de que se dispone. En biología, el ADN es el
almacén principal de la información genética. En teoría de la
información, este término se refiere al contenido de un mensaje o texto
periodístico o de otro tipo.
- Inteligencia: La
capacidad de manipular la información de que se dispone y de crear otra
nueva. En este contexto, se habla de comprensión, razonamiento,
planificación, imaginación, creatividad,
pensamiento crítico y resolución de problemas,
entre otros términos relacionados con este concepto tan difícil de
definir.
En la vida real, información e
inteligencia suelen estar separados. Veamos un ejemplo:
- La Biblioteca del Congreso de los Estados Unidos se ha
usado con frecuencia como ejemplo de una gran cantidad de información.
Como contiene unos 32 millones de libros, cada uno de los cuales, si se
digitalizara, podría ocupar, en media, algo más de medio Megabyte, la
información total contenida en los libros de esa biblioteca se calcula en
unos 20 Terabytes (20 billones de bytes). A esto habría que añadir otras muchas
fuentes de información, como mapas, manuscritos, periódicos, tebeos, partituras,
y grabaciones de imagen y sonido. Pero este gran edificio, cuando está
vacío (por la noche, por ejemplo), no contiene inteligencia alguna. Cuando
está abierto sí puede contenerla, en forma de seres humanos que trabajan
allí o acuden a consultar la información que contiene.
John Von Neumann |
Vamos a ver otro ejemplo: consideremos
el Traductor de Google, que proporciona traducciones automáticas entre dos
idiomas, escogidos entre 133. Pues bien: el año 2018 se me ocurrió ponerle a
prueba haciéndole traducir del latín al español la fábula de Fedro que se conoce
por el título de la zorra y las uvas,
que en su lengua original dice esto:
Fame coacta vulpes alta in vinea uvam
appetebat summis saliens viribus. Quam tangere ut non potuit, discedens ait
: Nondum matura est ; nolo acerbam sumere. Qui facere quae non
possunt verbis elevant, adscribere hoc debebunt exemplum sibi.
Esta es mi traducción de la
fábula:
Empujada por el hambre,
la zorra apetecía unas uvas que estaban altas en la viña y
saltó con todas sus fuerzas. Como no pudo alcanzarlas, se fue diciendo: Aún no
está madura; no quiero comerla amarga. El que no pudiendo hacer algo lo rebaja
con palabras, debería aplicarse a sí mismo este ejemplo.
Esta fue la traducción que me
ofreció el traductor de Google en 2018:
El enfoque de la cresta de una fuente de
alta y constante de fuerza, los zorros en el viñedo de la uva es forzado
por el hambre. Cómo tocar uno no era capaz de César, al salir, dijo: Usted
todavía no ha, el recurso debe ser; No quiero tomar la amarga. Él no es capaz
de hacer con el deseo de atribuir esta estructura, por ejemplo.
Se observará que es totalmente absurda.
¿Qué pinta ahí, por ejemplo, el nombre de César? Se lo pregunté a un experto de
Google y me dijo que seguramente la red neuronal artificial que hay detrás del
traductor había sido entrenada con muy pocos textos en latín, y casi todos los
que se habían empleado contenían el nombre de César, por lo que dicho nombre
aparecería en casi todas las traducciones, viniera a cuento o no.
En octubre de 2023 volví a
pedirle al traductor de Google que me tradujera el mismo texto, y me ofreció
este resultado:
Impulsado por el hambre, el zorro, en lo
alto de la viña, buscó las uvas saltando con todas sus fuerzas. Como no podía
tocarlo, dijo al salir: Aún no está maduro; No quiero tomarlo amargo. Aquellos que hagan lo que no pueden expresar con palabras tendrán que atribuirse este ejemplo a sí mismos.
Se observará que esta
traducción es mucho mejor que la de 2018. Sólo es incorrecta la parte señalada
en color azul. ¿A qué se debe que el resultado haya mejorado tanto en tres
años? ¿Es más inteligente hoy el traductor de Google de lo que lo era entonces?
Probablemente no. Lo
que ha cambiado es la cantidad de información de que dispone. Ahora debe de
haber muchos más textos latinos en Internet, que el traductor ha podido utilizar
para ampliar su base de datos. Con otras palabras: lo que ha mejorado no es la
inteligencia, sino la información que se ha utilizado para entrenar al
traductor.
Del mismo modo, como
expliqué en otro
artículo, ChatGPT no construye los textos con que contesta a nuestras
preguntas porque sea inteligente, sino porque su red neuronal artificial ha
sido entrenada con gran cantidad de información. Como dije allí, su “inteligencia”
puede compararse a un programa de 18 instrucciones en el lenguaje APL (o sea, es
muy pequeña), mientras que la cantidad de información que maneja es enorme. Y no
debemos olvidar que las instrucciones de un programa tampoco son inteligentes. Es inteligente el programador.
Esta es la traducción de la fábula hecha por ChatGPT 3.5: "Forzada por el hambre, la zorra saltaba hacia la uva en lo alto de la vid con todas sus fuerzas. Al no poder alcanzarla, al alejarse dijo: 'Aún no está madura; no quiero tomarla agria. Aquellos que, incapaces de hacer lo que desean, se consuelan con palabras, deberían tomar esto como un ejemplo propio."
ResponderEliminarLo que no quiere decir que ChatGPT sea inteligente. Seguro que Google Translate también usará una traducción parecida dentro de poco.
EliminarEstoy de acuerdo que esto no quiere decir que ChatGPT sea inteligente, pero sí que se ha comportado como si lo fuera. A lo largo de este año he establecido con ChatGPT varias decenas de diálogos sobre los temas mas diversos y mi sensación ha sido siempre que me estaba relacionando con una persona. Con una persona culta, educada y experta en la mayoría de los temas sobre los que le he preguntado.
EliminarLo que más me sorprende es su capacidad para mantener el hilo de una larga conversación y entender sucesivas preguntas que hagan referencia implícita a aspectos tratados anteriormente igual que cuando dialogamos con personas.
Observa este comentario en un artículo anterior de mi blog:
Eliminarhttps://divulciencia.blogspot.com/2023/02/otra-conversacion-con-chatgpt.html?showComment=1677500113482#c8693974258181814192
Este ejemplo demuestra muy bien que las contestaciones de ChatGPT, aunque parezcan humanas y razonables, no tienen nada que ver con la verdad.
Mira también este artículo de Wolfram:
https://writings.stephenwolfram.com/2023/02/what-is-chatgpt-doing-and-why-does-it-work/
Explica el funcionamiento de ChatGPT de manera parecida a como yo lo hice en mi artículo de junio:
Un modelo de ChatGPT
Como es muy largo, lo resumo así:
Parece mentira que un algoritmo tan sencillo (el que yo expliqué en el artículo de mi blog, que Wolfram explica aproximadamente igual) genere textos tan aparentemente correctos. Pero ni el algoritmo ni la red neuronal que almacena astutamente la información son inteligentes, no saben nada de verdad ni de falsedad. Lo que estos algoritmos nos descubren no es que haya programas inteligentes. Nos descubren propiedades sorprendentes de los lenguajes humanos, que se prestan a estos tratamientos.
He preguntado al mismo experto de Google que cité en el artículo y me ha explicado que Google Translate intenta traducir el texto que le das, pero que ChatGPT utiliza traducciones que ya existen en la Web. O sea, que la traducción no la hace ChatGPT, sino un ser humano, y por eso suele estar bien hecha.
EliminarDe hecho, utilizando el buscador de Google, he encontrado parte de la traducción de ChatGPT en textos disponibles en Internet. Por ejemplo, la parte "Aún no está madura; no quiero tomarla agria" está en la página 191 de la Gramática Latina de Francisco Hidalgo. Y la parte "se consuelan con palabras" está tal cual en la página 99 de los Estudios Latinos de Elías Castro Blasco. Sabiendo cómo funciona ChatGPT (véase mi artículo de junio o el de Wolfram) es inevitable que, una vez un par de palabras de un texto aparece en la respuesta, lo que sigue a continuación aparezca también.
EliminarHace unos días, con motivo de la presentación en Málaga del libro “Que los árboles no te impidan ver el bosque. Caminos de la inteligencia artificial” (Círculo Rojo), el catedrático de Lógica y Filosofía de la ciencia en la universidad de esta ciudad hizo la siguiente reflexión:
ResponderEliminarSea un simulador (#1) del proceso digestivo de un filete de ternera. El input: la composición del filete. El output: los componentes del resultado de la digestión.
Sea un segundo simulador (#2) que no procesa filetes sino textos escritos o hablados, da igual. Por ejemplo cualquier versión de ChatGPT.
Pues bien, a nadie en su sano juicio se le ocurriría decir que el sistema de IA en el que se ejecuta el simulador #1 se ha comido el filete, mientras que, por el contrario, es muy habitual hablar de la inteligencia de los sistemas de IA con los que nos entretenemos.
En otro orden de cosas, no está de más recordar que “inteligencia artificial” es una expresión:
- Contradictoria. No se puede emular una facultad que ni sabemos cómo se originó a partir de la materia ni sobre la que existe un consenso universalmente aceptado acerca de su naturaleza.
- Estúpida, como Nick Bostrom califica la posición de quienes hablan de la consciencia de las máquinas o de las personas sin saber qué es la consciencia
- Imbatible, desde que se acuñó en 1956
- Y, por último, es una expresión que está de moda: palabra del año en 2022 (FundéuRAE) y en 2023 (Diccionario Collins)
Así que, no nos dejemos impresionar por una expresión contradictoria, estúpida, imbatible y popular. IA es un buen eslogan: «Fórmula breve y original, utilizada para publicidad, propaganda política, etc.» (RAE).
Muy oportuno tu comentario, Felipe.
EliminarPor cierto, habréis oído que OpenAI, Microsoft y Google quieren eludir los problemas legales asociados a la transgresión de derechos de autor por las contestaciones de ChatGPT y herramientas similares, echando la culpa al usuario final.
Algo así pasó con el primer atropello mortal realizado por un coche sin conductor. Echaron la culpa a la persona que iba en el coche para actuar en caso de urgencia.
Las empresas grandes se escapan, al final la culpa siempre es del usuario o del currito de turno.
Voy a dar otro argumento en esta línea, parecida a la que cita Felipe del catedrático de Málaga (por cierto, enhorabuena por la publicación del libro).
ResponderEliminarJuan Rojas dice: "A lo largo de este año he establecido con ChatGPT varias decenas de diálogos sobre los temas mas diversos y mi sensación ha sido siempre que me estaba relacionando con una persona. Con una persona culta, educada y experta en la mayoría de los temas sobre los que le he preguntado."
No lo dudo. Lo que yo leo en un libro es inteligente (bueno, al menos lo es a menudo), pero el libro no es inteligente, el inteligente es el que lo ha escrito. Leer el libro, y reflexionar sobre lo que uno lee, no es relacionarse con el libro, sino con la persona que lo ha escrito.
ChatGPT puede entenderse como una forma evolucionada del libro tradicional, que es estático. ChatGPT obviamente no es estático, es adaptativo, interactúa con el usuario, busca información y la elabora -con gran maestría- para armar un "diálogo" convincente. Pero todo eso no es más que una forma muy sofisticada de relacionarse, no con ChatGPT, sino con las personas que han originado esas informaciones y que ChatGPT elabora; una relación mediada por ChatGPT, como en el caso anterior se da una relación mediada por el libro.
De modo semejante, cuando veo una película y me emociono, lloro, río, no hay que buscar la causa de esa emoción en el aparato reproductor, sino en los actores, y en quienes idearon esas escenas y diálogos. Nuevamente, una relación con personas mediada por la tecnología.
No estoy en cambio tan convencido de que sea incorrecto hablar de inteligencia artificial, si se entiende correctamente: es decir, inteligencia humana plasmada, volcada, implementada, en artefactos de todo tipo (desde el hacha de sílex hasta el ordenador). Esos artefactos, entes artificiales, son "inteligentes", ingeniosos, manifiestan la inteligencia de sus creadores.
Gonzalo escribió: "No estoy en cambio tan convencido de que sea incorrecto hablar de inteligencia artificial, si se entiende correctamente: es decir, inteligencia humana plasmada, volcada, implementada, en artefactos de todo tipo (desde el hacha de sílex hasta el ordenador). Esos artefactos, entes artificiales, son "inteligentes", ingeniosos, manifiestan la inteligencia de sus creadores."
EliminarYo, más que "inteligencia artificial", los llamaría "artefactos de origen inteligente".
Sí, estoy de acuerdo. Mi expresión favorita es "inteligencia externalizada", que viene a significar eso mismo.
EliminarDecir "inteligencia artificial" es un eslogan con todos los defectos que ha señalado Felipe. Pero no funcionaría si no tuviera un punto de verdad.
Es muy difícil cambiar el significado de una frase que ya ha sido aceptada con otro sentido y que tiene casi 70 años de antigüedad. Además, podría llevar a equívocos.
Eliminar