¿Se desinfla la investigación en generadores de lenguaje?

John McCarthy

The same post in English

Parece como si el sino de ese campo de la tecnología informática mal llamado inteligencia artificial fuese alternar entre el optimismo excesivo y el pesimismo desatado. Veamos un esbozo de la historia de esta tecnología:

  1. En el curso de verano del Dartmouth College, en 1956, se propuso el nombre de inteligencia artificial para los programas de ordenador que realizaran tareas que tradicionalmente se habían considerado exclusivamente humanas, como jugar al ajedrez y traducir de una lengua humana a otra. Los asistentes, dirigidos por John McCarthy, lanzaron las campanas al vuelo y predijeron que en diez años se habrían resuelto esos dos problemas. Esperaban que para 1966 habría programas capaces de ganar al campeón del mundo de ajedrez, y otros que podrían traducir perfectamente entre dos lenguas humanas cualesquiera. Cuando esos objetivos no se consiguieron tan pronto, la investigación en inteligencia artificial se detuvo. En las universidades, los temas de investigación en este campo estaban mal vistos, porque se pensaba que no tenían futuro.
  2. El único campo en el que se siguió investigando fue el de las redes neuronales artificiales. Pues bien: en 1972 la investigación en ese campo se estancó cuando Marvin Minsky y Seymour Papert publicaron un libro (Perceptrons: An Introduction to Computational Geometry), en el que demostraban que un perceptrón de dos capas (las redes neuronales artificiales que había entonces) no es capaz de resolver la función o-exclusiva, una de las más sencillas que existen. Algunos años más tarde, cuando se introdujo una tercera capa en la red neuronal, y con la invención del algoritmo de propagación hacia atrás, la investigación en el campo de las redes neuronales volvió a avanzar.
  3. Recordemos el auge de los sistemas expertos durante los años setenta y ochenta. Pero los sistemas expertos nunca han razonado como las personas: por eso la investigación en este campo casi se ha detenido.

A partir de los años noventa, una serie de avances en la investigación en inteligencia artificial volvieron a provocar una explosión de optimismo. Entre esos avances podemos citar los siguientes:

  • En 1997, con 30 años de retraso, se cumplió por fin la predicción de que un programa llegaría a ser capaz de ganar al campeón del mundo de ajedrez. Véase este artículo.
  • En las últimas dos décadas, con 60 años de retraso, se ha cumplido también la predicción referida a la traducción automática. Las traducciones actuales entre las lenguas más utilizadas son casi perfectas, aunque todavía es necesario revisarlas cuidadosamente, porque a veces se les escapan fallos espectaculares.
  • La conducción automática avanzó muy deprisa desde los años noventa, y como consecuencia se predijo que para el año 2030 todos los coches se conducirían solos. Hoy, a poco más de cinco años de esa fecha, no parece muy probable. Por un lado, han surgido problemas legales, más que tecnológicos, sobre quién debe cargar con la responsabilidad en caso de accidentes. Por otro, véase esta noticia reciente publicada en IEEE Spectrum con este titular: La automatización parcial no hace que los vehículos sean más seguros. La tecnología de la conducción automática debería tratarse como un aditamento conveniente, no como un elemento de seguridad.

Finalmente, recordemos el ruido que se montó en 2023 cuando se anunciaron los primeros generadores de lenguaje (LLM): ChatGPT y sus competidores, como Gemini de Google. Se dijo (y aún se sigue diciendo) que estamos cerca de la inteligencia artificial fuerte, la de verdad, con máquinas tan inteligentes como nosotros, o incluso más. Pues bien, hay algunos indicios de que esta burbuja comienza a desinflarse, mucho antes de lo que se esperaba:

  • Los verdaderos expertos en inteligencia artificial siempre hemos sostenido que los generadores de lenguajes no abren el camino hacia la inteligencia artificial fuerte (también llamada inteligencia artificial general), aunque sin duda encontrarán aplicación en muchos campos. Cada día está más claro que teníamos razón. Un estudio reciente publicado en Nature sostiene que las nuevas versiones de los LLM son menos fiables que las primeras y más propensas a dar respuestas erróneas.
  • Los generadores de lenguaje deben entrenarse con un número enorme de datos procedentes de Internet, y consumen tanta energía, que los objetivos climáticos podrían ponerse en peligro. Véase este artículo del New York Times. Algunas de estas empresas están pensando en montar reactores nucleares dedicados para conseguir esa energía.
  • En la misma línea, el consumo de agua asociado a los centros de datos sonde se ejecutan estos programas es enorme. Según una estimación de la Universidad de California, la demanda total de agua asociada con la IA para 2027 podría superar la mitad de la extracción anual de agua del Reino Unido. 
  • Las empresas de IA están viendo cómo la financiación de sus proyectos comienza a disminuir.

Todos los artículos anteriores, y algunos más, como el que sigue, han sido publicados entre el 20 de septiembre y el 8 de octubre de 2024. Este artículo resume varios de estos problemas con este titular: ¿Ha llegado el fin de la era de los LLM? ¿Estamos asistiendo al desinfle de la burbuja? 

Hilo Temático sobre Inteligencia Natural y Artificial: Anterior Siguiente

Manuel Alfonseca

No hay comentarios:

Publicar un comentario

NORMAS PARA PONER COMENTARIOS:

1. Estos comentarios están moderados para evitar la publicación de comentarios insultantes o irrelevantes. Los que no cumplan estas normas no serán publicados.

2. Los comentarios deben tener algo que ver con el tema del artículo al que se asocian.

3. También son aceptables comentarios del tipo: "Por favor, considere la posibilidad de publicar un artículo sobre tal tema".

4. No son aceptables comentarios que digan: "¿Qué opina de este artículo?", seguidos de un enlace. Este blog no es un consultorio. No tengo tiempo para leer tantos artículos. Además, ya he contestado a la mayor parte de las preguntas que se me hacen, ya sea en artículos o en comentarios anteriores. Utilicen la búsqueda en el blog para localizarlos.

5. No ponga Anónimo o Unknown como firma del comentario. Ponga cualquier nombre, o al menos diga dentro del texto de quién se trata (no tiene que ser su nombre y apellidos). Si todos pusieran Anónimo o Unknown, no sabría si estoy hablando con una persona o con varias.

6. Sea lo más conciso que le sea posible. Los comentarios no deben competir en longitud con el artículo.

Aunque este blog está preferentemente dirigido a la divulgación de la ciencia, es inevitable que mis ideas influyan en mis artículos. Si a algún lector le molestan mis ideas hasta el punto de no poder mantener la calma, le recomiendo que deje de leerme. Pero si se empeña en discutirlas, exijo respeto, y que se evite la falacia ad hominem. De lo contrario, el comentario no será publicado.