John McCarthy |
Parece
como si el sino de ese campo de la tecnología informática mal llamado inteligencia artificial fuese alternar entre
el optimismo excesivo y el pesimismo desatado. Veamos un esbozo de la historia
de esta tecnología:
- En el curso de verano del Dartmouth College,
en 1956, se propuso el nombre de inteligencia artificial para
los programas de ordenador que realizaran tareas que tradicionalmente se
habían considerado exclusivamente humanas, como jugar al ajedrez y
traducir de una lengua humana a otra. Los asistentes, dirigidos por John
McCarthy, lanzaron las campanas al vuelo y predijeron que en diez años se
habrían resuelto esos dos problemas. Esperaban que para 1966 habría
programas capaces de ganar al campeón del mundo de ajedrez, y otros que
podrían traducir perfectamente entre dos lenguas humanas cualesquiera.
Cuando esos objetivos no se consiguieron tan pronto, la investigación en
inteligencia artificial se detuvo. En las universidades, los temas de
investigación en este campo estaban mal vistos, porque se pensaba que no
tenían futuro.
- El único campo en el que se siguió
investigando fue el de las redes neuronales artificiales. Pues bien: en
1972 la investigación en ese campo se estancó cuando Marvin Minsky y
Seymour Papert publicaron un libro (Perceptrons:
An Introduction to Computational Geometry), en el que
demostraban que un perceptrón de dos capas (las redes neuronales
artificiales que había entonces) no es capaz de resolver la función o-exclusiva,
una de las más sencillas que existen. Algunos años más tarde, cuando se
introdujo una tercera capa en la red neuronal, y con la invención del
algoritmo de propagación hacia atrás, la investigación en el campo de las
redes neuronales volvió a avanzar.
- Recordemos el auge de los sistemas expertos
durante los años setenta y ochenta. Pero los sistemas expertos nunca han
razonado como las personas: por eso la investigación en este campo casi se
ha detenido.
A partir
de los años noventa, una serie de avances en la investigación en inteligencia
artificial volvieron a provocar una explosión de optimismo. Entre esos avances
podemos citar los siguientes:
- En 1997, con 30 años de retraso, se cumplió
por fin la predicción de que un programa llegaría a ser capaz de ganar
al campeón del mundo de ajedrez. Véase este
artículo.
- En las últimas dos décadas, con 60 años de
retraso, se ha cumplido también la predicción referida a la
traducción automática. Las traducciones actuales entre las lenguas
más utilizadas son casi perfectas, aunque todavía es necesario revisarlas
cuidadosamente, porque a veces se les escapan fallos espectaculares.
- La conducción automática avanzó muy deprisa
desde los años noventa, y como consecuencia se predijo que para el año
2030 todos los coches se conducirían solos. Hoy, a poco más de cinco años
de esa fecha, no parece muy probable. Por un lado, han surgido problemas
legales, más que tecnológicos, sobre quién debe cargar con la
responsabilidad en caso de accidentes. Por otro, véase esta
noticia reciente publicada en IEEE Spectrum con este titular: La automatización parcial no hace que los vehículos
sean más seguros. La tecnología de la conducción automática debería
tratarse como un aditamento conveniente, no como un elemento de seguridad.
Finalmente,
recordemos el ruido que se montó en 2023 cuando se anunciaron los primeros
generadores de lenguaje (LLM): ChatGPT y sus competidores, como Gemini
de Google. Se dijo (y aún se sigue diciendo) que estamos cerca de la
inteligencia artificial fuerte, la de verdad, con máquinas tan inteligentes
como nosotros, o incluso más. Pues bien, hay algunos indicios de que esta
burbuja comienza a desinflarse, mucho antes de lo que se esperaba:
- Los verdaderos expertos en inteligencia
artificial siempre hemos sostenido que los generadores de lenguajes no
abren el camino hacia la inteligencia artificial fuerte
(también llamada inteligencia artificial general), aunque
sin duda encontrarán aplicación en muchos campos. Cada día está más claro
que teníamos razón. Un estudio
reciente publicado en Nature sostiene que las nuevas versiones de los
LLM son menos fiables que las primeras y más propensas a dar respuestas
erróneas.
- Los generadores de lenguaje deben entrenarse
con un número enorme de datos procedentes de Internet, y consumen tanta
energía, que los objetivos climáticos podrían ponerse en peligro. Véase este
artículo del New York Times. Algunas de estas empresas están pensando
en montar
reactores nucleares dedicados para conseguir esa energía.
- En la misma línea, el consumo de agua asociado
a los centros de datos sonde se ejecutan estos programas es enorme. Según una
estimación de la Universidad de California, la demanda total de agua
asociada con la IA para 2027 podría superar la mitad de la extracción
anual de agua del Reino Unido.
- Las empresas de IA están viendo cómo la
financiación de sus proyectos comienza a disminuir.
Todos los artículos anteriores, y algunos más, como el que sigue, han sido publicados entre el 20 de septiembre y el 8 de octubre de 2024. Este artículo resume varios de estos problemas con este titular: ¿Ha llegado el fin de la era de los LLM? ¿Estamos asistiendo al desinfle de la burbuja?
Hilo Temático sobre Inteligencia Natural y Artificial: Anterior Siguiente
Manuel Alfonseca
https://es.futuroprossimo.it/2024/10/siamo-immortali-sabine-hossenfelder-e-la-fisica-delleternita/ que opina de esta noticia de esta fisica qyd público un libro donde aclara que según la fisica nuestra información no desaparece al morir si que va al universo y que a lo mejor podría volver gracias a un ser superior
ResponderEliminarDe Sabine Hossenfelder hablé en dos artículos anteriores de este blog: Harry Potter y el multiverso y ¿Está en crisis la física teórica?
EliminarPersonalmente no creo que la "resurrección de la carne", tal como la entendemos los católicos, vaya a ocurrir en este universo, así que no me dicen nada las ideas de Hossenfelder sobre la conservación de la información. También pienso que somos algo más que información. Véase este otro artículo de mi blog: El multiverso teológico.