Redes neuronales artificiales

Perceptrón
The same post in English

Una de las aplicaciones más antiguas de la inteligencia artificial se basa en la simulación de las células nerviosas de los animales (neuronas). Las redes neuronales están formadas por muchas componentes interconectadas, y son capaces de cierta actividad computacional, aunque las neuronas que componen estas redes suelen estar bastante simplificadas, en comparación con las que forman parte del sistema nervioso humano y de otros animales.

Este tipo de aplicaciones ha sido objeto de múltiples exageraciones y previsiones insólitas. Se ha dicho que estas redes son capaces de resolver los problemas más difíciles, los problemas NP-completos, como el del viajante de comercio, y otros parecidos. Un programa normal sólo puede resolver esos problemas en un tiempo que crece exponencialmente en función de su tamaño, mientras que una red neuronal puede resolverlos en un tiempo breve. Y hasta cierto punto esto es verdad, siempre que tengamos en cuenta que la solución obtenida no es necesariamente la mejor, sino tan sólo una aproximación, que a menudo es suficiente para nuestras necesidades.

Las primeras redes neuronales fueron definidas durante los años 40 del pasado siglo por Warren McCullogh y Walter Pitts. En la década siguiente, Frank Rosenblatt ideó el perceptrón, una red neuronal de dos capas (capa de entrada y capa de salida), capaz de ser ajustada para dar la respuesta adecuada a una entrada concreta. A finales de los 60, Carver Mead propuso la computación neuromórfica, que consistiría en construir redes neuronales, no mediante programas que se ejecuten en ordenadores clásicos, como se había hecho hasta entonces, sino con un hardware especialmente diseñado, que aprovechara los circuitos integrados, entonces en vías de desarrollo, para implementar redes formadas por dispositivos diminutos que emularan o simularan neuronas.

La investigación en este campo se estancó tras la publicación de un libro de Minsky y Papert (Perceptrons: An Introduction to Computational Geometry), en el que demostraban que un perceptrón de dos capas no es capaz de resolver la función o-exclusiva, una de las más sencillas que existen. Algunos años más tarde, con la introducción de una tercera capa de neuronas en la red neuronal entre las capas de entrada y de salida, y con la invención del algoritmo de propagación hacia atrás, se resolvió el problema de la función o-exclusiva, por lo que la investigación en el campo de las redes neuronales volvió a avanzar.

Las primeras redes neuronales, desarrolladas a partir de los años ochenta, debían someterse a aprendizaje supervisado: una fase de entrenamiento durante la cual se les ofrecían problemas concretos (conjuntos de datos de entrada) y su solución correcta (los datos de salida deseados), para que la red modificara automáticamente los pesos de sus "neuronas" para obtener el resultado deseado. Una vez entrenada, y tras dar resultados razonablemente correctos con los problemas de aprendizaje supervisado, la red podía emplearse para resolver otros problemas diferentes del mismo tipo. Eso sí, nunca se obtiene un 100% de seguridad, ni con los problemas supervisados, ni con los nuevos.

Con el siglo XXI comenzó a utilizarse un nuevo tipo de aprendizaje no supervisado, que no necesita escoger problemas de entrenamiento. Esto se puede hacer de dos maneras:

  • Utilizando técnicas como la minería de datos para entrenar automáticamente la red neuronal, a partir de la enorme masa de datos que contiene Internet. Esto lo hace, por ejemplo, Google Translate para obtener traducciones aproximadamente correctas. Por el momento estas traducciones no son perfectas, y siempre hay que corregirlas a mano, pero su existencia ayuda mucho a los traductores humanos. Y a medida que aumenta el número de datos disponibles, las traducciones se van haciendo progresivamente mejores.
  • O bien mediante un entrenamiento automático que ponga la red neuronal a competir consigo misma, como se hace en las aplicaciones destinadas a jugar a ciertos juegos "inteligentes", como Alpha Zero de DeepMind (actualmente parte del conglomerado de Google), que consiguió alcanzar niveles de campeón mundial, tanto en ajedrez como en Go.
En la actualidad se está trabajando en varias direcciones:

a)      La computación neuromórfica, que no es más que la implementación de las redes neuronales mediante dispositivos de hardware que hacen uso de nanotecnología, en lugar de utilizar software que se ejecuta en un ordenador clásico. Como es natural, esto las hace más rápidas.

b)      Nuevos algoritmos para resolver, mediante redes neuronales, problemas de reconocimiento de patrones y aprendizaje automático.

c)      Implementación de redes basadas en neuronas más complejas, inspiradas en las neuronas biológicas.

De todas formas, a pesar de la frecuente exageración de los medios, toda esta investigación debe considerarse como inteligencia artificial débil, más o menos sofisticada, pero muy lejos de la inteligencia artificial fuerte, la que podría competir con el hombre en numerosos campos de actividad y ser auto-consciente, que sigue estando muy lejos de nuestro alcance, suponiendo que sea posible, cosa que dudo. Y esto lo digo, a pesar de lo que yo mismo haya dado a entender en mis novelas de ciencia-ficción, que no tiene por qué coincidir con lo que pienso.

Hilo Temático sobre Inteligencia Natural y Artificial: Anterior Siguiente

Manuel Alfonseca

28 comentarios:

  1. 1: "Por el momento estas traducciones no son perfectas, y siempre hay que corregirlas a mano, pero su existencia ayuda mucho a los traductores humanos ... [que se contentan con hacer su trabajo como lo haría un traductor automático; pues por lo general, corregir o depurar una traducción automática resulta, para el traductor humano, más engorroso que traducir directamente del original].


    2: "Y a medida que aumenta el número de datos disponibles, las traducciones se van haciendo progresivamente mejores". De esta frase cabría deducir que llegará un día en el que la traducción podría enconmendarse exclusivamente a las máquinas: GO TO 1.

    ¿Estamos hablando de la desaparición de la actividad humana en el campo de la traducción de textos escritos? Si ese horizonte fuera alcanzable, ¿por qué no imaginar que la creación literaria podría seguir los mismos pasos? Pues traducir es crear respetando lo creado.

    Son algunas preguntas que me ha provocado la lectura de esta entrada. Gracias, como siempre, Manuel, por tu labor.

    ResponderEliminar
    Respuestas
    1. 1. No estoy de acuerdo con que sea más engorroso para el traductor corregir que traducir directamente. El número de caracteres que uno tiene que escribir se reduce considerablemente. Para comparar, la última de mis novelas que he traducido al inglés con la ayuda de Google Translate me ha llevado 6 días. la primera, traducida directamente por mí del español al inglés, me llevó 59. Aun teniendo en cuenta que ahora traduciría más deprisa que entonces, mecanografiar un libro de 200 páginas me llevaría bastante más de 6 días, aunque fueran menos de 59.

      2. Las traducciones que ofrece Google Translate, aunque sean mucho mejores que las de hace unos años, distan mucho de ser perfectas. Al corregirlas, hay que cambiar prácticamente todos los párrafos. Y cuando se traduce de lenguas poco abundantes en Internet (como del latín al español) los resultados son francamente irrisorios. Así que mi contestación a tu pregunta es: Sí, es posible que algún día las traducciones mejoren tanto que podamos prescindir de los traductores humanos. Pero eso está todavía muy lejos. Y por otra parte, esto ha ocurrido ya en otros campos de actividad. Ya no hay contables cuya única misión era comprobar las sumas de cientos de números. No creo que se haya perdido nada por ello.

      Eliminar
    2. Completamente de acuerdo esta vez con el Prof. Alfonseca. Alguna vez me ha tocado traducir algún trabajo (por ejemplo, algún artículo que tenía en inglés, que se ha incluido en un libro en español), y la ayuda de los traductores automáticos ha sido inestimable.

      Cierto que luego toca una tarea de revisión del resultado, pero mucho del trabajo de brocha gorda te lo dejan hecho,, y además, cada vez funcionan mejor.

      Saludos

      Eliminar
  2. Buenas tardes D Manuel. Qué opina usted sobre la posibilidad de que algún día una inteligencia artificial pueda elaborar una sentencia ( con sus fundamentos fácticos, jurídicos y fallo)en un juicio complejo como el del proces catalán, el de la violacion de” la manada “o, no sé, la catástrofe del Prestige. ¿Lo ve factible?Gracias

    ResponderEliminar
    Respuestas
    1. Lo veo muy difícil, quizá imposible, aunque no podría asegurarlo. De hecho, ha habido ya algún intento en esta dirección, no como "juez IA", sino como herramienta de apoyo al juez, y los resultados no han sido muy halagüeños. Hace un par de años hice un artículo al respecto, que se publicó en el Observatorio de las Ideas.

      Eliminar
  3. Muchas gracias por el excelente artículo, muy clarito y divulgativo. Me ha gustado mucho. Ahora la moda está en el Deep Learning (en lugar de una capa oculta, pongo dos).

    Lo cierto es que a mis estudiantes les sorprenden las cosas que pueden hacer con estos modelos, que en realidad, no terminan de ser más que interpoladores sofisticados.



    Un abrazo.

    ResponderEliminar
    Respuestas
    1. El deep learning no va de tener 2 capas ocultas en lugar de 1, sino de tener cientos de capas (que se enfocarán durante el aprendizake a generar distintos filtros que se podrán combinar en capas posteriores), de meter otro tipo de conectividad (como en las redes recurrentes) o simplificar la generación de parámetros como en las redes convolucionales, de colapsar multiples dimesiones de la información usando embedings,... En sus millones de parámetros se concentra mucho "conocimiento" que permite usarlas también para generar y no sólo para clasificar. Las "" en conocimiento vienen a cuento porque la red no tiene inteligencia, no sabe qué significa lo que almacenan sus parámetros, pero a pesar de ello hace su función.

      Eliminar
    2. Obviamente no va de tener 2 capas ocultas, sino como dice, de muchas más cosas. Pero lo cierto es que cuando a una red lleva dos capas, ya lo venden como Deep y por tanto algo diferente, novedoso y más avanzado, y a eso me refería, que al igual que con la IA original, se han disparado las expectativas, yo creo que más allá de lo razonable y que se llama Deep con cierto halo de complejidad, a algunas cosas que no son mucho más complicadas que lo que ya había (otras sí son mucho más complicadas).

      Por cierto ¿ ha probado a construir alguna red feed-fordward con cientos de capas ocultas ?, lo digo porque yo sí (obviamente para eso están PyTorch y/o TensorFlow), y la realidad ha sido que con bastante poco éxito, es más, les suelo decir a mis estudiantes que no se vuelvan locos poniendo capas, que con poquitas capas y una buena elección de los hiperparámetros. ya se pueden obtener resultados espectaculares.

      Sobre el final, completamente de acuerdo, y de ahí viene mi última frase, que en realidad, esas redes no son mas que interpoladores sofisticados. Un interpolador no es inteligente, por muy bueno que sea..

      Un saludo muy cordial.

      Eliminar
  4. https://tendencias21.levante-emv.com/jaque-mate-al-modelo-estandar-que-explica-al-universo.html

    ResponderEliminar
    Respuestas
    1. Se refiere al modelo estándar de física de partículas, no al modelo cosmológico estándar (el Big Bang). Sobre los problemas que aún tiene el primero, yo escribí hace tiempo en este blog: La partícula de Dios.

      Eliminar
  5. Esto es parte de una entrevista a juan arnau y un fisico muy critico con el reduccionismo . Estamos ante un cambio de paradigma?

    Sin duda, lo necesitamos. ¡Pero este sistema lleva agonizando tantos años! Resulta increíble que aún no hayamos asimilado lo ocurrido en el siglo veinte y en muchos aspectos sigamos atados a los más rancios dogmas científicos del diecinueve. Al determinismo y pesimismo darwinianos, que afortunadamente ya empiezan a matizar muchos biólogos y filósofos, al espacio y tiempo absolutos de Newton, que ya fueron pulverizados por Einstein y la física cuántica hace casi un siglo. Y lo peor de todo, a la falsa y pobre idea, que ha invadido nuestro imaginario, de que somos una máquina y el universo una especie de mecanismo que sigue ciegamente leyes mecánicas. El materialismo ya no se sostiene. Hay infinidad de evidencias y teorías consensuadas que demuestran que su reduccionismo es ya inaceptable, y que ya no vale la fórmula de seguir echando las pelotas fuera. Ha llegado el momento de ampliar la visión de la realidad. La materia es una parte de la realidad, pero no la única. La otra es la experiencia psíquica. No se puede excluir la psique de la naturaleza y el cosmos. Es un mero acto de fe. En el «nuevo» (entre comillas) paradigma, la psique es la fuente de la realidad, no la materia. La mente ya no es un epifenómeno de la materia, sino la materia una representación de la mente. Existe, pero es indisociable de nuestra experiencia psíquica. Los nuevos paradigmas -porque no solo hay uno-no se limitan a ofrecer soluciones simples -como aquello de que sólo lo que tocas es lo real-sino que dan respuestas más complejas e integradoras. Pero además se ha de otorgar un sentido al mundo, porque en la ciencia clásica el azar y el determinismo ciego es el único sentido subyacente. La vida carece de sentido y de propósito. ¡Y a esto lo llaman madurez del pensamiento.

    ResponderEliminar
  6. https://www.abc.es/ciencia/abci-estamos-listos-para-aceptar-cerebros-creados-laboratorio-202104100137_noticia_amp.html?__twitter_impression=true

    ResponderEliminar
    Respuestas
    1. No, no estamos listos :-)

      De todas formas, aquí no habla de cerebros, sino de grumos de células nerviosas y de los problemas éticos que podría provocar su introducción en un cerebro humano. De construir cerebros completos sólo habla al final y como de algo muy lejano.

      Mucho antes que cerebros completos, esperaría ver construir corazones y otros órganos, para reemplazar a los trasplantes.

      Sobre esto hablé en otro artículo: Trasplante de cerebro

      Eliminar
  7. Sr. Alfonseca, hace tiempo que no comento pero sigo viendo su interesante página; escribo al respecto de los traductores ya que no veo que conozcan el mejor, que da cien vueltas o más a Google y a lo que se le ponga; se puede traducir directamente desde su página, tiene programa de descarga para traducir y un largo etc. Se llama "www.deepl.com" y es un gran traductor; seguramente le venga muy bien para sus trabajos, desde luego mucho mejor que Google.

    Saludos.

    ResponderEliminar
  8. https://tendencias21.levante-emv.com/la-ia-descubre-procesos-biologicos-que-escapan-al-conocimiento-humano.html

    ResponderEliminar
    Respuestas
    1. Esta es la tergiversación típica de los titulares (y en este caso también de los contenidos). También podría haber dicho: "la informática realiza procesos matemáticos que escapan al conocimiento humano", porque es capaz de realizar millones de sumas por segunda, cosa que un ser humano jamás conseguirá.

      Sí, con la informática se consiguen cosas que el hombre no puede hacer solo. ¿Y qué? También con la máquina de vapor o con un motor eléctrico se ejecutan trabajos que un hombre solo jamás podría realizar. En eso consiste la tecnología, ¿no?

      Como he dicho en otro comentario, en unas semanas publicaré aquí otro artículo sobre inteligencia artificial.

      Eliminar
  9. https://tendencias21.levante-emv.com/el-cerebro-humano-moderno-se-origino-en-africa-hace-mas-de-15-millones-de-anos.html

    ResponderEliminar
    Respuestas
    1. Esto tiene que ver con el problema de saber cuándo comenzó el hombre a ser hombre: ¿hace 2,5 millones de años (Homo habilis)? ¿O hace 1,7 millones de años (Homo erectus)? ¿O hace 300.000 años (Homo sapiens)? ¿O...? Sobre esto trata mi novela "Los moradores de la noche".

      Eliminar
  10. Lo que descubrieron de que el vacio surgen particulas que aparecen y desaparecen entonces podriamos decir que dios estaria detras de ello ?

    ResponderEliminar
    Respuestas
    1. No se puede demostrar científicamente la existencia de Dios. Un creyente puede decir que Dios está detrás de todo lo que ocurre en el universo, y un ateo puede negarlo.

      Sobre las partículas virtuales (predichas, pero no comprobadas) escribí aquí este artículo:
      Partículas virtuales

      Por favor, Bruno, otra vez se ha disparado. Deje de poner comentarios durante algún tiempo.

      Eliminar
  11. https://tendencias21.levante-emv.com/el-universo-seria-una-simulacion-regulada-por-la-luz-y-la-gravedad.html/amp

    ResponderEliminar
  12. Una pregunta, es dificil lose pero me gustaria saber que se podria hacer para salvarnos de tanta oscuridad por culpa de la manipulacion reduccionista porque estoy muy preocupado me da mucho miedo y dolor el sistema en el que estamos y las cosas no cambian empeñados en tratarnos como objetos etc yo estoy muy preocupado creo que la sociedad esta cada vez peor de tanto nihilismo

    ResponderEliminar
    Respuestas
    1. Contesto con las palabras de San Pío de Pietrelcina:
      "Reza, espera y no te preocupes".

      Por cierto, Bruno, no siga mandándome preguntas a las que ya le he contestado, porque no las dejaré pasar.

      Eliminar
  13. Me da pena que hayamos perdido el rumbo. Y el sistema empeñado en reducirnos a la mera biologia algo habria que hacer luchar por cambiar las cosas

    ResponderEliminar
    Respuestas
    1. ¿Pues qué cree que estoy haciendo yo con este blog?

      En cuanto a su pregunta sobre neurocientíficos no reduccionistas, ya le contesté ampliamente en un comentario aquí:
      ¿Vamos hacia Soylent Green?

      Le he dicho más de una vez que, cuando le he contestado a una pregunta, no vuelva a hacerla, como si no leyera mis contestaciones.

      Eliminar