Compatible, incompatible, posible e imposible

The same post in English

Voy a comentar y tratar de aclarar los cuatro conceptos del título, que a veces se confunden cuando se habla de las teorías físicas y de su aplicación:

  • Un suceso (real o imaginado) puede ser compatible con una teoría. Lo que eso significa es que, si ese suceso fuese real, no plantearía ningún problema para la teoría, que admite en principio la posibilidad de que dicho suceso tenga lugar.
  • Un suceso (real o imaginado) puede ser incompatible con una teoría. Si el suceso es real, eso quiere decir que su existencia desafía a la teoría. Si esta no consigue explicarlo, deberá mejorarse o ser sustituida por otra. Algo así ocurrió cuando la teoría de la Gravitación Universal de Newton fue sustituida y mejorada por la Relatividad General de Einstein. Si el suceso es imaginado (como la paradoja EPR, propuesta por Einstein, Podolsky y Rosen para combatir la mecánica cuántica), la teoría desafiada deberá defenderse demostrando que el suceso imaginado, o bien no se da en la realidad, o si se da, se adapta precisamente a las predicciones de la teoría.
  • Dos teorías son incompatibles, si existe algún fenómeno o suceso incompatible con una de ellas, pero no con la otra. En caso contrario, son compatibles.
  • Un suceso (real o imaginado) puede ser posible o imposible. Un suceso posible es el que puede suceder. Si es imposible, no puede ocurrir bajo ninguna circunstancia. Esto es así, cualquiera que sea la teoría concreta con la que en un momento dado estamos tratando de explicar los fenómenos que percibimos. Sabemos, por ejemplo, que la cuadratura del círculo es imposible porque π es un número trascendente. Esto es así, independientemente de todas nuestras teorías físicas, presentes, pasadas o futuras.

Las dos alternativas (compatible o incompatible, posible o imposible) son independientes entre sí. Un suceso posible puede ser incompatible con una teoría; un suceso imposible puede ser compatible con ella. Veamos algunos ejemplos:

  • La teoría de la relatividad general y la mecánica cuántica son incompatibles. La primera es mejor para describir los fenómenos que tienen que ver con los movimientos de los cuerpos celestes. La segunda, para describir lo que ocurre en el mundo de los átomos y de las partículas subatómicas. Pero cada una de las dos teorías falla cuando trata de utilizarse en el campo de aplicación de la otra. Por lo tanto, ninguna de estas dos teorías puede considerarse definitiva. La física teórica actual es incompleta, porque se basa en dos teorías incompatibles.
  • Sucesos como los viajes en el tiempo o los viajes a velocidades hiperlumínicas son probablemente imposibles, porque dan lugar a paradojas destructivas que, si se dieran, harían que el universo se comportara de forma absurda. En ambos casos se suele decir que esos viajes podrían ser compatibles con la teoría de la relatividad en determinadas circunstancias. Por ejemplo, para el segundo tipo de viajes se menciona el warp drive, basado en la métrica de Alcubierre. Pero eso no significa nada, si los fenómenos en cuestión son imposibles. En caso de discrepancia, la teoría tiene que ceder la prioridad a los fenómenos que trata de explicar.

En un artículo anterior mencioné las paradojas asociadas a los viajes en el tiempo. En este otro artículo describí con detalle una paradoja igualmente destructiva que tendría lugar si fuese posible enviar mensajes de un sitio a otro a una velocidad mayor que la de la luz. Si los viajes a velocidades hiperlumínicas fuesen posibles, es obvio que automáticamente se podría enviar información a la misma velocidad, por lo que la paradoja podría tener lugar.

Karl Popper


Decir que un suceso es compatible con una teoría no significa que sea posible, porque las teorías son fugaces y nunca pueden considerarse completamente confirmadas, como señaló acertadamente Karl Popper.

Decir que las paradojas pueden resolverse si al final del viaje nos encontráramos en otro universo no resuelve nada, porque de lo que se trata es de viajar en el tiempo o en el espacio sin salir de nuestro universo.

Hilo Temático sobre Ciencia en General: Anterior Siguiente

Manuel Alfonseca

38 comentarios:

  1. Utilizar el argumento de que algo es imposible porque lleva a situaciones absurdas es precisamente la idea detrás del experimento (o paradoja) EPR. A pesar de que efectivamente parece ir en contra de la lógica, se ha comprobado que la paradoja no impide que la mecánica cuántica sea cierta. El entrelazamiento que intenta demostrar que es falso es ahora un recurso en computación cuántica (teletransportación). No está claro que la lógica que usamos habitualmente se pueda aplicar a cualquier situación, por paradójico que nos parezca. Estamos llegando al punto en que las teorías físicas funcionan o no, pero cada vez más se alejan de nuestra intuición.

    ResponderEliminar
    Respuestas
    1. Hay una diferencia esencial entre la paradoja EPR y las paradojas del abuelo y de la transmisión de información a velocidad mayor que la de la luz. La primera se limita a predecir cosas diferentes si la mecánica cuántica es válida y si no lo es. La segunda predicción parece de sentido común, pero mira por donde, la que se aplica es la otra. Véase este artículo: La desigualdad de Bell y la causalidad

      En las otras dos paradojas, sin embargo, la situación es muy diferente. Si los viajes en el tiempo o a velocidades mayores que las de la luz fuesen posibles, el universo pasaría a ser incompatible, incoherente e irracional, en el que un suceso, a la vez, habría sucedido y no habría sucedido. No se trata de simple "sentido común", sino de algo más profundo. Por eso digo que los fenómenos que podrían provocar esas paradojas son imposibles.

      Eliminar
    2. Por cierto, Anónimo, ponga otro nombre, cualquiera, pero no ese (lea las instrucciones para los comentarios).

      Eliminar
    3. Hola Manuel, efectivamente, se me pasó el poner mi nombre y por eso aparezco como anónimo... En cuanto a las paradojas, utilizando el entrelazamiento y enviando un bit de información es posible teletransportar un electrón a la distancia que se quiera. Como es imprescindible el envío del bit, no se puede superar la velocidad de la luz en el proceso, pero una vez recibido, el teletransporte (o la re-creación) es instantánea. Da igual la distancia, podríamos teletransportar un electrón de un extremo al otro de Universo si podemos enviar un sólo bit (y llevar dos electrones entrelazados a cada lado). Esto, que es física es lo que no podía admitir Einstein, puesto que parece que destruye el principio de localidad de las causas. Es diferente a los viajes en el tiempo pero no deja de ser contrario a nuestra experiencia "normal"

      Eliminar
  2. Hola, Manuel, respecto a la supuesta posibilidad de transmitir información a velocidad superlumínica usando el fenómeno del entrelazamiento cuántico, lo que tengo entendido es lo siguiente:

    - El entrelazamiento cuántico es instantáneo. Si dos partículas están entrelazadas, de modo que una es A+ y otra es A- (por dar nombre a la propiedad que se manifiesta de forma complementaria en ambas, sea cual sea), en el mismo momento que se observa que una partícula es A+, sabemos que la otra es A-, y viceversa. Por muy alejadas que estén las dos partículas.
    - Pero, y esto es el punto clave, es imposible "forzar" el estado de la partícula, no puedo ponerlo ni en A+ ni en A-. Puedo "leer" el estado, observarlo, pero no puedo "ponerlo", fijarlo. Luego no es equivalente a un bit de información, y NO sirve para transmitir información a velocidad superlumínica.

    Mi duda es si hay alguna estrategia de comunicación que sea capaz de usar el fenómeno para, de forma indirecta, lograr esa transmisión superlumínica. Lo que he leído al respecto es bastante confuso.

    Y respecto al fenómeno de la teletransportación, hace un tiempo escribí un artículo en mi blog, Libre albedrío y transferencia mental, donde se exponen algunas dificultades tanto prácticas, como de principio, para la teletransportación digital. El artículo revisado, extendido, y traducido al inglés, será publicado próximamente en revista científica.

    ResponderEliminar
    Respuestas
    1. Gonzalo, lo que dices es correcto. Con el entrelazamiento cuántico no podemos transmitir información instantáneamente. Y no, no hay ninguna estrategia de transmisión a velocidad super-lumínica. Y el hecho de que, si se pudiera, se producirían paradojas destructivas, hace pensar que es totalmente imposible.

      En cuanto a la transferencia mental a un ordenador, tema de muchas novelas de ciencia-ficción, personalmente estoy convencido de que también es imposible.

      Eliminar
    2. A propósito, Gonzalo, avísanos cuando se publique la versión extendida de tu artículo. Su pongo que pondrás un enlace en tu blog.

      Eliminar
    3. Por supuesto. El artículo se titula "A free mind cannot be digitally transferred", y será publicado en AI & Society: Knowledge, Culture and Communication (Springer), pero quién sabe cuándo, porque ha sido aceptado apenas hace tres semanas.

      Eliminar
    4. Gonzalo Génova envía el enlace de su artículo:

      Gonzalo Génova, Valentín Moreno, Eugenio Parra.
      A free mind cannot be digitally transferred.
      AI & Society: Knowledge, Culture and Communication, 27 June 2022 (open access).

      Eliminar
  3. Buenas,

    Respecto de la transferencia mental a un ordenador yo también era escéptico, pero hace unos días por relativa casualidad topé con un estudio plasmado en un artículo en el blog de Google acerca de como están "mapeando" el conectoma de la mosca Drosófila, algo que a mi se me antojaba como algo a lo que todavía no podíamos ni aspirar, casi de ciencia ficción.

    Sin embargo parece que hay avances significativos y serios en este campo, aunque no se está consiguiendo exactamente transcribir el conectoma de la mosca. Yo no tengo ni idea de como se está abordando algo así, por eso dejo el artículo por si alguien con más conocimientos puede aclarar algo al respecto:

    https://ai.googleblog.com/2020/01/releasing-drosophila-hemibrain.html

    Un saludo.

    ResponderEliminar
    Respuestas
    1. Si lee con atención el artículo de Gonzalo Génova verá que no niega que se pueda "descargar" un conectoma, sino que pone en duda que eso sea suficiente para enviar una mente al ordenador. La cuestión depende de una alternativa de partida esencial cuyos puntos de partida son contradictorios entre sí:

      1. ¿No somos más que máquinas? Entonces debería ser posible "descargar" nuestra consciencia en un ordenador.

      2. ¿O somos algo más que máquinas? En tal caso, no bastará con descargar un conectoma para replicar nuestra consciencia.

      Hablé de esto en otros artículos, por ejemplo, en este: Los límites de la biología.

      Eliminar
    2. Gracias, Manuel, has reflejado muy bien la sustancia del artículo.

      Antonio, incluso si no se trata de mentes conscientes sino de seres vivos más simples, sigue habiendo problemas esenciales. Por no alargarme, copio un párrafo del artículo citado:

      Todo proceso de medida de un sistema físico supone un determinado grado de abstracción o simplificación de la realidad representada. Es necesario definir las variables relevantes y el grado de precisión con el que serán medidas. ¿Cómo sabemos cuáles son estas variables, y qué precisión es suficiente, para poder realizar una copia “fiel” al original? ¿Sería necesario medir el estado electro-químico individual de cada neurona? ¿Cómo sabemos que la copia contiene toda la información relevante?

      En definitiva, cuando se trata de seres naturales nunca vamos a tener la garantía de que la copia es suficientemente aproximada.

      Eliminar
    3. Lo primero, un fuerte abrazo al profesor Alfonseca, y agradecerle el artículo, que me ha gustado mucho.

      Señalar que tener un conectoma no permite, ni de cerca, poder replicar las actividades del sistema nervioso, ya que nos falta un factor importante, en el que aun estamos completamente en pañales, que es el de como se codifica la información dentro dicho sistema. Es decir quizá yo pueda copiar la maraña de cables de un sistema, pero si no soy capaz de entender y por tanto de generar las señales en la forma en la que se espera (y todo apunta a que dicha manera, varía de persona a persona) voy a tener complicado replicar nada, mas allá de una (simple) topología de conectividad.

      Obviamente, la topología de la red (red dinámica, además) determina en parte el comportamiento del sistema, pero es sabido, que no es, ni de lejos, el único factor determinante (por ejemplo, tenemos también el ya mencionado de la codificación). Por tanto, no bastaría copiar el conectoma de una persona, sino que también sería necesario copiar la forma que tiene de codificar las señales que van por ese conectoma (que son diferentes individuo a individuo), y en eso, vamos aun más atrasados. Como le gusta decir al profesor Alfonseca, aunque seamos capaces de copiar el hardware (topología de la red) sin poner el mismo software (codificación y generación de la información), no vamos a poder replicar un sistema.

      Eliminar
    4. Sí, esto es más o menos lo que yo quería decir en un comentario anterior (que aquí aparece más abajo) cuando escribí esto: "anotar una lista de conexiones entre dispositivos es una cosa, pero ejecutar esos dispositivos es otra bien distinta. Piense en un ordenador: su disco duro contiene datos. Pero para hacer algo con esos datos hace falta mucho más: CPU, un lenguaje de máquina, un programa de proceso de datos..."

      Eliminar
    5. Guillermo intentó escribir el siguiente comentario, pero por algún motivo no ha salido, así que lo añado yo:

      A esto de la codificación hay que añadir una dificultad más. Sabemos que tanto el conectoma como la codificación de la información que fluye por ese conectoma no solo dependen de cada persona (por eso, los dispositivos que "leen" pensamientos tenemos que entrenarlos con sus usuarios durante horas), sino que también dependen del tiempo (esos dispositivos hay que reentrenarlos aproximadamente cada año o dos años). Es decir, si le preguntamos a un experto como es el conectoma de una especie nos responderá "de que individuo,, y cuando".

      Todo parece apuntar también que la dinámica de ambas cosas (topología y codificación de la información) no son procesos de Markov, y por tanto, solamente el estado actual del conectoma (y de la codificación) no me determina en absoluto el estado futuro (y por tanto el comportamiento derivado) del mismo. Es decir, si queremos "replicar" el comportamiento de un conectoma (aunque solo con esto bastase, que ya hemos visto que no) no sería suficiente con almacenar el mismo a tiempo t, sino que debemos almacenar todos los conectomas (y codificaciones) en un cierto intervalo de tiempo, que más que probablemente es muy largo. Es decir, intentar replicar el comportamiento de un humano, con una "foto" del estado actual (incluso completo) de su sistema nervioso, es como intentar predecir el discurso de esa misma persona usando solamente la última palabra que ha pronunciado...

      Eliminar
  4. He leído y disfrutado los mencionados artículos, y me aventuro a dar respuestas con toda la modestia del mundo:

    ¿Como sabemos si la "copia" se ha hecho con la precisión suficiente? Si ejecutando esa "copia" (pongamos el conectoma de un humano) la copia se comporta sustancialmente como el individuo original, o al menos en las capacidades que simula. Por ejemplo si habla como él, o su pensamiento produce sustancialmente los mismos resultados que el original. O si son suficientes para el propósito que perseguimos. Por ejemplo, si copiamos el conectoma del mejor conductor de Fórmula 1, y lo descargamos en un coche de Fórmula 1 adaptado para que lo conduzca la copia, si conduce lo mismo de bien que él, podemos concluir que la copia es al menos "suficiente para el propósito que se le da". Un avión no copia a ningún pájaro en su totalidad, solo los elementos que nos bastan para que vuele (y en algunas características como la velocidad, es superado por el avión). Lo mismo una copia de un conectoma, nos sirve para hacer pensar a la copia.

    En cuanto al mismo hecho de poder copiar un conectoma, me sorprende en sí mismo, porque pensé que estábamos muy lejos de eso, o que simplemente sería imposible, sin métodos "invasivos", pero veo que no, que aun a un nivel muy básico se está consiguiendo en cerebros de otras especies (ignoro si hacer lo mismo en humanos es factible o presenta dificultades adicionales).

    Un saludo

    ResponderEliminar
    Respuestas
    1. Antonio, lo que dice es ciencia-ficción, porque ninguna de esas cosas se ha conseguido, ni siquiera está cerca.

      Pero cito su segundo párrafo: "ejecutando esa "copia"". ¿Cómo se ejecutaría? Porque anotar una lista de conexiones entre dispositivos es una cosa, pero ejecutar esos dispositivos es otra bien distinta. Piense en un ordenador: su disco duro contiene datos. Pero para hacer algo con esos datos hace falta mucho más: CPU, un lenguaje de máquina, un programa de proceso de datos...

      Es algo parecido a lo que pasa con el genoma. Son puros datos, listas de letras (GATC). ¿Cómo se construye un ser vivo a partir de esos datos? Ni idea. Quizá hasta sea imposible. Desde luego no es algo inminente.

      En su último párrafo dice: "(ignoro si hacer lo mismo en humanos es factible o presenta dificultades adicionales)." Ya lo creo que presenta dificultades adicionales: el cerebro humano es muchos órdenes de magnitud más complejo que el de una mosca.

      Así que no se preocupe: las cosas no van tan avanzadas como usted creyó, leyendo esa noticia.

      Eliminar
    2. Antonio, planteas cuestiones interesantes, y me gustaría completar la respuesta de Manuel con alguna consideración adicional.

      >> la copia se comporta sustancialmente como el individuo original, o al menos en las capacidades que simula

      ¿Qué significa "sustancialmente", cómo se mide? Para medir tenemos que introducir un criterio convencional de "precisión suficiente", que es relativo a nuestros intereses, a aquello para lo cual construimos la copia.

      Más importante: ¿ser es lo mismo que parecer? A los humanos nos preocupa muchísimo que las cosas sean y no solo parezcan, y no es por nada. Podemos decir que el principio de la filosofía es esta distinción.

      >> si son suficientes para el propósito que perseguimos

      Aquí ya se introduce un propósito que no tiene por qué estar en el original, sino que lo ponemos en la copia. La copia es, entonces, una máquina, un artefacto, porque tiene un propósito extrínseco, impuesto desde fuera por nosotros. Por eso la podemos someter a control de calidad, medir hasta qué punto satisface el propósito con la que la hemos fabricado. Un ser vivo, en cambio, no tiene una finalidad extrínseca, no es una máquina. Su propósito es su propia vida.

      ¿Podemos averiguar cómo calcula un humano y hacer una máquina que haga lo mismo? Sí, y lo hacemos desde hace mucho tiempo (el ábaco tiene más de 2000 años). Podemos construir máquinas que conduzcan un F1, que jueguen al ajedrez, que operen de apendicitis, como el mejor de los pilotos, jugadores y cirujanos; incluso mejor, si logramos integrar las capacidades de muchos. Pero los originales siguen ahí, sin que los podamos reducir a sus "funciones". El ser humano es más que sus funciones o capacidades, y en eso consiste su dignidad.

      >> Lo mismo una copia de un conectoma, nos sirve para hacer pensar a la copia.

      La copia del conectoma pensará tanto como el ábaco. Es decir, nada. Porque no es un sujeto, no es un ser vivo.

      Eliminar
  5. Es un halago el que consideres que son cuestiones interesantes.

    Tal vez me extienda un poco porque se me vienen muchas cosas a la cabeza y no todos los días tiene uno la oportunidad de debatir y conversar con personas con un nivel de conocimientos como vosotros.

    En primer lugar, creo que le exigimos tanto a una máquina que piense porque asumimos de manera casi inconsciente que en el pensar humano hay algo "especial" y "único" (supongo que porque hasta ahora somos el único ejemplo pensante que tenemos). En otros términos, si existiera una máquina de diálisis que pudiera trasplantarse en un paciente sustituyendo a un riñón, diríamos que la máquina asume las funciones del riñón si el paciente no nota la diferencia, pero para una máquina que piense..¿qué debe hacer para demostrar que lo hace? Podríamos decir que la evolución de la máquina de diálisis tal vez no realice el proceso igual que el riñón natural, pero si el paciente no nota la diferencia seguramente le sería indiferente que le pongan uno u otro. Podría incluso imaginarse una situación en la que la máquina supera al original por ciertas ventajas frente al natural (duración ilimitada, ausencia de enfermedades que le afecten, más "eficiencia"...). Sin embargo no sabemos que exigirle a una máquina para asumir que realiza la función de pensar, problema que si nos ponemos estrictos, podemos incluso extender a nuestros congéneres humanos (lo mismo a unos más que a otros): ¿cómo se yo si el sujeto que tengo enfrente es "consciente" y piensa siguendo el mismo procedimiento que yo? Si viniera un extraterrestre "orgánico" a la tierra y observamos un comportamiento inteligente en él (por ejemplo constatando que resuelve problemas -sin ir más lejos el de viajar desde su planeta al nuestro- y que se comporta aproximadamente como un humano) ¿cómo sabemos que su "pensamiento" se desarrolla como el nuestro con métodos y órganos comparables o si llega a el por caminos totalmente diferentes? ¿Nos legitimaría este desconocimiento a afirmar que este ser no piensa o que no es inteligente? ¿Si el avión no vuela como el pájaro hay que sostener que el avión no vuela "auténticamente"? Tal vez la definición de pensamiento es más extensa o difusa que la de volar, pero desde luego no es una carta en blanco que permite hacer cualquier cosa (por ejemplo, no puedo mover objetos con el pensamiento). Luego habrá que concluir que lo que hace un cerebro está acotado, por muy extenso que sea o por mucho desconocimiento de ello que tengamos.

    Tal vez un ordenador digital no sea la máquina ideal para construir una máquina que piense. De echo, ya hay proyectos de hardware que transcienden la computación clásica para intentar simular al cerebro (procesadores fotónicos neuromórficos, si mal no recuerdo, por ejemplo, o redes neuronales basadas en componentes analógicos).

    Pero me da la sensación de que la computación "tradicional" aun tiene mucho que decir en este campo, no hay más que ver los avances de proyectos de Open AI, como Dall e 2 o GPT-3 (hablo de memoria, por si meto algún gazapo). Y vamos a ver como asuminos los humanos que actividades que nos parecían tan "elevadas" y unicas de humanos como el arte, son asumidas por inteligencias artificiales que las realizan con más maestría que nosotros, y encima como churros y sin despeinarse, aunque no podamos decir que lo hagan "pensando" como nosotros.

    Por último, en cuanto a lo del conectoma asumí (tal vez incorrectamente) que el poder extraer el conectoma de un cerebro nos acercaba a poder simularlo, aunque como digo tal vez era una asunción sin fundamento.

    Yo no creo que se pueda "bajar" una consciencia humana a un soporte digital, y que esa consciencia no note la diferencia, lo que si creo que se puede hacer es recrear una copia que sea una simulación de un cerebro original en otra máquina, no necesariamente digital.

    Un saludo y gracias.

    ResponderEliminar
    Respuestas
    1. Antonio, yo diría que la clave de todo el asunto está en que se suele entender que la inteligencia sirve para resolver problemas. Es una idea muy extendida, pero... ¿cómo sabemos cuáles son los problemas que vale la pena resolver? ¿Es eso también una actividad inteligente?

      Si me permites, te remito a otro artículo mío: Un instrumento universal para resolver problemas.

      Inteligencia es razonamiento, capacidad para resolver problemas. Pero más importante aún, más en la base: inteligencia es capacidad de reconocer lo Verdadero, lo Bello y lo Bueno. Una máquina puede pintar cuadros con gran maestría, pero lo único que hace es imitar de forma muy complicada a los mejores pintores de la historia... que ella no ha escogido, porque no sabría reconocerlos (antes de ser entrenada).

      Eliminar
  6. Gonzalo, cuando dices

    "Inteligencia es razonamiento, capacidad para resolver problemas. Pero más importante aún, más en la base: inteligencia es capacidad de reconocer lo Verdadero, lo Bello y lo Bueno. Una máquina puede pintar cuadros con gran maestría, pero lo único que hace es imitar de forma muy complicada a los mejores pintores de la historia... que ella no ha escogido, porque no sabría reconocerlos (antes de ser entrenada)."

    Lo dices como si el humano aprendiera todos estos conceptos de la nada: lo verdadero, lo bello y lo bueno (casi nada, como si lo tuviéramos claro incluso nosotros mismos). El humano aprende y llega a todos estos conceptos desde lo innato y por experiencia, también los aprende, no los lleva "pregrabados de fábrica". Es más, seguro que durante una misma vida estos conceptos evolucionan, lo que antes nos parecía bello luego nos parece horrible, y lo verdadero nos parece mentira, y lo bueno malo. Lo mismo hace la IA: va entrenándose y con ello va refinando sus resultados. El pintor humano también aprende por imitación de lo que había antes, y de lo que le enseñan sus maestros, no hay más que ver la Historia del Arte para corroborar esto. Casi ninguna habilidad humana nos cae del cielo, todo exige un aprendizaje aunque haya cosas innatas que nos vienen por biología. Pero lo mismo es en las máquinas: llevan cosas preprogramadas, pero la IA exige de un entrenamiento con muchas analogías con el aprendizaje humano.

    Y digo yo que la inteligencia humana también tendrá propósitos concretos, e incluso se podrían resumir en uno: sobrevivir o vivir mejor, ser feliz... Es porque sobrevivir o vivir mejor es algo complejo y amplio que nos parece que nuestra inteligencia es "universal", pero no hay más que ver como fracasamos cuando nos enfrentamos a conceptos que se salen de ese objetivo, y nos parecen contra-intuitivos (la intuición nos ayuda a sobrevivir): aparece la mecánica cuántica y nuestra inteligencia fracasa al descubrir una realidad para cuya comprensión no está diseñada, ya que no le era necesario para sobrevivir.

    El artículo que citas ya lo conocía, soy un habitual de tu blog y he procurado leer todo lo que me parece interesante de el.

    Hay un párrafo del mismo que siempre me llamó la atención:

    "Aun cuando [las máquinas] hicieran varias cosas tan bien y acaso mejor que ninguno de nosotros, no dejarían de fallar en otras, por donde se descubriría que no obran por conocimiento, sino sólo por la disposición de sus órganos, pues mientras que la razón es un instrumento universal, que puede servir en todas las coyunturas, esos órganos, en cambio, necesitan una particular disposición para cada acción particular."

    Concretamente la frase de "Aun cuando [las máquinas] hicieran varias cosas tan bien y acaso mejor que ninguno de nosotros, no dejarían de fallar en otras"...como si los humano fuéramos infalibles y no falláramos en nada. La inteligencia humana, por muy libre y muy Universal que sea está por ver que sea ese "instrumento universal, que puede servir en todas las coyunturas", porque digo yo que tendrá sus límites, y lo mismo no es una máquina de resolver cualquier problema que se proponga, sea cual sea, esa frase atribuye a la inteligencia humana propiedades que yo diría son casi divinas.

    No sé por qué te empeñas en exigirle a una (hipotética) máquina pensante más que al propio humano que piensa, o le atribuyes al pensamiento humano unas capacidades potenciales que en mi opinión está por ver si son reales.

    Un saludo.

    ResponderEliminar
    Respuestas
    1. Antonio, no digo que los humanos aprendamos los conceptos de verdadero, bueno y bello de la nada, o que los tengamos pregrabados, lo siento si doy esa impresión. Por supuesto que aprendemos de la experiencia y de la imitación. Un componente de la educación es enseñar a imitar. Pero solo un componente: la educación no puede ni debe quedarse en la imitación de comportamientos.

      Lo radical es: ¿somos capaces de reconocer lo verdadero, lo bueno y lo bello más allá de lo que hemos aprendido por imitación? Este "reconocer" es justamente lo que está más allá de una inteligencia computacional.

      La capacidad de adaptación tampoco puede explicar este "reconocer", en la medida en que lo verdadero es algo más que lo útil, que lo bello es algo más que lo que produce placer sensible, y lo bueno es algo más que lo que suscita la aprobación de los demás. Si así fuera, jamás podríamos reconocer el heroísmo ético en aquellos que se rebelan contra las convicciones morales de su entorno. En otras palabras, ciertamente el propósito de sobrevivir es fundamental, porque somos animales, pero el principio de supervivencia -la capacidad de adaptación- no puede explicar lo específicamente humano.

      "Vivir mejor" no es simplemente sobrevivir más tiempo. Los humanos, a diferencia de otros animales, tenemos que aprender a vivir, y además inventamos nuevas formas de vivir. Vivir mejor no es algo dado y cerrado a priori.

      El párrafo que citas de mi blog no es mío, sino de Descartes. En todo caso, al decir que es "instrumento universal", Descartes no pretende que la razón sea perfecta e infalible, sino que sirve para cualquier tarea, al contrario que -en su concepción- las máquinas, que solo sirven para tareas específicas.

      No creo que yo haya atribuido al pensamiento humano la capacidad de entenderlo todo. Si lo digo en algún sitio, indícamelo, porque me refutaré contundentemente, ya que pienso justamente lo contrario. Lo que sí pienso es que no hay ningún ámbito de la realidad que en principio sea ajena al interés de la inteligencia. Como decían los clásicos, la razón se preocupa por todo lo que "es" (todo lo que es real).

      Un saludo

      Eliminar
  7. Gonzalo,

    Claro que la cita es de Descartes, pero entiendo que la haces tuya incluyéndola en tu entrada.

    En primer lugar, todo depende de lo que entiendas por imitación, porque ya no está claro que las IAs simplemente imiten a partir del entrenamiento que se les da. Un caso claro es Dall-E 2:

    https://www.youtube.com/watch?v=nqXn1JSEHGo&t=614s

    Realmente es difícil mantener que la IA está simplemente "imitando" a partir del algoritmo y el entrenamiento que recibe, está "creando" (con todas las comillas que quieras) algo "genuino", que no estaba como tal en ninguna de las imágenes con las que se le entrena (si es que se le entrena con imágenes, no tengo claras las profundidades técnicas). El algoritmo permite aprender, y tiene cierta flexibilidad, no es mera imitación. Imitar sería repetir (cortar y pegar) para producir los resultados, pero la IA está adaptándose a lo que se le pide (y esto puede ser casi cualquier cosa, como vemos) lo cual hace evidente que no está meramente imitando nada.

    Cuando dices "reconocer", la verdad, no sé a lo que te refieres, es un término totalmente difuso e indefinido. Y como digo ¿de verdad todos los humanos reconocemos cosas tan abstractas como lo verdadero, lo bueno y lo bello o simplemente cada uno lo entendemos un poco como nos viene y en función de nuestra experiencia? Eso en el caso de que verdaderamente lo entendamos, no hay más que ver la Historia de la Filosofía para ver que esto es una discusión constante para la que no hay ninguna conclusión (si es que la lógica permite tal cosa).

    (sigue, no me deja publicar entero)

    ResponderEliminar
  8. Luego dices que:

    "lo verdadero es algo más que lo útil, que lo bello es algo más que lo que produce placer sensible, y lo bueno es algo más que lo que suscita la aprobación de los demás"

    De la misma manera que las imágenes que produce Dall-E 2 son "algo más" que el algoritmo, el hardware y el entrenamiento. En "algo más" cabe todo, y no explica nada, el "algo más" es simplemente una opinión del que observa. Yo puedo ver que mezclando gas con una chispa se produce una explosión, y decir que la explosión es algo más que la chispa y el gas, ¿pero qué es el algo más? La chispa y el gas explican la explosión, con dos elementos consigo un tercero que no es ninguno de los dos, y ese tercero es (eventualmente) lo que quería conseguir, que lo consiga es lo importante, y claro que es "algo más" que lo que tenía al principio. También podría decir que un programa de ordenador es "algo más" que el hardware del ordenador, ya que el hardware por sí solo no hace lo que el programa puede conseguir. Incluso podría decir que es "algo más" que el hardware y el software, ya puestos, y nadie me lo podría negar (es una "experiencia de usuario", como diría algún experto de marketing de alguna empresa de Silicon Valley).

    Pero volviendo al texto de Descartes. Dice que la razón es un instrumento universal que sirve para cualquier tarea, pero a continuación admite que no es ni perfecta ni infalible, luego digo yo ¿si no es infalible como puede ser universal? O una cosa o la otra, si se puede aplicar a cualquier cosa pero ya si entramos en algo en concreto fracasa ¿tiene sentido decir que es Universal?, de nada nos sirve que sea universal si luego hay cosas en concreto en las que no puede entrar y no puede conocer.

    Luego hablas del interés de la inteligencia, que es realmente lo que no tiene límite. Pero me parece un término demasiado difuso para poder llegar a algo con el. La inteligencia puede "interesarse" (sea lo que sea eso) en cualquier cosa, pero luego puede fracasar intentando comprender esa misma cosa. Es un mero acto instintivo, como el que ve un agujero negro y le llama la atención, aunque no tenga ni idea de lo que es ni como funciona, o como el gato al que le tiras una pelota de plástico y se entusiasma con ella.

    Pero más allá de eso, si fuéramos capaces de crear una IA con curiosidad infinita para interesarse por todo (la mosca que le pasa por delante, la materia oscura, la Literatura Universal, el Real Madrid, el último disco de Rosalía), desde ese momento entiendo que sería considerada una inteligencia digna de denominarse como tal y hablar de tú a tú a la humana.

    Por otro lado, y para terminar, porque no quiero extenderme mucho, no parece tan claro que una IA no pueda tener una inteligencia "general" (que tal vez sería excesivo calificar como Universal): ya existe una que permite desde jugar a juegos de ordenador hasta describir lo que aparece en una foto:

    https://www.deepmind.com/publications/a-generalist-agent

    Un saludo.

    ResponderEliminar
    Respuestas
    1. Antonio dice: "Pero más allá de eso, si fuéramos capaces de crear una IA con curiosidad infinita para interesarse por todo (la mosca que le pasa por delante, la materia oscura, la Literatura Universal, el Real Madrid, el último disco de Rosalía), desde ese momento entiendo que sería considerada una inteligencia digna de denominarse como tal y hablar de tú a tú a la humana."

      Posiblemente esto sea cierto, pero de momento es ciencia-ficción. Por mi parte, he escrito varias novelas sobre esto:
      La escala de Jacob y Operación Quatuor

      Eliminar
    2. Antonio, no hago mía la cita de Descartes, porque el propósito del artículo es justamente criticar la noción cartesiana de inteligencia exclusivamente instrumental que queda expresada en esas palabras, y que tanta influencia ha tenido en el pensamiento posterior (Turing entre otros).

      El video de Dall-E 2 es una chulada. Acepto que la IA no es una "simple imitación" de la inteligencia humana. Pero el punto clave es que la IA no tiene verdadera iniciativa, no se propone sus propios objetivos. Puedes decir que la IA es "genuinamente creadora", pero siempre tendrás que poner comillas. Tú mismo lo dices, es decir, reconoces que la IA no es genuinamente creadora de la misma forma y en el mismo sentido que la inteligencia humana.

      La IA se adapta "a lo que se le pide", como dices tú: y esa es la clave, que mientras solo se dedique a resolver el problema que se le pide, será una inteligencia esclava, sin iniciativa propia. Será una resolvedora de los problemas de otros, pero ella misma nunca tendrá problemas que resolver.

      >> ¿de verdad todos los humanos reconocemos cosas tan abstractas como lo verdadero, lo bueno y lo bello...?

      No, no en abstracto, pero sí lo reconocemos en las cosas concretas. Una calculadora suma números, pero no sabe que 2+2=4 "es verdad". La calculadora hace operaciones muchísimo más complicadas de lo que somos capaces nosotros; pero saber, lo que es saber, no sabe nada de nada.

      >> si fuéramos capaces de crear una IA con curiosidad infinita

      Manuel ya te ha respondido a esto. Yo añado que, si tuviera curiosidad infinita, entonces no sería computacional. No es un capricho mío: es que ser computacional la limita a una tarea que otro ha especificado.

      ¿Es posible crear una inteligencia no computacional? Sí, claro. Eso son los hijos, los nuevos humanos que traemos al mundo. Manuel y yo hemos llegado a esa misma conclusión por caminos diferentes. Si eres lector habitual de mi blog -lo que sin duda me agrada- conocerás seguramente uno de los primeros artículos, ¿Puede ser libre una máquina computacional?, de cuya tercera parte copio lo siguiente:

      Atención, no estoy diciendo que sea imposible fabricar seres inteligentes y libres, tan solo que, si algún día lo logramos, no serán propiamente “máquinas computacionales”. Quizás en un futuro indeterminado seamos capaces de producir en el laboratorio un tipo de robots no algorítmicos (no dirigidos hacia un fin dado) que propiamente puedan ser calificados como autoconscientes, capaces de hacer “lo que les dé la gana”, de proponerse sus propios objetivos; pero seguramente no sería adecuado seguir llamándolos robots. Serían “humanos” en el sentido de autodeterminados, verdaderamente libres, aunque quizás su estructura física (¿biológica?) fuera muy diferente a la nuestra. Pero, ¿de qué serviría esto? ¿Para qué fabricar máquinas que no harán lo que queremos, sino lo que les dé la gana? ¿En qué sentido puede decirse que siguen siendo máquinas?

      Disculpa que no responda a todas y cada una de tus objeciones, pero me falta tiempo y tampoco quiero abusar de la hospitalidad de Manuel.

      Un saludo

      Eliminar
    3. De hecho, ya sabemos "fabricar seres inteligentes y libres": nuestros hijos. Y tienes razón: para los que creemos en la libertad humana, no son "máquinas computacionales".

      En la segunda parte de tu párrafo dices: "Quizás en un futuro indeterminado seamos capaces de producir en el laboratorio un tipo de robots no algorítmicos... que propiamente puedan ser calificados como autoconscientes".

      De eso tratan mis novelas. Por eso las cité en mi comentario anterior. Y la conclusión ("Serían “humanos” en el sentido de auto-determinados, verdaderamente libres, aunque quizás su estructura... fuera muy diferente a la nuestra") es la misma que la tuya.

      Eliminar
  9. Lo diré de otra manera y lo voy a ir dejando.

    Digamos que el objetivo de la IA es "realizar un trabajo", como cuando los humanos vamos a trabajar, y se nos pide un resultado. Los humanos no tenemos que estar completamente interesados en realizar el trabajo que se nos encomienda para que lo hagamos con relativa eficacia. Se nos exige un "output" y si lo entregamos con cierta calidad no se nos despide y seguimos haciéndolo (eventualmente) cada vez mejor cuanta más experiencia tenemos. Entiendo que para ejecutar ciertos trabajos se requiere de cierta inteligencia. En este caso también entiendo que según lo que dice Gonzalo no sería una inteligencia genuinamente humana, porque ni siquiera está interesada en lo que hace (aunque exista esa posibilidad y pueda interesarle otra cosa). Sin embargo esta falta de interés no le impide realizar el trabajo que se le propone.

    A mi lo que me interesa de la IA es que resuelva problemas. Como pintar un cuadro, resolver una ecuación, resolver un problema de Física, conducir un coche, realizar un diagnostico médico. Si en un futuro alguien le dice a una IA: "GPT-20, escribe una canción al estilo de los Beatles" o "GPT-30, diseña un avión más eficiente" o "GPT-300, unifica la Teoría de la Relatividad y la Física Cuántica" y la IA lo hace a mi poco me va a importar que la IA esté genuinamente interesada en esos temas si llega a la solución del problema. Poco me importa que lo que realmente le interese a la IA es el último disco de Rosalía. Le importará a ella, pero no a nosotros. Tampoco me importa si la IA puede llegar a estar interesada en problemas que no le planteamos o no puede más que resolver los que le proponemos. Los intereses los ponemos nosotros, la solución la pone la IA. Me parece lo bastante revolucionario como para cambiar el mundo (esperemos que a mejor).

    Y yo ya no estoy nada seguro de que llegar a eso sea "Ciencia Ficción", no es más que esto lo que separa nuestras opiniones (que es poco o mucho, según se mire).

    Un saludo y gracias por todo.

    ResponderEliminar
  10. Antonio,

    Me parece que nuestros últimos mensajes se han cruzado. Respondo ahora al último tuyo.

    >> Digamos que el objetivo de la IA es "realizar un trabajo", como cuando los humanos vamos a trabajar, y se nos pide un resultado.

    Conforme.

    >> A mi lo que me interesa de la IA es que resuelva problemas.

    Conforme.

    >> Los intereses los ponemos nosotros, la solución la pone la IA.

    Conforme.

    >> Tampoco me importa si la IA puede llegar a estar interesada en problemas que no le planteamos o no puede más que resolver los que le proponemos.

    Como ya he dicho, si puede proponerse sus propios problemas, entonces no puede ser una máquina computacional, y no puede ser construida bajo el paradigma computacional ni con tecnología computacional. Simplemente, porque este paradigma lo impide.

    Que seamos capaces de crear algún ser con sus propios objetivos, y que no sea descendiente biológico nuestro, no lo descarto. ¿Es preocupante? No más que saber que los objetivos de mis hijos tampoco tienen que ser los mismos que los míos.

    Lo que verdaderamente me preocupa no es la "humanización" del robot, sino la "robotización" de los humanos: el reducir a los humanos a su capacidad de trabajo, de cumplir tareas diseñadas por otros. Esto sí que me parece una grave amenaza, y no está tan lejos como podría parecer. Nuestro sistema educativo está corrompido justamente con esta idea. Lee si quieres Encuentros educativos en la tercera fase.

    ResponderEliminar
  11. DALL-E 2 genera, sin duda, imágenes impresionantes, pero en modo alguno es una paso adelante para la IA general ni muestra "comprension" alguna similar a la humana. Al igual que todas las IA existentes es incapaz de resolver de forma general los problemas o puzzles del matemático Bongard, cuya resolución exige capacidad de abstracción y entendimiento para relaciones de igualdad, complejidad, etc. Gran parte de la IA no es sino análisis estadístico de grandes cantidades de datos para usos muy concretos, sin relación alguna con la inteligencia ni la comprensión humanas. Procesar datos no es entenderlos.

    ResponderEliminar
  12. Decía que iba terminando pero no me resisto a comentar, el tema me apasiona demasiado para dejarlo así.

    Gonzalo, por supuesto que me preocupa lo que dices (que se nos trate a los humanos como robots), pero eso es tema aparte. También me preocupa el inmenso poder que detentará quien domine estas tecnologías. Esperemos que no queden en manos de unos pocos, y que no se usen demasiado mal (mal se usarán, invevitablemente). Pero esperemos que el daño sea poco, y los beneficios sean muchos.

    Respecto a lo de "comprender" a mi es que ya no me queda claro que significa ni en un humano. Un humano puede derivar o integrar mecánicamente, pero "comprende" lo que es integrar o derivar?. Y así con un montón de procesos mentales. De hecho el sistema educativo inventó los exámenes precisamente para eso: para asegurarse si los alumnos comprenden lo que se les enseña, porque esto no es algo tan evidente como parece. En fin, llegamos al conocido problema de la habitación china de Searle.

    Pero una pregunta, Flamingo "comprende" las imágenes que describe?:

    https://www.youtube.com/watch?v=g8IV8WLVI8I&t=116s

    Pasar el examen, desde luego, lo pasa.

    Un saludo.

    ResponderEliminar
    Respuestas
    1. Antonio,

      >> Un humano puede derivar o integrar mecánicamente, pero "comprende" lo que es integrar o derivar?

      Si solo lo hace mecánicamente, entonces no lo comprende.

      >> Pero una pregunta, Flamingo "comprende" las imágenes que describe?

      No. Es solo un idiota entrenado para responder con gran eficacia preguntas de un tipo muy determinado. Una persona inteligente habría respondido enseguida: "¿Me tomas por tonto? ¿Por qué me preguntas esas chorradas?"

      Eliminar
  13. Y otra cosa, Antonio. Dices que tratarnos como robots es una preocupación aparte.

    Pero consideras que Flamingo, que obviamente es un sistema computacional (lo sabemos por cómo está construido), pasa el examen de "comprensión" atribuida comúnmente a humanos. ¿Ves algún problema en tratar a Flamingo como un robot? O sea, en apagarlo cuando molesta o cuando ya no "cumple su función".

    No me parece que sea un problema aparte. Si consideramos que la clave de la humanidad está en la capacidad de resolver problemas, de ahí a tratarnos unos a otros como máquinas hay menos de un paso.

    ResponderEliminar
  14. Gonzalo,

    Nos estamos metiendo en profundidades de las que es difícil salir (porque desde luego el tema lo requiere).

    Sigo viendo una especie de sesgo hacia la máquina en el sentido de que le exiges más pruebas que a los propios humanos para demostrar ciertas cosas. Dicho de otra manera, algunos de los problemas que planteas son exactamente igual para los humanos que para la máquina. Como decía más arriba, el problema de la consciencia, si nos ponemos estrictos lo podemos aplicar incluso entre humanos. ¿Qué seguridad tenemos de que el sujeto (humano) que tenemos delante es un humano de verdad o es un ser impostor que simplemente simula comportarse como tal? Lo mismo es una máquina indistinguible de un humano o cualquier otro tipo de ser orgánico que intenta engañarnos, al que como tú dices le traen al pairo las estupideces que le planteamos cuando él en realidad está en otra cosa, pero para perpetrar ese engaño se comporta (desde su perspectiva) como un idiota para llevar a cabo ese plan. Es enrevesado, pero cosas más enrevesadas ha planteado la Filosofía, y técnicamente no tienen (aparentemente) nada de reprochables

    Y eso me lleva a lo que comentabas antes: tú opinas que Flamingo no es más que un idiota que repite como un loro lo que está programado para decir, pero yo creo que podemos estar ante algo más. Ya no es la calculadora que se ciñe a su programa, este algoritmo, o como lo queramos denominar, creo que transciende ese paradigma de la computación, es "algo más" (sí, como ese "algo más al que tú te referías más arriba). También podríamos plantear la consciencia como algo gradual, como muchos autores sugieren, de manera que tal vez ya en la calculadora hay algo de consciencia, y esa consciencia se va ampliando conforme el ser o la máquina son capaces de procesar información de forma más y más compleja. Obviamente nos metemos en algo difícil de demostrar, pero como decía, una experiencia subjetiva puede resultar indemostrable objetivamente (ahí nos meteríamos en un debate sin fondo, prácticamente).

    Lo que tendríamos que convenir es qué pruebas nos tiene que dar una máquina para que nosotros aceptemos que "comprende" algo. Pero exigirle lo mismo que al humano, no un "extra", que le imponemos porque ya de por sí tenemos la idea de que nosotros somos los únicos que pensamos y comprendemos. Y aquí solo tenemos el comportamiento, o atendemos a él o estamos en el callejón sin salida de antes: no podemos probar una realidad intrínsecamente subjetiva como el "pienso luego existo". Porque eso solo lo puede pensar y decir el que cree que piensa "genuinamente".

    (sigue)

    ResponderEliminar
  15. Yo no digo que la clave de la humanidad esté en resolver problemas, digo que a la máquina se le pone a prueba viendo si los resuelve. Habrá veces en que incluso será deseable que la máquina se ciña exclusivamente a resolverlos. Imaginemos una urgencia médica a vida o muerte en una situación extrema y a su vez de importancia colosal (por ejemplo, la continuidad de toda la raza humana depende de ella) que tiene que resolverse en el menor tiempo posible: el humano, en toda su humanidad, casi con toda seguridad se saldrá del guion de exclusivamente resolver ese problema: se pondrá nervioso, sentirá la presión en su mente y en su cuerpo, sufrirá de temblores, su cerebro estará sometido a los sesgos y vacilaciones habituales, pensará sin querer, valga la broma otra vez, en el último disco de Rosalía y un largo etcétera propio de esa “libertad” de elegir dónde pone su atención a la que te referías. Pero seguramente, una hipotética máquina entrenada para resolver emergencias médicas se ceñirá al problema de salvar la vida al que tiene enfrente, con toda la “frialdad”, con todos los casos médicos similares habidos y por haber en su base de datos para decir lo mejor en función de lo que está sucediendo, sin que nada se interponga en lo que quiere ejecutar y centrado exclusivamente en lo que está haciendo. Es posible que esto le reste libertad, pero seguramente ejecutaría la tarea con más garantías que el humano. Esto me recuerda a la discusión que tuve con un amigo en los años 90: el sostenía que en el ajedrez subyacía un “arte” que la máquina sería incapaz de reproducir nunca. No sabemos si ese arte existe, sea lo que sea, lo que si sabemos es que ya las máquinas son imbatibles jugando al ajedrez, seguro que por caminos distintos a los nuestros pero con resultado incontestable.

    A lo que estás apuntando es a la pregunta de qué hace humano a un humano, pero una vez más, este problema ya es aplicable por ejemplo entre humanos mismos, no hay que meter a las máquinas en este lío. En el debate del aborto nos lo preguntamos constantemente: ¿es la capacidad de sentir, es la capacidad de pensar, es la capacidad de ser consciente, es simplemente la capacidad potencial de unas pocas células de convertirse, si todo va bien, en un humano completo?. Obsérvese que la respuesta a esta pregunta, si existe, no tiene ni que estar relacionada con el pensamiento o con la capacidad de comprender, como tú le exiges a la máquina, si te entiendo bien. El feto puede no pensar y no comprender nada, pero podemos (si llegamos a esa convicción) convenir que es humano. Hagamos otro experimento mental, si un día llegase a la Tierra un extraterrestre orgánico que se comportara como un humano ¿lo consideraríamos humano porque piensa y comprende (suponemos) como nosotros o lo rechazaríamos como humano? Podría darse el caso que se comportara como decía antes similar a un humano pero por medios totalmente distintos. O imaginemos un animal terrestre que evolucionara hacia algo parecido al pensamiento. Supongamos que es un pulpo (como decía aquel famoso spot) y que muestra inteligencia pero de manera totalmente distinta: se comunica por colores de la piel, parece mostrar poco interés por los discos de Rosalía, etc. ¿lo aceptaríamos como un ser digno de la protección que tenemos los humanos? En definitiva, sin extenderme más lo que intento recalcar obviamente es que lo que planteas no es un problema hacia la máquina, es un problema más general cuya resolución está pendiente, y es cuestión como diría Ortega, tal vez de “perspectiva”.

    ResponderEliminar
  16. Es indiscutible la complejidad del tema, no soy tan pretencioso como para sostener que tengo la verdad absoluta en cuanto a esto, por eso me gusta aportar información que voy recopilando por si a personas más formadas y con más capacidad que yo le ayudan a avanzar con el tema (si es que eso no esconde tal vez en si mismo la aspiración de ser pretencioso). Por eso me gustaría por un lado este canal y este vídeo en concreto sobre GPT 3:

    https://www.youtube.com/watch?v=_x9AwxfjxvE&t=278s

    Interesante lo que dice sobre la escalabilidad de la red neuronal que precisamente repercute en la “comprensión” que desarrolla el algoritmo.

    Y luego un blog que no he tenido tiempo de mirar más detenidamente pero que promete bastante:

    https://lacker.io/

    Un saludo y perdonad las “dimensiones” de los posts.

    ResponderEliminar
    Respuestas
    1. Por favor, Antonio, lee las normas para poner comentarios. Los comentarios no deben ser tan largos. Dejaré que Gonzalo conteste a estos tres comentarios tuyos, y daré por terminada la discusión. Si queréis continuar, sugiero que lo hagáis "offline".

      Eliminar
  17. Antonio, intento responder brevemente, y te sugiero que, si quieres, continuemos en Un instrumento universal para resolver problemas, o donde mejor te parezca.

    >> Sigo viendo una especie de sesgo hacia la máquina en el sentido de que le exiges más pruebas que a los propios humanos para demostrar ciertas cosas.

    Yo creo que todavía no me has entendido. No exijo más pruebas a las máquinas. Lo que digo es, más bien, que no hay ni puede haber pruebas empíricas de la inteligencia general que supuestamente tenemos los humanos. O sea, que el Test de Turing pide algo imposible, porque la inteligencia general no se puede verificar empíricamente: ni siquiera para los humanos. En la medida en que defines con precisión la prueba (requisito para hacerla de modo riguroso, repetible, etc.), allanas el camino para resolverla mecánicamente. Y en la misma medida dejas fuera de la prueba lo más importante: la capacidad, no de resolver problemas, sino de escogerlos.

    >> ¿Qué seguridad tenemos de que el sujeto (humano) que tenemos delante es un humano de verdad o es un ser impostor que simplemente simula comportarse como tal?

    Ninguna. En la medida en que tu prueba consiste en medir apariencias, no puedes afirmar nada que vaya más allá de las apariencias.

    >> Yo no digo que la clave de la humanidad esté en resolver problemas, digo que a la máquina se le pone a prueba viendo si los resuelve.

    Vale. Y si los resuelve, diré que es una máquina que resuelve los problemas para los que ha sido diseñada: control de calidad pasado. Es una máquina.

    >> A lo que estás apuntando es a la pregunta de qué hace humano a un humano... Obsérvese que la respuesta a esta pregunta, si existe, no tiene ni que estar relacionada con el pensamiento o con la capacidad de comprender, como tú le exiges a la máquina, si te entiendo bien.

    Que no, que yo no exijo a la máquina nada para que pueda ser humana. Que digo que no es humana simplemente porque es una máquina, es decir, fabricada para cumplir una determinada finalidad.

    No creo que haya una respuesta bien definida a la pregunta "qué nos hace humanos". Desde luego, ninguna respuesta cerrada de una vez para siempre y que pueda ser verificada empíricamente. Y esto no me quita el sueño, porque no considero que la verificación empírica sea la máxima aspiración de la racionalidad. Ser humano es algo que siempre escapará, desbordará, nuestros conceptos (que, esos sí, permiten comprobaciones rigurosas: qué entra y qué no entra en el concepto).

    Si un extraterrestre manifiesta comportamiento racional, probablemente no diré que es un "humano" si no pertenece a nuestra especie biológica, aunque sí diré que merece el mismo trato que los humanos, que es una "persona".

    >> lo que intento recalcar obviamente es que lo que planteas no es un problema hacia la máquina, es un problema más general cuya resolución está pendiente

    Conforme, y yo me atrevo a más: siempre quedará pendiente de resolver. Porque es una cuestión que excede al método científico, es meta-física. Y las nociones metafísicas no son verificables, ni pretenden serlo.

    ResponderEliminar