Norbert Wiener |
En 1948, Norbert Wiener creó el término Cibernética para referirse a una nueva tecnología, que definió así:
Ciencia que estudia el control y la
comunicación en el animal y en la máquina
La Cibernética tiene mucho que
ver con la Robótica y con el uso de ordenadores y microprocesadores para controlar
y para comunicarse, es decir, casi todo lo que hacemos con ellos.
Pero de lo que se está hablando mucho ahora mismo, más que de Cibernética, es de Ciberética: de las cuestiones éticas relacionadas con el uso de ordenadores, redes sociales, y casi todas las demás herramientas que la tecnología moderna pone a nuestro alcance.
Como he dicho en artículos
anteriores, las herramientas no son buenas ni malas: lo que es bueno
o malo es el uso que hacemos de ellas. Y de esta afirmación se siguen dos
corolarios inmediatos: uno bastante preocupante; y otro que, si se lleva a
efecto, podría ayudar a paliar esa preocupación. Son estos:
1.
Cualquier
herramienta será mal utilizada
2.
Es obligación
nuestra tratar de impedir los malos usos de las herramientas
Es obvio que la Inteligencia
Artificial, incluso en la forma débil en que la poseemos ahora, es una
herramienta muy poderosa. Por lo tanto, de acuerdo con el corolario anterior,
su mal uso podría provocar grandes problemas y desgracias. Consideremos
algunos:
- Diseminación de información incompleta, tendenciosa
o simplemente falsa. Hemos visto
que herramientas como ChatGPT y sus sucesoras y competidoras hacen
precisamente esto. Al haber sido entrenadas con grandes cantidades de información
extraída de la Internet, dado que esta información es a menudo incompleta,
tendenciosa o falsa, esas características se trasladan automáticamente a
las contestaciones que dan a las preguntas que se les dirigen. En artículos
anteriores señalé que, actualmente, estas herramientas son útiles sobre
todo para las personas que saben ya la respuesta a sus preguntas, o sea,
para quienes no las necesitan. Quienes las necesitan no deberían fiarse de
las respuestas que reciben, porque están programadas para contestar algo, aunque
no encuentren la respuesta.
- Sustitución de trabajadores humanos por máquinas. Esto ha ocurrido desde el comienzo de la revolución industrial, hace
más de dos siglos, pero algunos piensan que ahora podría suceder de forma
masiva y dejar sin trabajo a millones de personas en muy poco tiempo. En un
artículo publicado en 2013, dos profesores de Oxford, Carl
Benedikt Frey y Michael Osborne, predijeron que el 47% de los empleos de Estados Unidos están en
peligro de ser sustituidos por robots antes de 2030. Aunque
al parecer, unos años después, los autores matizaron la predicción, este
temor ha crecido últimamente, como consecuencia del auge de las nuevas
herramientas de IA, alguna de las cuales ha llegado a desempeñar el papel
de asesor o miembro del consejo de administración de una empresa.
- Algunas aplicaciones de la inteligencia artificial aumentan los
riesgos que nos amenazan en la vida ordinaria. La investigación sobre la conducción automática de automóviles está
muy avanzada, pero los avances prácticos son lentos, más que por culpa de la
tecnología, porque falta legislación sobre los problemas que puede provocar
cuando se produzcan accidentes, que sin duda se producirán. Las armas autónomas, que cada vez se utilizan
más, aumentan los riesgos de unos conflictos bélicos que,
desgraciadamente, no han desaparecido. Y ya hace décadas que los algoritmos de gestión de carteras vienen provocando
efectos indeseables en las cotizaciones de la bolsa.
En cambio, los temores de que las
aplicaciones de AI lleguen a ser conscientes y tomen el control del mundo
carecen de fundamento. Lo primero quizá no sea posible, y en caso de serlo sería
a muy largo plazo. Lo segundo podría ocurrir, pero sólo si somos tan tontos
como para sustituir por herramientas informáticas a los seres humanos que ocupan
los puestos clave.
Sin embargo, como señala
el Future of Life Institute, las aplicaciones de inteligencia artificial, como los misiles atraídos por el
calor, no necesitan ser conscientes para perseguir sus objetivos. Esta
preocupación ha impulsado a este instituto a patrocinar una recogida
de firmas para pedir que se suspenda
durante seis meses la investigación en aplicaciones como ChapGPT, GPT4 y sus seguidores
y competidores, mientras se estudian las consecuencias éticas desfavorables que
puede provocar el uso inadecuado de estas herramientas. Esta
iniciativa ha recogido casi 30.000 firmas. Dudo de que esa pausa de seis
meses sirva para algo.
En paralelo con esta iniciativa,
el CAIDP (Centro de IA y Política Digital) ha
denunciado a OpenAI (empresa creadora de ChatGPT y GPT4) ante la Comisión
Federal de Comercio de los Estados Unidos (FTC), acusando a GPT4 de ser un
producto engañoso que representa un riesgo para la seguridad pública, y
solicitando la suspensión de sus versiones futuras.
Estas medidas quizá permitan aplazar
algún problema. Existe el precedente de la investigación en
manipulación genética, que también puede provocar peligros considerables,
algunos de los cuales aún nos amenazan. Ante cuestiones tan importantes no
conviene ser demasiado atrevidos. Es mejor pasarse de cautos.
En su famoso libro Cybernetics (1948, 1961) que dio nombre a la
disciplina, Norbert Wiener recomienda también la cautela. Y lo hace mencionando
un cuento de terror escrito a principios del siglo XX por el inglés W.W.
Jacobs: La
pata de mono. Tras resumir el cuento, termina con estas
palabras:
En estos cuentos la enseñanza
es que los agentes mágicos tienen mentalidad literal... Las máquinas que aprenden
también tienen mentalidad literal. Si programamos una máquina... y pedimos que
nos consiga la victoria, y la máquina no sabe lo que queremos decir con eso, podemos
encontrarnos con el fantasma llamando a nuestra puerta.
En una encuesta realizada en 2016 y 2022 por el proyecto AI Impacts entre más de 700
expertos en IA, los resultados obtenidos son los de la figura, obtenida de economist.com.
En seis años, las previsiones más bien optimistas de 2016 (45% buenas, 20% neutrales,
15% malas) se han vuelto claramente peores: 30% buenas, 15% neutrales, 15%
malas. Es curioso que el 20% que han perdido las previsiones buenas y neutrales
no se haya traspasado a las malas previsiones, sino (supongo) al “no sabe no
contesta”.
Pero quizá la cuestión sea más profunda. ¿Está alguien tratando de aprovechar los avances en IA para controlar mejor a los seres humanos? Porque, en el fondo, se trata de eso: no de que seamos (o no) controlados por las máquinas, sino de que unos seres humanos controlen mejor o peor a otros. Ese ha sido siempre (y sigue siendo) el objetivo de todos los dictadores. No debemos olvidar que en el mundo actual hay muchos más dictadores (en potencia o en acto) que los que todo el mundo conoce.
Por último, quisiera hacer referencia a un
artículo reciente sobre el tema de la ética de las máquinas, publicado por
Gonzalo Génova en su blog De máquinas e intenciones.
Hilo Temático sobre Inteligencia Natural y Artificial: Anterior Siguiente
Manuel Alfonseca
Dedicado a
José Amengual, que me sugirió este artículo
Muchas gracias, Manuel, por la referencia.
ResponderEliminarA lo que dices me gustaría añadir una consideración, y es que el esfuerzo por dotar a los ordenadores de "inteligencia" y "ética" conllevará una comprensión más profunda de nosotros mismos, los seres humanos: reflexionar sobre qué es realmente la inteligencia y reexaminar nuestras concepciones del bien y del mal.
De modo que un efecto positivo que se puede aprovechar (y potenciar) de estos desarrollos es justamente para luchar contra determinadas concepciones equivocadas de la ética. Por ejemplo, en los debates sobre la ética de la IA siempre sale el tema de los sesgos: "hay que evitar los sesgos" (y no necesito mencionar los sesgos que se suelen enumerar).
Entonces, podemos hacer que la gente se pregunte: ¿qué es un sesgo, y por qué hay que evitarlos? Y entonces podemos mostrar que no hay que evitar todos los sesgos, sino los que son injustos; lo que nos fuerza a replantearnos la pregunta ética básica: ¿qué es la justicia?
En segundo lugar, si sabemos que las mayorías suelen estar sesgadas, llenas de prejuicios (o eso es al menos lo que se dice una y otra vez), esto significa que somos capaces de reconocer la justicia más allá de lo que diga la mayoría.
De modo que, a mi modo de ver, la reflexión sobre la ciberética puede servir para luchar contra el relativismo moral imperante.
En efecto, las reflexiones sobre la ciberética (y sobre cualquier rama o aplicación de la ética) sirven para luchar contra el relativismo moral, que como todos los relativismos se apoya en una premisa contradictoria y conduce a conclusiones claramente irracionales. Pero como ese relativismo es dominante, la sociedad se vuelve ciega hacia la irracionalidad de esas conclusiones.
EliminarMuy interesante el artículo como siempre. Me surge una pregunta, Manuel. He leído varias veces en el blog que consideras factible -aunque improbable- que las máquinas adquieran conciencia, quizás en un futuro muy lejano. La pregunta que querría hacerte, como científico y católico, es si eso de alguna manera "rompería tus esquemas" o no. En mi caso sí lo haría, y quizás un problema mío, fruto de una fe, en ese punto, infantil, en la que me aferro a un "Dios de los agujeros" que explique eso inexplicable que es la conciencia. Pero lo cierto es que si todo lo que somos -incluyendo sentimientos, conciencia, libertad, etc.- se pudiera reducir a la materia, me resultaría más difícil mantener mi cosmovisión cristiana.
ResponderEliminar¿Y quién te ha dicho que, si hiciésemos máquinas inteligentes, eso demostraría que sólo somos materia? ¿Lo demuestra acaso que ahora ya construyamos nuevos seres inteligentes (nuestros hijos)?
EliminarSi Dios puede infundir un alma inmortal a cada ser cuya complejidad material le haga capaz de recibirla, lo que incluye a nuestros hijos y a cualquier otra especie inteligente en el cosmos, ¿por qué no podría infundírsela a una máquina suficientemente compleja? ¿Estás poniendo límites a lo que Dios puede hacer?
En cualquier caso, las máquinas actuales son totalmente incapaces de tener consciencia. Como suele decir Ramón López de Mántaras, director del Centro de Inteligencia Artificial de Barcelona, las máquinas conscientes tendrían que utilizar tecnologías totalmente diferentes de las actuales. Que sea posible o no, está por ver.
Para más detalles, véase el último capítulo de mi novela "Operación Quatuor".
Estoy de acuerdo con Manuel. La pregunta no es si un ente material puede ser inteligente y libre ("espiritual"), sino si un ente diseñado para un fin, y esclavo de ese fin, puede ser inteligente y libre.
EliminarComo digo a menudo, la materia y el espíritu no son cosas sino aspectos. Si entendemos materia y espíritu como sustancias independientes ("cosas") que de alguna manera se combinan e interactúan... acabamos en el callejón sin salida del dualismo cartesiano.
Muchas gracias por ambas respuestas. Son muy buenas. Creo que me falta algo de imaginación teológica. En todo caso, ¿qué papel jugaría el alma entonces? Supongo que no cabe imaginar un experimento para determinar su existencia ni sus efectos, pero en vuestra opinión, ¿qué implica desde el punto de vista de las experiencias subjetivas el tener un alma? Supongo que ya la pregunta en sí denota un cierto dualismo, pero es que no logro salir de él!
EliminarTodo el que piensa que el hombre es algo más que materia (lo llames "alma", "forma" o "componente espiritual" es dualista. Lo que Gonzalo rechaza no es el dualismo, sino el dualismo cartesiano, o sea, la afirmación de que el alma puede vivir sin cuerpo.
EliminarNo creo que el cristianismo exija creer que el alma sea capaz de vivir separada del cuerpo. Hablé de esto en otro artículo de este blog: El multiverso teológico.
Mil gracias por la puntualización. No quiero monopolizar más los comentarios con esta conversación que es algo off-topic, pero me encantaría leer (si tienes algo escrito) qué es para ti el alma.
EliminarLa pregunta tiene miga. ¿Qué es el alma? Para intentar definirla podríamos remontarnos a Aristóteles, Tomás de Aquino, y muchos otros filósofos. Pero como la pregunta es si yo tengo algo escrito sobre el alma, pondré aquí unas pocas referencias:
Eliminar1. En este blog: La física y el libre albedrío (ver también los comentarios). ¿Seremos capaces de construir seres conscientes?
En la revista Religión y Cultura (2003): La Cosmología, la otra vida y el argumento de la novela divina
Mil gracias. Me han sido verdaderamente interesantes esas lecturas (y otras más que estaban enlazadas en esas entradas). No sé cómo decirlo sin que quede cursi... pero la existencia de este blog me hace muy feliz.
EliminarMuchas gracias.
Eliminar>> Todo el que piensa que el hombre es algo más que materia (...) es dualista. Lo que Gonzalo rechaza no es el dualismo, sino el dualismo cartesiano, o sea, la afirmación de que el alma puede vivir sin cuerpo.
EliminarEs que tenemos un único adjetivo "dualista" para dos sustantivos: "dualismo" y "dualidad". En el sentido en que Manuel me aplica el adjetivo, lo acepto: dualidad material-espiritual, unidad de un único ser, cuerpo vivo, vida corporal, cuerpo espiritual, espíritu corporeizado. La dualidad que reconocemos intelectualmente responde a algo real (no es un invento), pero responde a dualidad de aspectos, no a dualismo de sustancias.
Dice Manuel, y dice bien, que «las herramientas no son buenas ni malas: lo que es bueno o malo es el uso que hacemos de ellas».
ResponderEliminarPero este mensaje, descontextualizado, tiene, a mi juicio, su lado oscuro.
1. Este es el contexto que falta: Las herramientas son el último eslabón del proceso industrial que comienza en los laboratorios. Y este proceso no es en modo alguno neutro; es el reflejo de los intereses y los valores de cada época. Y, en este sentido, la tecnología entendida como proceso (y no como herramienta o producto final) NO es neutra.
2. Y este es el lado oscuro: el mensaje así descontextualizado constituye uno de los argumentos preferidos del Capital para justificar la (inadmisible) preeminencia de los (legítimos) intereses económicos sobre la (irrenunciable) dignidad humana.
Felipe, me parecen muy atinadas tus observaciones.
EliminarMuchas gracias, Gonzalo.
EliminarA mí también me parece muy pertinente esa matización sobre la afirmación de que «las herramientas no son buenas ni malas: lo que es bueno o malo es el uso que hacemos de ellas». Y diría algo más: no sólo hay una no-neutralidad debido a los intereses y valores de los creadores de las herramientas, sino que la propia tecnología, en sí misma y por su poder transformador, conlleva una no-neutralidad.
EliminarMe explico. Desde una visión naif, se puede pensar que los avances tecnológicos son intrínsecamente positivos, porque sólo aumentan nuestras posibilidades de actuación. Pero si consideramos el sistema en su conjunto, la sociedad industrial, es fácil ver que esto no es así y que a menudo se produce lo contrario, una esclavización.
Por ejemplo, el invento del coche. En sus inicios, claro que aumentó la libertad y las posibilidades del hombre. Pero conforme su uso se extendió, ocurrió que toda la sociedad (la configuración de las ciudades, los puestos de trabajo) se adaptó de tal manera al coche que éste dejó de ser una opción libre para casi todo el mundo.
Otras veces, la tecnología nos transforma directamente a nosotros mismos: véase cómo el uso de los móviles reconfigura nuestros circuitos cerebrales y nos hace más impacientes, menos reflexivos, cambia nuestro modo de relacionarnos entre sí, etc.
Por cierto, ese ejemplo del coche, y la idea en general, está sacado del manifiesto del terrorista Unabomber. Una lectura que en su día me pareció muy interesante. El diagnóstico de nuestra sociedad me pareció brillante en muchos puntos, aunque, lógicamente, a mitad del texto la cosa empieza a desbarrar, y uno se horroriza ante las soluciones propuestas.
EliminarIsaac Asimov dijo algo parecido, en su artículo sobre las tres leyes de la futúrica: Lo importante no es predecir el invento del coche, sino el problema del aparcamiento.
EliminarHablé de esto en este artículo: Las reglas de oro de la ciencia-ficción y mi propia obra
Es cierto, está muy relacionado. Muy interesante, voy a comenzar a leer tus libros (aunque iré a un ritmo muy lento, porque mi situación personal, con tres niños pequeños, me deja un tiempo libre escasísimo).
Eliminares que el tema de unir el alma o conciencia a la neurociencia y que alomejor pueda transcender al cerebro es bien complejo y un misterio lo que pasa es que hoy en dia el naturalismo es lo que predomina eso de que solo somos una especie mas esta muy de moda
ResponderEliminarSobre eso escribí un artículo aquí: ¿Es el hombre un animal más?, que es el artículo más leído del blog: más de 50.000 visitas.
EliminarY hace unos meses salio esta noticia https://www.elconfidencial.com/alma-corazon-vida/2019-02-19/por-que-tienes-miedo-morir-razon-cientifica_1834846/ los neurologos acachan lo espiritual , alma y mas alla a errores de percepcion del cerebro que nos hace creer que tenemos alma o que hay vida despues de esta
ResponderEliminarEsa es la interpretación típica de un materialista. Filosofía, no ciencia.
EliminarOtra cosa no entiendo ese interes de conseguir inteligencia artificial autoconciente. Para que querer decidir que hacer si puede desobecer las tareas que se les indique? Ni tiene sentido pretender lograr que unos robots tengan conciencia y puedan pasar un kilo de cumplir las tareas a ordenar. Le ordeno a un robot que coloque unos pales en unos?almacenes y me dice que lo haga yo que esta cansado y no le da la gana de estar cargando pales...
ResponderEliminarNo está mal este argumento, Bruno. :-)
EliminarHace poso leí un artículo en el que planteaban que si la IA fuese más inteligente que nosotros, disimularía y no podríamos darnos cuenta. Buena idea para escribir una novela de ciencia-ficción. Si la escribes, Manuel, la leo...
ResponderEliminarGracias por la sugerencia. Tomo nota.
Eliminar