jueves, 26 de febrero de 2026

El uso de las herramientas de “IA”

The same post in English

La tercera acepción del artículo de la Real Academia de la lengua para la palabra herramienta dice esto:

Instrumento que sirve para hacer algo o conseguir un fin.

Desde el origen del género Homo, los seres humanos hemos utilizado herramientas, que aparte de los esqueletos o piezas óseas fosilizadas constituyen una de las fuentes principales de información sobre nuestros antepasados. Los cantos tallados monofaciales y bifaciales hoy nos parecen muy primitivos, pero durante la prehistoria de la humanidad desempeñaron el papel de armas y herramientas y seguramente nos ayudaron a sobrevivir.

La tecnología informática, que se ha desarrollado mucho durante el último siglo, nos ha proporcionado numerosas herramientas muy útiles. A lo largo del siglo XXI, esas herramientas se han vuelto cada vez más “inteligentes”, abordando tareas que hasta muy recientemente sólo podían realizar los seres humanos. Pero al utilizarlas deberíamos tener en cuenta algunas ideas muy generales, que siempre se deberían aplicar, pero no siempre se aplican:

·         Una herramienta puede emplearse para hacer el bien o para hacer el mal. Nótese que la definición de la RAE habla de un fin, pero no especifica si ese fin es bueno o malo. En la práctica, puede ser una cosa o la otra, y la ética es la rama de la filosofía que debe aplicarse para decidirlo. Por ejemplo, un escalpelo puede salvar una vida, ayudando a un cirujano a extirpar un tumor maligno, pero también puede servirle a un asesino para matar a su víctima.

·         Una herramienta puede cumplir con su papel (estar bien hecha) o hacer cosas que no estaban previstas (estar mal hecha). Por ejemplo, una vía ferroviaria puede estar deteriorada o mal construida y provocar un accidente. Un LLM (herramienta de “IA” que está de moda) puede aconsejar a un adolescente deprimido que acabe con su vida y explicarle cómo puede hacerlo.

·         Un sistema de traducción automática (otra herramienta de moda) puede generar una traducción correcta, o incorrecta. Como expliqué en otro artículo, la traducción automática es una herramienta muy útil para el traductor humano, porque multiplica por cinco o por diez su productividad, pero este problema es tan complejo, que siempre (¡¡siempre!!) se le escapa algún error sintáctico o semántico, por lo que es preciso repasar con cuidado la traducción ofrecida. Yo siempre repaso al menos dos veces esas traducciones, y en todos los casos suelo encontrar cosas que corregir.

·         Es preciso contrastar los resultados del uso de los buscadores y los LLM (Large Language Models) para resolver cuestiones. En ambos casos se parte de información presente en Internet para generar esos resultados. El problema es que dicha información ha sido introducida por seres humanos o generada por programas, y puede ser correcta o incorrecta. Nada nos asegura que toda la información que contiene Internet sea veraz (más bien lo contrario). Además, los algoritmos que utilizan los LLM, que generan una palabra entre las que suelen suceder al texto generado hasta ahora, no tienen en cuenta el criterio de la verdad, por lo que los textos que generan pueden ser erróneos, y a menudo lo son (ahora los llaman alucinaciones). Con buen criterio, el buscador de Google avisa de esto cuando se utilizan estas herramientas.

Lo malo es que los seres humanos somos bastante tontos, como señaló en 2014  Evan Ackerman hablando de la prueba de Turing. Últimamente, con el auge de los LLM y otras herramientas de “IA”, como generadores de imágenes, esto ha quedado bastante claro:

·         Muchos estudiantes piden a un LLM que les resuelva los problemas, o les construya el código que se les ha asignado como trabajo de curso en una asignatura. A menudo presentan el trabajo sin leerlo, y en el caso de la generación de programas, sin compilarlo ni probarlo, sin duda arrastrados por los muchos artículos que se están publicando, en los que se da por muerta la profesión de programador de ordenadores, que según ellos va a ser sustituida por los generadores automáticos de código. Algunos estudios ponen esto en duda.

·         Algún periodista pidió a un LLM que le escribiera un artículo, y lo publicó sin molestarse en leerlo. En consecuencia, el artículo apareció con un párrafo final que le delataba, porque decía más o menos esto: ¿Quieres que te responda a alguna otra pregunta? Muchos LLM añaden este párrafo al final de una respuesta. Y a un juez argentino le anularon una sentencia por un motivo semejante.

Los artículos de divulgación científica que publica Madri+d todos los días laborables suelen venir acompañados de una imagen relacionada. En un artículo reciente publicado el 19/1/2026, el título era este:

Los grandes dinosaurios y los mamuts eran más lentos de lo que se pensaba

Pero la imagen que acompañaba al artículo, que he colocado al principio de este artículo, delataba haber sido generada por un programa de ordenador, porque la figura que representaba al mamut parecía un bóvido gigante con patas de elefante y dos colmillos en lugar de cuernos. ¿Es posible que quien generó esta imagen no se diera cuenta del dislate? Al parecer sí es posible, puesto que la publicaron.

Hilo Temático sobre Inteligencia Natural y Artificial: Anterior Siguiente

Manuel Alfonseca

No hay comentarios:

Publicar un comentario

NORMAS PARA PONER COMENTARIOS:

1. Estos comentarios están moderados para evitar la publicación de comentarios insultantes o irrelevantes. Los que no cumplan estas normas no serán publicados.

2. Los comentarios deben tener algo que ver con el tema del artículo al que se asocian.

3. También son aceptables comentarios del tipo: "Por favor, considere la posibilidad de publicar un artículo sobre tal tema".

4. No son aceptables comentarios que digan: "¿Qué opina de este artículo?", seguidos de un enlace. Este blog no es un consultorio. No tengo tiempo para leer tantos artículos. Además, ya he contestado a la mayor parte de las preguntas que se me hacen, ya sea en artículos o en comentarios anteriores. Utilicen la búsqueda en el blog para localizarlos.

5. No ponga Anónimo o Unknown como firma del comentario. Ponga cualquier nombre, o al menos diga dentro del texto de quién se trata (no tiene que ser su nombre y apellidos). Si todos pusieran Anónimo o Unknown, no sabría si estoy hablando con una persona o con varias.

6. Sea lo más conciso que le sea posible. Los comentarios no deben competir en longitud con el artículo.

Aunque este blog está preferentemente dirigido a la divulgación de la ciencia, es inevitable que mis ideas influyan en mis artículos. Si a algún lector le molestan mis ideas hasta el punto de no poder mantener la calma, le recomiendo que deje de leerme. Pero si se empeña en discutirlas, exijo respeto, y que se evite la falacia ad hominem. De lo contrario, el comentario no será publicado.