La tercera acepción del artículo de la Real
Academia de la lengua para la palabra herramienta dice esto:
Instrumento que sirve para hacer algo o conseguir un fin.
Desde el origen del género Homo, los seres humanos hemos
utilizado herramientas, que aparte de los esqueletos o piezas óseas fosilizadas
constituyen una de las fuentes principales de información sobre nuestros
antepasados. Los cantos tallados monofaciales y bifaciales hoy nos parecen muy
primitivos, pero durante la prehistoria de la humanidad desempeñaron el papel
de armas y herramientas y seguramente nos ayudaron a sobrevivir.
La tecnología informática, que se ha desarrollado mucho durante el último siglo, nos ha proporcionado numerosas herramientas muy útiles. A lo largo del siglo XXI, esas herramientas se han vuelto cada vez más “inteligentes”, abordando tareas que hasta muy recientemente sólo podían realizar los seres humanos. Pero al utilizarlas deberíamos tener en cuenta algunas ideas muy generales, que siempre se deberían aplicar, pero no siempre se aplican:
·
Una herramienta puede emplearse para hacer
el bien o para hacer el mal. Nótese que la definición de la RAE habla de un
fin, pero no especifica si ese fin es bueno o malo. En la práctica, puede ser
una cosa o la otra, y la ética es la rama de la filosofía que debe aplicarse para
decidirlo. Por ejemplo, un escalpelo puede salvar una vida, ayudando a un
cirujano a extirpar un tumor maligno, pero también puede servirle a un asesino
para matar a su víctima.
·
Una herramienta puede cumplir con su papel (estar bien hecha) o
hacer cosas que no estaban previstas (estar mal hecha). Por ejemplo, una vía
ferroviaria puede estar deteriorada o mal construida y provocar un accidente.
Un LLM (herramienta de “IA” que está de moda) puede aconsejar a un adolescente
deprimido que acabe con su vida y explicarle cómo puede hacerlo.
·
Un sistema de traducción automática (otra herramienta de moda) puede generar una traducción correcta, o incorrecta. Como expliqué en otro
artículo, la traducción
automática es una herramienta muy útil para el traductor humano, porque
multiplica por cinco o por diez su productividad, pero este problema es tan
complejo, que siempre (¡¡siempre!!) se le escapa algún error sintáctico o
semántico, por lo que es preciso repasar con cuidado la traducción ofrecida. Yo
siempre repaso al menos dos veces esas traducciones, y en todos los casos suelo
encontrar cosas que corregir.
·
Es preciso contrastar los resultados del
uso de los buscadores y los LLM (Large Language Models) para
resolver cuestiones. En ambos casos se parte de información presente en Internet para
generar esos resultados. El problema es que dicha información ha sido
introducida por seres humanos o generada por programas, y puede ser correcta o
incorrecta. Nada nos asegura que toda la información que contiene Internet sea
veraz (más bien lo contrario). Además, los algoritmos que utilizan los LLM, que
generan una palabra entre las que suelen suceder al texto generado hasta ahora,
no tienen en cuenta el criterio de la verdad, por lo que los textos que generan
pueden ser erróneos, y a menudo lo son (ahora los llaman alucinaciones). Con buen criterio, el
buscador de Google avisa de esto cuando se utilizan estas herramientas.
Lo malo es que los seres humanos somos bastante tontos, como señaló en 2014 Evan Ackerman hablando de la
prueba de Turing. Últimamente, con el auge de los LLM y otras herramientas
de “IA”, como generadores de imágenes, esto ha quedado bastante claro:
·
Muchos estudiantes piden a un LLM que les resuelva los problemas, o les
construya el código que se les ha asignado como trabajo de curso en una
asignatura. A menudo presentan el trabajo sin leerlo, y en el caso de la
generación de programas, sin compilarlo ni probarlo, sin duda arrastrados por
los muchos artículos que se están publicando, en los que se da por muerta la
profesión de programador de ordenadores, que según ellos va a ser sustituida
por los generadores automáticos de código. Algunos
estudios ponen esto en duda.
·
Algún periodista pidió a un LLM que le escribiera un artículo, y lo publicó
sin molestarse en leerlo. En consecuencia, el artículo apareció con un párrafo
final que le delataba, porque decía más o menos esto: ¿Quieres
que te responda a alguna otra pregunta? Muchos LLM añaden este
párrafo al final de una respuesta.
Los artículos de divulgación científica que publica
Madri+d todos los días laborables suelen venir acompañados de una imagen
relacionada. En un
artículo reciente publicado el 19/1/2026, el título era este:
Los
grandes dinosaurios y los mamuts eran más lentos de lo que se pensaba
Pero la
imagen que acompañaba al artículo, que he colocado al principio de este
artículo, delataba haber sido generada por un programa de ordenador, porque la
figura que representaba al mamut parecía un bóvido gigante con patas de
elefante y dos colmillos en lugar de cuernos. ¿Es posible que quien generó esta
imagen no se diera cuenta del dislate? Al parecer sí es posible, puesto que la
publicaron.
Hilo Temático sobre Inteligencia Natural y Artificial: Anterior Siguiente
Manuel Alfonseca

No hay comentarios:
Publicar un comentario
NORMAS PARA PONER COMENTARIOS:
1. Estos comentarios están moderados para evitar la publicación de comentarios insultantes o irrelevantes. Los que no cumplan estas normas no serán publicados.
2. Los comentarios deben tener algo que ver con el tema del artículo al que se asocian.
3. También son aceptables comentarios del tipo: "Por favor, considere la posibilidad de publicar un artículo sobre tal tema".
4. No son aceptables comentarios que digan: "¿Qué opina de este artículo?", seguidos de un enlace. Este blog no es un consultorio. No tengo tiempo para leer tantos artículos. Además, ya he contestado a la mayor parte de las preguntas que se me hacen, ya sea en artículos o en comentarios anteriores. Utilicen la búsqueda en el blog para localizarlos.
5. No ponga Anónimo o Unknown como firma del comentario. Ponga cualquier nombre, o al menos diga dentro del texto de quién se trata (no tiene que ser su nombre y apellidos). Si todos pusieran Anónimo o Unknown, no sabría si estoy hablando con una persona o con varias.
6. Sea lo más conciso que le sea posible. Los comentarios no deben competir en longitud con el artículo.
Aunque este blog está preferentemente dirigido a la divulgación de la ciencia, es inevitable que mis ideas influyan en mis artículos. Si a algún lector le molestan mis ideas hasta el punto de no poder mantener la calma, le recomiendo que deje de leerme. Pero si se empeña en discutirlas, exijo respeto, y que se evite la falacia ad hominem. De lo contrario, el comentario no será publicado.