La tercera acepción del artículo de la Real
Academia de la lengua para la palabra herramienta dice esto:
Instrumento que sirve para hacer algo o conseguir un fin.
Desde el origen del género Homo, los seres humanos hemos
utilizado herramientas, que aparte de los esqueletos o piezas óseas fosilizadas
constituyen una de las fuentes principales de información sobre nuestros
antepasados. Los cantos tallados monofaciales y bifaciales hoy nos parecen muy
primitivos, pero durante la prehistoria de la humanidad desempeñaron el papel
de armas y herramientas y seguramente nos ayudaron a sobrevivir.
La tecnología informática, que se ha desarrollado mucho durante el último siglo, nos ha proporcionado numerosas herramientas muy útiles. A lo largo del siglo XXI, esas herramientas se han vuelto cada vez más “inteligentes”, abordando tareas que hasta muy recientemente sólo podían realizar los seres humanos. Pero al utilizarlas deberíamos tener en cuenta algunas ideas muy generales, que siempre se deberían aplicar, pero no siempre se aplican:
·
Una herramienta puede emplearse para hacer
el bien o para hacer el mal. Nótese que la definición de la RAE habla de un
fin, pero no especifica si ese fin es bueno o malo. En la práctica, puede ser
una cosa o la otra, y la ética es la rama de la filosofía que debe aplicarse para
decidirlo. Por ejemplo, un escalpelo puede salvar una vida, ayudando a un
cirujano a extirpar un tumor maligno, pero también puede servirle a un asesino
para matar a su víctima.
·
Una herramienta puede cumplir con su papel (estar bien hecha) o
hacer cosas que no estaban previstas (estar mal hecha). Por ejemplo, una vía
ferroviaria puede estar deteriorada o mal construida y provocar un accidente.
Un LLM (herramienta de “IA” que está de moda) puede aconsejar a un adolescente
deprimido que acabe con su vida y explicarle cómo puede hacerlo.
·
Un sistema de traducción automática (otra herramienta de moda) puede generar una traducción correcta, o incorrecta. Como expliqué en otro
artículo, la traducción
automática es una herramienta muy útil para el traductor humano, porque
multiplica por cinco o por diez su productividad, pero este problema es tan
complejo, que siempre (¡¡siempre!!) se le escapa algún error sintáctico o
semántico, por lo que es preciso repasar con cuidado la traducción ofrecida. Yo
siempre repaso al menos dos veces esas traducciones, y en todos los casos suelo
encontrar cosas que corregir.
·
Es preciso contrastar los resultados del
uso de los buscadores y los LLM (Large Language Models) para
resolver cuestiones. En ambos casos se parte de información presente en Internet para
generar esos resultados. El problema es que dicha información ha sido
introducida por seres humanos o generada por programas, y puede ser correcta o
incorrecta. Nada nos asegura que toda la información que contiene Internet sea
veraz (más bien lo contrario). Además, los algoritmos que utilizan los LLM, que
generan una palabra entre las que suelen suceder al texto generado hasta ahora,
no tienen en cuenta el criterio de la verdad, por lo que los textos que generan
pueden ser erróneos, y a menudo lo son (ahora los llaman alucinaciones). Con buen criterio, el
buscador de Google avisa de esto cuando se utilizan estas herramientas.
Lo malo es que los seres humanos somos bastante tontos, como señaló en 2014 Evan Ackerman hablando de la
prueba de Turing. Últimamente, con el auge de los LLM y otras herramientas
de “IA”, como generadores de imágenes, esto ha quedado bastante claro:
·
Muchos estudiantes piden a un LLM que les resuelva los problemas, o les
construya el código que se les ha asignado como trabajo de curso en una
asignatura. A menudo presentan el trabajo sin leerlo, y en el caso de la
generación de programas, sin compilarlo ni probarlo, sin duda arrastrados por
los muchos artículos que se están publicando, en los que se da por muerta la
profesión de programador de ordenadores, que según ellos va a ser sustituida
por los generadores automáticos de código. Algunos
estudios ponen esto en duda.
·
Algún periodista pidió a un LLM que le escribiera un artículo, y lo publicó
sin molestarse en leerlo. En consecuencia, el artículo apareció con un párrafo
final que le delataba, porque decía más o menos esto: ¿Quieres
que te responda a alguna otra pregunta? Muchos LLM añaden este
párrafo al final de una respuesta.
Los artículos de divulgación científica que publica
Madri+d todos los días laborables suelen venir acompañados de una imagen
relacionada. En un
artículo reciente publicado el 19/1/2026, el título era este:
Los
grandes dinosaurios y los mamuts eran más lentos de lo que se pensaba
Pero la
imagen que acompañaba al artículo, que he colocado al principio de este
artículo, delataba haber sido generada por un programa de ordenador, porque la
figura que representaba al mamut parecía un bóvido gigante con patas de
elefante y dos colmillos en lugar de cuernos. ¿Es posible que quien generó esta
imagen no se diera cuenta del dislate? Al parecer sí es posible, puesto que la
publicaron.
Hilo Temático sobre Inteligencia Natural y Artificial: Anterior Siguiente
Manuel Alfonseca

Recomiendo este breve artículo de Enrique Dans, de hace apenas cuatro días:
ResponderEliminarCuando 250 textos bastan para hackear la «verdad» de un LLM
https://www.enriquedans.com/2026/02/cuando-250-textos-bastan-para-hackear-la-verdad-de-un-llm.html
"¿Qué preguntas no sabemos hacer?": la ventaja humana ante la IA, según Elon Musk https://share.google/KlwFqJ4ZoOqC3Gsyd
ResponderEliminarCuánta razón Manuel, no debemos perder la capacidad de pensar, analizar y contrastar. Usemos las herramientas para ayudar, no para sustituir. Un abrazo
ResponderEliminarYo utilizo las herramientas modernas basadas en LLM del mismo modo que he venido utilizando los traductores automáticos, para ayudarme en mi trabajo, y no he tenido nunca la sensación de estar hablando con nadie, como dicen algunos ingenuos.
Eliminar