Proyectos científicos de perogrullo

The same post in English

La investigación científica se ha convertido en una carrera contra el reloj. Los investigadores se ven obligados a publicar cuanto más mejor en ciertas revistas, porque su sueldo depende de ello. Otra de sus obligaciones es proponer proyectos de investigación que reciban financiación oficial, de la que dependerá su capacidad de contratar becarios y financiar doctorandos, y la posibilidad de realizar viajes y pagar inscripciones a congresos donde presentarán el estado de sus investigaciones.

El problema es que algunos investigadores carecen de la imaginación suficiente para diseñar y proponer proyectos de investigación nuevos. ¿Cuál es la consecuencia? Que a menudo plantean problemas cuya solución todo el mundo conoce, y diseñan un plan de investigación para demostrarlo estadísticamente o de otra manera que parezca científica. Si el diseño es suficientemente astuto, las entidades oficiales que conceden proyectos se sentirán inclinadas a financiarlo. Por otra parte, al hacer esto, los investigadores apuestan sobre seguro, pues saben cuál va a ser el resultado de sus investigaciones antes de realizarlas.

Veamos algunos ejemplos recientes de observaciones de Perogrullo demostradas por un proyecto de investigación:

¿Hacía falta realizar estas investigaciones, probablemente gastando dinero público, para descubrir algo que todo el mundo sabe?

Y aparte de los proyectos de Perogrullo, otras investigaciones permiten descubrir cosas que a nadie le importan. Por ejemplo, esta:

¿Alguien sabe qué aplicación práctica puede tener este resultado?

Y yo me pregunto: ¿tanta es la escasez de noticias científicas como es debido que revistas serias como Science News tienen que recurrir a noticias de Perogrullo y a noticias sin interés?

Hilo Temático sobre Ciencia en General: Anterior Siguiente

Manuel Alfonseca

Dedicado a Daniel Ciuperca

Este artículo se publicó en La Nueva Razón el 3/3/2023 

11 comentarios:

  1. Todo esto tiene que ver con la ilusión del control aplicada a la producción científica. El mismo uso de la expresión "producción científica" ya denota una comprensión viciada de la ciencia como proceso industrial.

    Como hay científicos vagos, caraduras, fradulentos (que sin duda los hay, como en cualquier ámbito de actividad humana) vamos a aplicar mecanismos de control (siempre mecanismos, casi nunca fomento de una verdadera ética profesional) para asegurar que los fondos van destinados al lugar y personas correctos.

    No todo es malo en este sistema. Tiene aspectos buenos, pero el peligro es pensar que basta con eso, con regulaciones, con mecanismos, con medidas de la productividad. Como ya escribí hace tiempo en La burbuja de publicaciones científicas:

    El problema está en empeñarse en medir la productividad científica, y retroalimentar el sistema con esas mediciones. Que es justamente lo que enuncia la Ley de Goodhart: cuando una métrica de evaluación se convierte en objetivo, deja de ser una buena métrica.

    ResponderEliminar
  2. Bueno, en mi departamento alguien (ahora en el CSIC) presentó los resultados de un experimento basado en teoría de juegos que vendría a demostrar que la envidia existe...

    ResponderEliminar
    Respuestas
    1. En ese caso concreto quizá estaba justificado, porque B.F. Skinner y los conductistas radicales sostenían que la envidia es sólo el resultado del adiestramiento, y que si a los niños no se les adiestrara como se hace no se les ocurriría tener envidia. Hablé de esto en otro artículo: Conducta frente a conductismo: tabula rasa e ideología de género

      Eliminar
  3. Microsoft lo tiene claro y en un último informe habla de que su IA, GPT-4, es una forma temprana de inteligencia artificial general (AGI).

    Tras el lanzamiento del nuevo modelo de lenguaje de OpenAI, GPT-4, que potenciará las habilidades de ChatGPT, un equipo de científicos de inteligencia artificial de Microsoft ha publicado un artículo de investigación que afirma que el modelo, que ya impulsa la IA de Bing, muestra rasgos de inteligencia a nivel humano o inteligencia artificial general (AGI).

    Acaba de salir esta noticia

    ResponderEliminar
    Respuestas
    1. Esta es la noticia que menciona Bruno:
      https://computerhoy.com/investigadores-microsoft-afirman-ultima-version-chatgpt-muestra-indicios-inteligencia-humana-1221122

      ¿No ve que es gente de Microsoft la que dice eso? ¿No vio algo parecido en Google hace poco tiempo? Todo esto que dicen son bobadas. Los algoritmos de GPT-4 son los mismos que los de ChatGPT, aunque la red neuronal es más grande y la han entrenado con más datos.

      En los años 70 hubo mucha gente que se creyó que Eliza "mostraba signos de inteligencia humana". Parece que no hemos aprendido desde entonces.

      Eliminar
    2. Por lo visto van a sacar el gpt5 o chatgpt5. Que es el que dicen que tendra inteligencia artificial general

      Eliminar
    3. Una noticia de ayer dice que OPENAI va a suspender nuevos anuncios porque le han denunciado ante la Comisión Federal de Comercio:
      https://hipertextual.com/2023/03/chatgpt-enfrenta-queja-ftc-amenaza-futuras-versiones

      En cualquier caso, la "inteligencia general" no depende sólo de la cantidad de datos de que se dispone, que es lo único que cambia en las nuevas versiones de GPT. Los algoritmos siguen siendo los mismos. Ni yo, ni muchos expertos en IA, creemos que esos algoritmos sean suficientes para alcanzar una inteligencia comparable a la humana.

      Eliminar
  4. Eso depende de lo que llamemos humano si tenemos una dimension espiritual no se podria hacer una inteligencia artificial general

    ResponderEliminar