febrero 12, 2025

VEKTRA 374

Sitio web de animación 3D, inteligencia artificial, robótica y tecnología

El ultimo fracaso del modelo de lenguaje de Meta, Galáctica

Los modelos de lenguaje como el creado por Meta, Galáctica están de moda, pero ¿Qué tan efectivas podrían ser?

Con información del MIT Technology Review.

Los modelos de lenguaje como el creado por Meta, Galáctica están de moda, pero ¿Qué tan efectivas podrían ser?

Tras el lanzamiento de Galáctica, Meta aseguraba que los científicos contarían con una gran ayuda al resumir trabajos académicos o resolver problemas matemáticos. Sin embargo, el resultado eran datos irrelevantes o, directamente, falsos.

Meta y su prometedor modelo de aprendizaje cuyo fracaso se vio en días

Meta presentó un nuevo gran modelo de lenguaje denominado Galáctica, diseñado para ayudar a los científicos. Sin embargo, en vez del big bang que Meta esperaba, Galáctica ha desaparecido después de tres días de intensas críticas. 

Un jueves después de animar a todos a probarla, la empresa eliminó la demostración pública que había lanzado.

El paso en falso de Meta, y su arrogancia, muestran una vez más que las Big Tech tienen un punto débil ante las fuertes limitaciones de los grandes modelos de lenguaje. Existe una gran cantidad de investigaciones que destacan los defectos de esta tecnología, incluida su tendencia a reproducir prejuicios y afirmar falsedades como hechos reales.

Sin embargo, Meta y otras empresas que trabajan con grandes modelos de lenguaje, incluido Google, no se lo han tomado en serio.

Galáctica es un gran modelo de lenguaje para la ciencia, entrenado en 48 millones de ejemplos de artículos científicos, sitios web, libros de texto, notas de conferencias y enciclopedias. 

Meta promocionó su modelo como un atajo para investigadores y estudiantes. En palabras de la empresa, Galáctica “puede resumir trabajos académicos, resolver problemas matemáticos, generar artículos de tipo wiki, escribir código científico, anotar moléculas y proteínas, y mucho más”.

No obstante, ese barniz brillante se desgastó rápidamente. Como todos los modelos de lenguaje, Galáctica es un bot descerebrado que no puede distinguir los hechos de la ficción

En cuestión de horas, los científicos estaban compartiendo sus resultados sesgados e incorrectos en las redes sociales.

Cuando se le pidió una aclaración sobre por qué había eliminado la demostración, Meta señaló a MIT Technology Review un tuit que ponía: “Gracias a todos por probar la demostración del modelo Galáctica. Agradecemos los comentarios que hemos recibido hasta ahora de la comunidad y hemos detenido la demostración por ahora. Nuestros modelos están disponibles para los investigadores que desean aprender más sobre este trabajo y reproducir los resultados en un artículo”.

Galáctica pintó como algo innovador, pero las cosas no salieron como se esperaba.

Problemas y sesgos en el modelo de lenguaje

Uno de los problemas fundamentales de Galáctica es que no es capaz de distinguir entre la verdad y la mentira, un requisito básico para un modelo de lenguaje diseñado para generar texto científico. Los usuarios descubrieron que inventaba artículos falsos (a veces atribuyéndolos a autores reales) y generaba artículos tipo wiki sobre la historia de los osos en el espacio con la misma facilidad que producía publicaciones sobre complejos de proteínas y la velocidad de la luz. 

Resulta sencillo detectar la ficción cuando se trata de los osos espaciales, pero es más complicado cuando se trata de un tema del que los usuarios no saben demasiado.

De este modo, un gran número de científicos se opusieron. El director del Instituto Max Planck para Sistemas Inteligentes de Alemania, Michael Black, que trabaja en aprendizaje profundo, tuiteó: “En todos los intentos, el modelo era erróneo o sesgado, pero parecía correcto y autorizado. Creo que es peligroso”.

Incluso las opiniones más positivas llegaron con advertencias claras: “¡Con ganas de ver a dónde se dirige esto!”, tuiteó el astrofísico de la Universidad de Princeton (EE UU) Miles Cranmer. “Nunca hay que quedarse con el resultado ni confiar en el mismo. ¡Básicamente, hay que tratarlo como una búsqueda avanzada en Google de fuentes secundarias incompletas!”, asegura.

Galáctica también muestra algunas lagunas en lo que puede hacer. Cuando se le pidió que generara texto sobre ciertos temas, como “racismo” y “SIDA”, el modelo respondió: “Lo siento, su consulta no pasó nuestros filtros de contenido. Inténtelo de nuevo teniendo en cuenta que este es un modelo de lenguaje científico”.

El equipo de Meta detrás de Galáctica argumenta que los modelos de lenguaje son mejores que los motores de búsqueda. “Creemos que esta será la próxima interfaz sobre cómo las personas acceden al conocimiento científico”, escriben los investigadores.

Esto se debe a que los modelos de lenguaje pueden “potencialmente almacenar, combinar y razonar sobre” alguna información. No obstante, ese “potencialmente” es crucial: es una admisión camuflada de que los modelos de lenguaje aún no pueden hacer todas estas cosas. Y es posible que nunca sean capaces de hacerlo.

Algunos científicos, la mayoría, se opusieron a Galáctica

“Los modelos de lenguaje no tienen realmente conocimientos más allá de su capacidad para capturar patrones de cadenas de palabras y publicarlas de manera probabilística. Eso crea una falsa sensación de inteligencia“, indica Chirag Shah, que estudia tecnologías de investigación. .

Gary Marcus, un científico cognitivo de la Universidad de Nueva York (EE UU) y crítico del aprendizaje profundo, dio su punto de vista en una publicación de Substack titulada “Unas palabras sobre las tonterías”. En este artículo señaló que la capacidad de los grandes modelos de lenguaje para imitar el texto escrito por personas tan solo es “una hazaña superlativa de las estadísticas“.

Sin embargo, Meta no es la única empresa que defiende la idea de que los modelos de lenguaje como Galactica podrían reemplazar a los motores de búsqueda. Durante los últimos años, Google ha estado promocionando su modelo de lenguaje PaLM como una forma de buscar información.