Microsoft ha presentado Correction, una herramienta diseñada para detectar y corregir errores en el contenido generado por IA.
Según la compañía, esta función revisa automáticamente el texto que pueda ser incorrecto, cotejándolo con fuentes verificadas, como transcripciones.
Correction, disponible como parte de la API de seguridad de contenido de IA de Azure, está en versión preliminar y puede ser utilizada con modelos de lenguaje como Llama de Meta y GPT-4 de OpenAI.
Microsoft espera que esta herramienta sea particularmente útil en campos donde la precisión es fundamental, como la medicina, donde los errores pueden tener graves consecuencias.
Una solución que no aborda la raíz del problema
Los expertos se muestran escépticos ante la capacidad de Correction para resolver el problema de las alucinaciones de las IA.
Según Os Keyes, candidato a doctorado en la Universidad de Washington que estudia el impacto ético de la tecnología emergente, las alucinaciones son una característica inherente del funcionamiento de estos sistemas, que no “saben” nada, sino que predicen respuestas basadas en patrones identificados en grandes volúmenes de datos.
Microsoft intenta corregir estas alucinaciones con metamodelos que verifican y ajustan el contenido, pero esto podría no ser suficiente para erradicar los errores de manera definitiva.
Cautela ante una sensación de falsa seguridad
El investigador Mike Cook, de la Queen Mary University, considera que, aunque Correction pueda mejorar la precisión del contenido generado por IA, también podría inducir a los usuarios a confiar demasiado en los resultados.
Incluso si se logra corregir el 99% de los errores, el 1% restante sigue representando un riesgo considerable, especialmente en situaciones críticas.
Por lo tanto, Cook menciona un interés comercial detrás de Correction, ya que Microsoft limita el uso gratuito de la función, con un costo adicional después de los primeros 5.000 registros de texto mensuales.
Así, aunque la herramienta podría ayudar a reducir errores, no elimina por completo las preocupaciones en torno a la confiabilidad y los riesgos de las IA generativas, que aún deben ser manejados con precaución.
Con información de TechCrunch.
More Stories
3DTopia-XL: Escalamiento de activos 3D con difusión primitiva
Inteligencia artificial en el juego en equipo: MARLadona
El Proyecto Astra de Google se retrasa hasta 2025