Grandes empresas tecnológicas han estado reduciendo personal de los equipos dedicados a evaluar cuestiones éticas en torno a la implementación de IA, lo que ha generado preocupaciones sobre su seguridad a medida que se adopta ampliamente en productos para consumidores.
Microsoft, Meta, Google, Amazon y Twitter se encuentran entre las compañías que han recortado miembros de sus equipos de “IA responsable”, quienes asesoran sobre la seguridad de los productos de consumo que utilizan inteligencia artificial.
La cantidad de personal afectado sigue siendo de decenas y representa una pequeña fracción de los miles de trabajadores cuyos empleos fueron recortados en respuesta a una caída generalizada de la industria.
Las empresas tecnológicas comentan que seguirán comprometidas con el lanzamiento de productos de IA seguros.
Pero los expertos señalaron que los recortes son preocupantes, ya que se están descubriendo posibles abusos de la tecnología justo cuando millones de personas comienzan a experimentar con herramientas de IA.
Su preocupación ha crecido tras el éxito del chatbot ChatGPT lanzado por OpenAI respaldado por Microsoft, que llevó a otros grupos tecnológicos a lanzar rivales como Bard de Google y Claude de Anthropic.
“Es impactante cuántos miembros de la IA responsable están siendo despedidos en un momento en que, se podría argumentar, necesitas más de esos equipos que nunca”, dijo Andrew Strait, exinvestigador de políticas y ética en DeepMind propiedad de Alphabet y director asociado del Instituto de Investigación Ada Lovelace.
Las empresas tecnológicas comienzan a reducir su personal de ética en IA
Microsoft disolvió todo su equipo de ética y sociedad en enero, que lideraba el trabajo inicial de la compañía en el área.
El gigante tecnológico dijo que los recortes sumaban menos de 10 roles y que Microsoft todavía tenía cientos de personas trabajando en su oficina de IA responsable.
Twitter ha reducido más de la mitad de su personal bajo su nuevo propietario multimillonario Elon Musk, incluido su pequeño equipo de IA ética.
Su trabajo pasado incluyó corregir un sesgo en el algoritmo de Twitter, que parecía favorecer a las caras blancas al elegir cómo recortar imágenes en la red social.
Twitch, la plataforma de transmisión propiedad de Amazon, redujo su equipo de IA ética la semana pasada, haciendo que todos los equipos que trabajan en productos de IA sean responsables de problemas relacionados con el sesgo, según una persona familiarizada con el movimiento.
En septiembre, Meta disolvió su equipo de innovación responsable de unos 20 ingenieros y éticos encargados de evaluar los derechos civiles y la ética en Instagram y Facebook. Ni Meta, ni Twitch ni Twitter respondieron a solicitudes de comentarios.
Otra preocupación es que los grandes modelos de lenguaje, que sustentan chatbots como ChatGPT, son conocidos por “alucinar”, es decir, hacer afirmaciones falsas como si fueran hechos, usándose para fines nefastos como la propagación de desinformación y el fraude en los exámenes.
Con información del Financial Times.
More Stories
CEO de Automattic paga a empleados en desacuerdo
Android 15 se lanza para AOSP
Granite Rapids: Intel vuelve a competir con AMD