septiembre 16, 2024

VEKTRA 374

Sitio web de animación 3D, inteligencia artificial, robótica y tecnología

- Inicio » Evaluación a GPT-4o es un riesgo «medio» según OpenAI

Evaluación a GPT-4o es un riesgo “medio” según OpenAI

riesgo "medio"
OpenAI lanzó la tarjeta del sistema del modelo GPT-4o, un documento que detalla las medidas de seguridad, calificándola como riesgo "medio".

OpenAI lanzó la tarjeta del sistema del modelo GPT-4o, un documento que detalla las medidas de seguridad, calificándola como riesgo “medio”.

OpenAI ha lanzado la tarjeta del sistema de su último modelo, GPT-4o, un documento que detalla las medidas de seguridad y las evaluaciones del riesgo realizadas antes de su lanzamiento.

El modelo GPT-4o fue presentado al público en mayo de este año, después de que un grupo externo de expertos en seguridad, conocidos como equipos rojos, evaluara posibles vulnerabilidades.

Las pruebas buscaron identificar riesgos como la creación de clones de voz no autorizados, contenido inapropiado o la reproducción de audio protegido por derechos de autor.

Resultados de la evaluación

Dentro del marco de seguridad de OpenAI, el modelo GPT-4o se consideró de “riesgo medio”.

La calificación se derivó de la evaluación de cuatro categorías: ciberseguridad, amenazas biológicas, persuasión y autonomía del modelo.

Aparte, ciberseguridad, amenazas biológicas y autonomía fueron clasificadas como de bajo riesgo, la persuasión fue el único ítem que alcanzó un nivel medio,

Algunas muestras de escritura sobre GPT-4o presentaron mas efectividad para influir en las opiniones de los lectores que los textos escritos por humanos.

riesgo "medio"

Contexto y repercusiones sobre el resultado riesgo “medio”

El lanzamiento de la tarjeta del sistema se produce en un momento crucial para OpenAI, que enfrenta críticas sobre sus estándares de seguridad.

La compañía ha estado bajo escrutinio por parte de empleados, legisladores y el público en general.

Publicación de la tarjeta del sistema

La presentación de esta evaluación se realizó justo antes de las elecciones presidenciales en Estados Unidos, lo que aumenta la preocupación sobre el uso indebido del modelo para difundir información errónea.

En un contexto donde la transparencia y la seguridad son cada vez más demandadas, OpenAI busca demostrar su compromiso con la evaluación rigurosa de sus sistemas, aunque sigue siendo responsable de gran parte de su propia supervisión.

Con información de The Verge.