ChatGPT retira función tras filtración de conversaciones en Google

ChatGPT

OpenAI desactivó una función experimental de ChatGPT que permitía compartir conversaciones en motores de búsqueda como Google.

Aunque la herramienta requería activación manual, miles de chats privados aparecieron en línea, exponiendo desde consultas personales hasta datos laborales sensibles.

La medida fue retirada rápidamente tras críticas en redes sociales y evidencia clara de riesgos a la privacidad.

Cómo se filtraron las conversaciones

Usuarios descubrieron que al buscar “site:chatgpt.com/share” en Google, podían acceder a conversaciones compartidas por otros. Pese a que la función era opcional, muchos no entendieron las implicaciones de activarla.

La aplicación evidenció una falla en el diseño de experiencia: bastaba con marcar una casilla para hacer público un intercambio con IA.

ChatGPT

Errores repetidos en la industria de la IA

El caso de OpenAI no es aislado. Google y Meta enfrentaron situaciones similares cuando sus asistentes revelaron contenido privado sin intención del usuario.

Esto señala una tendencia preocupante: innovaciones lanzadas sin evaluar suficientemente los riesgos de privacidad.

Lecciones para empresas y usuarios

La situación genera preguntas clave para cualquier organización que use IA: ¿cómo gestionan los proveedores los datos? ¿Qué controles evitan filtraciones?

La respuesta rápida de OpenAI evitó un daño mayor, pero deja claro que la confianza del usuario puede perderse en segundos.

Innovar sin comprometer la seguridad

A pesar de compartir chats útiles podría beneficiar a muchos, el experimento mostró que incluso funciones bien intencionadas pueden fallar si no se diseñan pensando en los usuarios menos expertos.

Como advirtió un experto: “La fricción para compartir información sensible debe ser mayor que una simple casilla”.

La privacidad es primero

Los incidentes demostrados reafirma que, en IA, la confianza es clave. Las empresas que lideren no serán solo las más innovadoras, sino las que garanticen la seguridad y privacidad del usuario.

La industria deberá aprender de este error si quiere avanzar sin poner en riesgo a quienes la usan.

Con información de VentureBeat.

Más entradas