septiembre 7, 2024

VEKTRA 374

Sitio web de animación 3D, inteligencia artificial, robótica y tecnología

- Inicio » Los bots de YouTube comenzarán a enviar advertencias de 24 horas

Los bots de YouTube comenzarán a enviar advertencias de 24 horas

Los bots de YouTube que regula la moderación automatizada no permitirá la intervención humana. para tomar medidas enérgicas contra el spam.

La IA de YouTube que regula la moderación automatizada no permitirá la intervención humana.

YouTube ha anunciado un plan para tomar medidas enérgicas contra el spam y el contenido abusivo en comentarios y chats en vivo.

Por supuesto, YouTube hará esto con bots, que ahora tendrán el poder de emitir tiempos de espera a los usuarios y eliminar instantáneamente los comentarios que se consideren abusivos.

El anuncio de YouTube comenta: “Hemos estado trabajando para mejorar nuestros sistemas de detección automatizados y modelos de aprendizaje automático para identificar y eliminar el spam”.

“De hecho, hemos eliminado más de 1.100 millones de comentarios spam en los primeros seis meses de 2022”. Y agregan: “Hemos mejorado nuestra detección de spambots para mantener a los bots fuera de los chats en vivo”.

Cuando YouTube elimina un mensaje, la compañía dice que advertirá al emisor del comentario que el mensaje ha sido eliminado.

La compañía agrega: “Si un usuario continúa dejando múltiples comentarios abusivos, puede recibir un tiempo de espera y no poder comentar temporalmente por hasta 24 horas”.

La moderación de comentarios en YouTube a menudo parece una tarea imposible, hasta el punto de que muchas páginas simplemente desactivan los comentarios por completo porque no quieren lidiar con eso.

La moderación del chat en vivo es especialmente difícil, ya que incluso si detecta un mensaje ofensivo rápidamente después de que se publica, la naturaleza en vivo y de desplazamiento del chat significa que el daño probablemente ya esté hecho.

La IA es una forma escalable de abordar este problema, pero la historia de moderación automatizada de Google con YouTube y Play Store es bastante dura.

Los bots de YouTube tienen numerosos errores y no solucionan realmente el problema

Muchos de los bots de YouTube aparte de generar advertencias, no han dado una solución contundente dentro de la plataforma.

Se ha visto a la compañía marcar un canal de terror como “apto para niños” porque incluía animación.

Prohibió un reproductor de video de Google Play porque los archivos de subtítulos usan la extensión “.ass”, cuyo significado en ingles es “trasero”.

Play Store prohíbe regularmente las aplicaciones de chat, las aplicaciones de Reddit y las aplicaciones de podcast porque, al igual que un navegador, pueden acceder al contenido generado por el usuario y, a veces, ese contenido es objetable.

No parece que YouTube esté involucrando a los propietarios de canales en ninguna de estas decisiones de moderación.

YouTube enfatiza que advertirá al creador del comentario (no al propietario del canal) de la eliminación automática de contenido y que si los usuarios no están de acuerdo con la eliminación automática de comentarios, pueden objetar por la opción “enviar comentarios” a YouTube.

El enlace “enviar comentarios” en muchos productos de Google es un buzón de sugerencias sin una solución real y no cualquier tipo de cola de moderación de comentarios, por lo que parece que no habrá nadie que responda a una disputa de moderación.

Esto se une a las numerosas quejas de creadores de contenidos de la plataforma que indican que YouTube es demasiado laxa con sus políticas y en definitiva su atención hacia los creadores muy deficiente.

Por su parte YouTube dice que las advertencias de los bots de YouTube automática solo eliminará los comentarios que violen las pautas de la comunidad, una lista de prohibiciones de contenido bastante básicas, por lo que es muy probable que hayan fallos dentro de este sistema.