Logotipo de fuente abierta

YouTube arroja nueva luz sobre cómo aloja su extensa plataforma de videos que obtiene miles de millones de visitas todos los días.

El martes, la compañía publicó por primera vez una estadística llamada «Tasa de visualización en violación», un nuevo punto de datos que YouTube planea incluir en sus informes de aplicación de políticas comunitarias. Básicamente, por cada 10,000 visitas en su red social, o al menos en el último trimestre de 2020, entre 16 y 18 de esas vistas se refieren a videos que violan las reglas de YouTube y actualmente prohíben todo, desde el discurso de odio hasta la desinformación médica sobre Covid-19.

En una publicación de blog publicada el martes, YouTube argumentó que estas estadísticas son una señal de progreso, diciendo que la «tasa de visualización violenta» ha caído un 70 por ciento desde 2017, gracias a las mejoras realizadas por la compañía en su inteligencia artificial centrada en la moderación de contenido. «Hemos avanzado mucho, y es un número muy, muy pequeño», dijo a los periodistas Jennifer Flannery O’Connor, directora de gestión de productos de YouTube de Confianza y seguridad, que mi equipo está trabajando en ello día tras día. »

YouTube compartió esta nueva información a medida que los políticos y los usuarios se preocupan cada vez más por cómo las empresas de tecnología están moderando sus plataformas a través de teorías de conspiración frente a una «infodemia» de información errónea de Covid-19 y tras el levantamiento del Capitolio de EE. UU. Y un ciclo de elecciones presidenciales marcado el año pasado. .

Al mismo tiempo, las estadísticas de contenido violento de YouTube respaldan una narrativa que algunos ejecutivos de YouTube han promovido en el pasado: que sus sistemas generalmente hacen un buen trabajo al interceptar contenido malo, y que el problema general de los videos nefastos en su sitio es relativamente menor. . YouTube también dijo el martes que puede usar sistemas de etiquetado automatizados para eliminar el 94 por ciento del contenido infractor, y que la gran mayoría de esos videos serán interceptados antes de que obtengan 10 vistas. En general, YouTube afirma haber eliminado más de 83 millones de videos desde que se publicaron los informes de transparencia de la aplicación hace tres años.

«Tenemos un gran denominador, lo que significa que tenemos mucho contenido», dijo la directora ejecutiva, Susan Wojcicki, a Recode en 2019.

Sin embargo, los números que YouTube publicó el martes son limitados. Cómo se calcularon: YouTube muestra una serie de visualizaciones, es decir, casos en los que un usuario está viendo un video en particular (YouTube no publicó la cantidad de videos que se incluyeron en esta estadística). Luego, YouTube mira los videos que muestran esas vistas y los envía a los revisores de contenido. Investigan todos los videos y descubren cuáles violan las reglas de la empresa. Esto permite que YouTube genere un porcentaje estimado de visualización de «videos dañinos».

Tenga en cuenta que los propios revisores de YouTube, no los revisores independientes, deciden qué constituye una infracción de las pautas de YouTube. Si bien Facebook se comprometió con una revisión independiente de sus métricas para hacer cumplir los estándares de la comunidad el año pasado, Flannery O’Connor dijo el lunes que la plataforma de video aún no había asumido un compromiso similar.

YouTube suele tardar en decidir qué tipo de contenido controvertido prohibir. La plataforma no cambió su política de incitación al odio hasta 2019 para prohibir la negación del Holocausto y los neonazis. Si bien los investigadores habían advertido a QAnon durante años contra la difusión de la teoría de la conspiración de derecha, YouTube solo se movió para «prohibir el contenido dirigido a un individuo o grupo con teorías de conspiración utilizadas para justificar la violencia del mundo real» en octubre del año pasado.

También hay una gran cantidad de contenido que YouTube no elimina, y eso no infringe las reglas de la empresa, pero pasa por alto la línea, que algunos críticos creen que no debería permitirse en la plataforma. YouTube a veces llama a este tipo de video controvertido «contenido límite». Es difícil estudiar qué tan común es este contenido marginal dado el tamaño de YouTube. Pero sabemos que está ahí. La compañía mantuvo el video actualizado con información errónea sobre las elecciones y solo amplió sus reglas de acoso y odio en octubre pasado para prohibir el contenido dirigido a grupos e individuos con teorías de conspiración utilizadas para justificar la violencia, a saber, QAnon.

Un ejemplo clave de que YouTube no eliminó por completo el contenido ofensivo y dañino fue cuando YouTube se enfureció en 2019 después de que la compañía decidiera terminar con el contenido del conservador YouTuber Steven Crowder, el acoso racista y homofóbico del entonces periodista de Vox Carlos Maza (bajo una fuerte presión). rendirse. YouTube finalmente quitadoLa capacidad de Crowder para publicar anuncios). Más tarde ese año Wojcicki les dijo a los creadores: «[p] El contenido problemático es una fracción del uno por ciento del contenido de YouTube, pero estaba «sobredimensionado».

Si bien YouTube eliminará los anuncios de los creadores que publiquen contenido que viole las reglas de monetización de la plataforma, degradará el contenido límite. Sin embargo, YouTube no publica estadísticas similares sobre qué tan común es este tipo de contenido o cuántas visitas suele recibir.

Con respecto a por qué YouTube está publicando esta estadística en particular, Flannery O’Connor dijo que la compañía había utilizado el número internamente durante varios años para investigar los avances de YouTube en seguridad y consejos sobre videos y objetivos violentos para definir su equipo de aprendizaje automático. «Nos sentimos como [it’s] Es mejor ser transparente y usar las mismas métricas interna y externamente ”, dijo.

El anuncio de YouTube es parte de un patrón más amplio de compañías de redes sociales que dicen que sus plataformas en realidad no están dominadas por contenido nefasto, mientras que críticos, investigadores y periodistas continúan señalando la gran cantidad de visitas y clics que dicho contenido recibe con frecuencia. Incluso si YouTube elimina estos videos, en ocasiones ya han logrado intercambiar ideas dañinas que se difunden por la plataforma. Por ejemplo, el video de Plandemic, que difundió conspiraciones falsas de Covid-19 el año pasado, capturó millones de visitas en la plataforma antes de que fuera derribada.

Fuente abierta es posible gracias a Omidyar Network. Todo el contenido de código abierto es editorialmente independiente y es producido por nuestros periodistas.



DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí