YouTube aplicará más restricciones a los vídeos que promuevan el odio

Desde este jueves Google vigilará a YouTube como nunca antes. Añadirá advertencias y deshabilitará los anuncios en los vídeos que la compañía determine que contengan mensajes de odio o que promuevan el terrorismo.

YouTube no eliminará los vídeos, sino que implementará nuevas restricciones para visualizar, compartir y hacer dinero con ellos. Un aviso detallando la nueva medida será enviado a los productores de los vídeos afectados, anunció un vocero de la compañía Alphabeth.

Google habló por primera vez sobre estos cambios en junio, pero la implementación se da en un momento en que el debate sobre el extremismo y los discursos políticos toman cada vez mayor protagonismo. Esto ha provocado que gigantes tecnológicos como Google y Facebook enfrenten un mayor escrutinio sobre cómo moderan la información que es distribuida a través de sus servicios digitales.

YouTube impedirá que determinados videos sean compartidos y monetizados.

“Estos vídeos tendrán menor engagement y será más difícil encontrarlos”, escribió en junio pasado en un blog el consejero general de Google, Kent Walker. “Esto logra el justo equilibrio entre la libre expresión y el acceso a la información, sin promover puntos de vista extremadamente ofensivos”, agregó.

Se espera que las restricciones sólo afecten a una pequeña fracción de los vídeos, según declaraciones de una persona allegada a la compañía. YouTube precisó que cada minuto se suben casi 400 horas de contenido. Los vídeos a los que se le apliquen las nuevas políticas no tendrán anuncios ni comentarios, tampoco aparecerán entre las recomendaciones de plataforma.

Una pantalla de advertencia aparecerá antes de estos inicien y no podrán reproducirse al ser insertados en sitios web externos. Según explicó una vocera de la compañía, YouTube permitirá que los creadores de los contenidos afectados respondan a estas acciones a través de un proceso de apelación.

[td_block_11 custom_title=»» separator=»» post_ids=»18405″ limit=»1″ css=».vc_custom_1496993590403{border-top-width: 1px !important;border-right-width: 1px !important;border-bottom-width: 1px !important;border-left-width: 1px !important;padding-top: 5px !important;padding-right: 5px !important;padding-bottom: 5px !important;padding-left: 5px !important;border-left-color: #000000 !important;border-left-style: solid !important;border-right-color: #000000 !important;border-right-style: solid !important;border-top-color: #000000 !important;border-top-style: solid !important;border-bottom-color: #000000 !important;border-bottom-style: solid !important;border-radius: 4px !important;}» tdc_css=»»]

El servicio de vídeos más grandes del mundo ha cambiado sus políticas en varias oportunidades este año. En marzo, Google introdujo un nuevo software y contrató personal para monitorear contenidos, después de que múltiples marcas decidieran retirar sus anuncios ante la preocupación de que estaban siendo reproducidos junto a contenido extremista.

A raíz de esto, Google añadió en abril nuevas funciones para restringir los anuncios en determinados vídeos. Los ejecutivos alertaron que aunque el número afectados por esta medida era mínimo, ni los humanos ni ningún sistema de inteligencia artificial podría asegurar que YouTube estuviera completamente libre de material polémico.

Ante un claro ejemplo del desafío que enfrenta la plataforma, recientemente YouTube restableció cientos que vídeos que documentaban la violencia en Siria, después de que grupos civiles criticaron a la compañía por haberlos retirado, alegando que el contenido podía ser usado como fuente de información en procesos contra crímenes de guerra.

Cada minuto se suben casi 400 horas de contenido a YouTube.

A inicios de agosto, YouTube dijo que más de 75% de los vídeos retirados de la plataforma por violar las políticas de  la compañía habían sido identificados por su nuevo software. Ahora, YouTube va por los vídeos de corte extremista, como aquellos donde se hable de teorías que niegan el Holocausto, así como por los creados por el supremacista blanco David Duke.

“YouTube no permite mensajes de odio o contenido que promueva o incite a la violencia”, indicaba la carta que fue enviada este jueves a los creadores de contenido, según una copia a que Bloomberg News tuvo acceso. “En algunos casos, los vídeos que no infrinjan directamente las Directrices de la Comunidad, sino que sean potencialmente controversiales o ofensivos, podrán seguir estando en línea, pero con algunas funciones desactivadas”.

Tras un evento de supremacistas blancos en Charlottesville, Virginia, que terminó de manera violenta, varias compañías de tecnología, incluyendo Google, Facebook y Airbnb, han tomado medidas para eliminar de sus plataformas a las personas y a los grupos asociados con lo ocurrido.