martes, 7 febrero 2023 20:03

Comisión Europea exhorta a Facebook y Google eliminar más rápido el contenido inapropiado

Jeremy Kahn para Bloomberg

La Comisión Europea exhortó a los gigantes tecnológicos de redes sociales tales como Facebook o Alphabet a que desarrollen un conjunto de herramientas para detectar, bloquear y eliminar la propaganda terrorista que circula en Internet.

En sus directrices emitidas este jueves, la comisión pidió a las plataformas en línea que nombren personas de contacto para llamarlos con rapidez y solicitarles que eliminen contenido ilegal. Les solicitó que den mayor apoyo a herramientas como Trusted Flaggers -un programa diseñado para hacer efectiva la retirada de vídeos de contenido inapropiado-, así como facilitarles a los usuarios las denuncias de contenidos extremistas.

El contenido ilegal debe eliminarse lo más rápido posible, y puede estar sujeto a plazos específicos, en los que está en juego un serio daño, por ejemplo en casos de incitación a actos terroristas”, manifestó la comisión.

[td_block_11 custom_title=»» separator=»» post_ids=»33032″ limit=»1″ css=».vc_custom_1496993590403{border-top-width: 1px !important;border-right-width: 1px !important;border-bottom-width: 1px !important;border-left-width: 1px !important;padding-top: 5px !important;padding-right: 5px !important;padding-bottom: 5px !important;padding-left: 5px !important;border-left-color: #000000 !important;border-left-style: solid !important;border-right-color: #000000 !important;border-right-style: solid !important;border-top-color: #000000 !important;border-top-style: solid !important;border-bottom-color: #000000 !important;border-bottom-style: solid !important;border-radius: 4px !important;}» tdc_css=»»]

Al hacer estas recomendaciones, la comisaria europea de Justicia, Vera Jourova, dejó de usar Facebook y borró su cuenta después de darse cuenta de que la red social sirvió con demasiada frecuencia como “un medio para el odio”.

La comisión no especificó con exactitud la rapidez con que las compañías de redes sociales deben reducir su contenido inapropiado, diciendo que analizará el tema a fondo. En mayo de 2016, varios gigantes tecnológicos como Facebook, Twitter y YouTube de Google se comprometieron voluntariamente a eliminar el contenido ilegal en 24 horas. Bajo este programa, la remoción de material ha crecido del 30% al 60%, según la Unión Europea.

En el Reino Unido proponen obligar a dar de baja el contenido inapropiado dos horas después de su denuncia

Desde entonces, Alemania aprobó una ley que exige que el contenido inapropiado sea removido en 24 horas después de haber sido denunciado, con penas de hasta 50 millones de euros por repetidas fallas en el cumplimiento. La primera ministra británica, Theresa May, propuso a principios de septiembre nuevas reglas que obligarían a las compañías eliminar el contenido extremista en cuestión de dos horas.

Facebook respondió que las recomendación de la comisión se encuentran en estudio. Mientras tanto, Google y Twitter no respondieron inmediatamente.

La comisión señaló que las plataformas en línea deberían “introducir garantías para prevenir el riesgo de una eliminación de contenido excesiva. “No se especificó qué clase de garantías deberían ser”.

En respuesta a la nueva ley alemana, Facebook expuso que las grandes multas y la imposición de estrictos plazos para la eliminación de contenidos sólo sirven para alentar a la equivocación al tomar contenido cuestionable, potencialmente dañando la libertad de expresión.

[td_block_11 custom_title=»» separator=»» post_ids=»32753″ limit=»1″ css=».vc_custom_1496993590403{border-top-width: 1px !important;border-right-width: 1px !important;border-bottom-width: 1px !important;border-left-width: 1px !important;padding-top: 5px !important;padding-right: 5px !important;padding-bottom: 5px !important;padding-left: 5px !important;border-left-color: #000000 !important;border-left-style: solid !important;border-right-color: #000000 !important;border-right-style: solid !important;border-top-color: #000000 !important;border-top-style: solid !important;border-bottom-color: #000000 !important;border-bottom-style: solid !important;border-radius: 4px !important;}» tdc_css=»»]

La comisión también apuntó que los gigantes de Internet deben tomar medidas para adisuadir a los usuarios de cargar repetidamente contenido ilegl y los alentó a desarrollar herramientas más automáticas para evitar la reaparición de material que previamente fuese removido.

Facebook, Google, Twitter y Microsoft se unieron en diciembre de 2016 para crear una base de datos compartida de “huellas dactilares digitales” para vídeos que cualquiera de las empresas haya eliminado por violar sus políticas de contenido extremista. Si alguien intenta subir el mismo vídeo a una plataforma de medios sociales diferente, se marca automáticamente para su revisión.

Si bien las directrices emitidas por la comisión son recomendaciones no vinculantes, se vislumbra la posibilidad de una futura legislación si las compañías no dan un paso en línea con las sugerencias hechas para mayo de 2018.

Los gigantes tecnológicos se enfrentan a la presión gubernamental para hacer frente a la propaganda terrorista

Durante años, sitios como Facebook o YouTube han dependido de cientos de contratistas y empleados para revisar manualmente los mensajes que los usuarios señalan de violar términos de servicio. Si bien este proceso está lejos de ser perfecto, los ejecutivos insistían en que los sistemas automatizados -que dependen de la inteligencia artificial-, no eran lo suficientemente sofisticados para responder adecuadamente.

Durante el último año, ya que estas empresas han sufrido una mayor presión política y legal para hacer frente a la propaganda terrorista y las falsas noticias, han comenzado a apoyarse más en sistemas automatizados.

Las empresas no han podido automatizar estas labores porque la inteligencia artificial es muy sofisticada

“La inteligencia artificial puede detectar una bandera terrorista, pero tiene dificultades para interpretar la intención de un cartel”, señaló Monika Bickert, directora global de políticas de Facebook durante una reunión con líderes gubernamentales en la Asamblea General de las Naciones Unidas. “Por eso tenemos miles de revisores, que hablan docenas de idiomas, revisando el contenido, incluyendo el que podría relacionarse con terrorismo, para asegurarnos de que hacemos un buen trabajo”.

Bickert sostuvo que la compañía mejoró en identificar y quitar el contenido terrorista sin tener que confiar en usuarios que lo denuncian. Dijo que la compañía también había construido “fuertes mecanismos” para trabajar con la policía.

 


- Publicidad -