Unesco: control de contenidos debe aplicarse cuidando el respeto por los DD.HH.

La Unesco destaca la importancia de aplicar un control de contenidos, por parte de las plataformas en línea, respetando los derechos humanos.
ebiz

ebiz

Proliferación de mensajes que incitan al odio y desinforman en las plataformas en línea en los últimos dos años requieren un mayor control por parte de las plataformas en línea, señalan, pues las 14 más importantes carecen de una moderación de contenidos eficiente.

De acuerdo al informe “Problemas de plataforma y soluciones regulatorias”, elaborado por la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco, por sus siglas en inglés) el control de los discursos de odio en las plataformas de redes sociales debe aplicarse respetando los derechos humanos.

“Se necesita orientación para que todos los actores que abordan cuestiones de contenido en línea trabajen en plena alineación con el derecho internacional de los derechos humanos. Esto debería incluir garantizar la independencia de las autoridades reguladoras vinculadas al Estado, estructurar una participación significativa de múltiples partes interesadas en ellas y empoderar a la sociedad civil para exigir mayores niveles de rendición de cuentas en todos los ámbitos”, señala el informe.

La incorporación de los derechos humanos, como punto de vista apropiado para evaluar la confianza y la seguridad en toda la interacción de las reglas, prácticas, modelos de negocio y tecnología de las plataformas, puede ayudar a afianzar los estándares internacionales en todas las regulaciones que existen o se estén por dictar en el mundo, añaden.

En Europa, citaron como ejemplo, hay bastantes avances en el plano regulatorio de los contenidos en redes sociales. Ellos han sido pioneros en el desarrollo, con la participación de las empresas y la sociedad civil, de un código de conducta para las plataformas sobre la incitación al odio y un código de buenas prácticas para la desinformación. La fase inicial de estos códigos fue criticada por su insuficiente capacidad jurídica y por su inadecuada supervisión, sanción y transparencia. Eso se está tratando de resolver en la nueva Ley de Servicios Digitales.

Banner-campaña-isométrico-3a
Banner-campaña-isométrico-3b
Banner-campaña-isométrico-c
Banner-campaña-isométrico-d

A nivel países, los “códigos coreguladores” son una práctica en Australia, donde se han establecido medidas mínimas de cumplimiento para las plataformas. Estos códigos abarcan cuestiones como la edad de los usuarios; uso de etiquetas de advertencia; reducir la lista, eliminar prioridades y poner en cuarentena el contenido; y enmascaramiento de imagen/texto/audio.

En el ámbito mundial, citaron, existe la «Nuestra Agenda Común» de la ONU, que prevé un código de conducta voluntario para la integridad de la información en las plataformas digitales, que coincidirá con los acuerdos previstos en el «Pacto Digital Mundial» del 2024. Estos desarrollos están fomentando normas para un ecosistema en donde se apliquen los Principios de las Naciones Unidas sobre Empresas y Derechos Humanos a las empresas digitales. Unesco busca contribuir con la elaboración de las «Directrices para la reglamentación de las plataformas», para lo cual han realizado el citado informe.

Según recomienda la Unesco, las autoridades del Estado no deben tratar de hacerse cargo de toda la formulación de las políticas de contenido de las plataformas ni del trabajo de moderación que se está realizando. “En cambio, deberían exigir a las empresas que cumplan plenamente con sus propios términos de servicio para el consumidor, así como que sigan códigos acordados más amplios para estándares de políticas y puntos de referencia de procesos”, señalaron.

El trabajo conjunto que proponen, en principio, se puede valer de las funciones institucionalizadas de múltiples interesados en todos los niveles de las normas: desde su creación hasta la supervisión, apostando por una autorregulación empresarial y la co-regulación del Estado con asociaciones privadas y ONGs, entre otros actores del ecosistema.

“Las plataformas que entienden e identifican los daños no están suficientemente asignadas a los estándares de derechos humanos, y existe una brecha en la forma en que los elementos genéricos de las políticas deben tratar los casos locales, los diferentes derechos y los modelos comerciales cuando hay tensiones«.

Problemas de plataforma y soluciones regulatorias, informe elaborado por UNESCO.

Un problema común

El informe señala que hay una proliferación de mensajes que incitan al odio y desinforman en las plataformas en línea. Ello tiene graves implicaciones para los derechos humanos, la confianza y la seguridad según el derecho y las normas internacionales. Esto se agrava porque la publicidad y los modelos de negocio aplicados fomentan estas prácticas de forma indirecta, en buena medida por fallas en las políticas de las plataformas y en su implementación automatizada.

“Las plataformas que entienden e identifican los daños no están suficientemente asignadas a los estándares de derechos humanos, y existe una brecha en la forma en que los elementos genéricos de las políticas deben tratar los casos locales, los diferentes derechos y los modelos comerciales cuando hay tensiones”, afirman tras añadir que hay graves deficiencias tanto en los términos del servicio como en los modelos automatizados aplicados para su control.

Los problemas de odio están documentados en numerosos estudios que muestran el crecimiento de la misoginia en línea, el racismo, la negación del holocausto, el antisemitismo y la xenofobia, sostienen. También existen muchas falsedades en línea, según análisis realizado entre 2020 y 2022 en más de 800 fuentes producidas por comunidades académicas, de la sociedad civil y periodísticas. Unesco realizó además un análisis de 280 millones de publicaciones en redes sociales desde 2012 y encontró un aumento significativo de “noticias falsas», «desinformación» y «desinformación». Estas tendencias son paralelas al auge de los populismos y el discurso de la posverdad en diferentes partes del mundo.

El contenido potencialmente dañino en línea es impulsado por el modelo de negocio publicitario que se vale de algoritmos de plataforma personalizados para cultivar el compromiso de las personas, señalan. La llamada “economía de la atención”, se basa en que, cuanta más atención se gane, mayor será la oportunidad de obtener datos de audiencia y vender publicidad dirigida a ese nicho. Se prioriza el contenido llamativo para el citado público y se estimula la producción y difusión de discursos emotivos de forma automatizada. El problema es que se suelen basar en desinformación, teorías de conspiración y odio. Los ejemplos, indican, abunda en YouTube, Instagram, Facebook, Twitter y TikTok.

En un estudio de 2022 realizado por el Proyecto de Transparencia Tecnológica, citan como ejemplo, se descubrieron 80 grupos de supremacía blanca en 119 páginas de Facebook y 20 grupos de Facebook. “Después de dar «me gusta» a estas páginas, los investigadores encontraron que en el 58% de los casos, Facebook las apuntó hacia otro contenido extremista u odioso. Las búsquedas de los nombres de los grupos de supremacía blanca en Facebook a menudo producían resultados de búsqueda con anuncios, lo que significa que Facebook ganó dinero en consecuencia”, afirman.

Esta práctica de negocio puede ser controlada, como lo hizo YouTube al modificar sus algoritmos de recomendación, logrando así que sus espectadores pasaron un 70% menos de su tiempo viendo lo que la compañía llama “contenido de teoría de la conspiración”. Hay esfuerzos de moderación activa (ya sean automatizados o no), indican, pero se trata sobre todo de un esfuerzo hacia el control de daños “ex post facto”.

“Los informes periodísticos revelan que a través del aprendizaje automático dinámico sobre lo que obtiene una respuesta de cada encuestado, se pueden explotar hasta dos millones de elementos de datos acumulados y continuos para colocar cada anuncio. Incluso Whatsapp, que generalmente no vende publicidad, produce datos como números de teléfono e información del dispositivo que Meta luego utiliza para hacer coincidir las cuentas con su Facebook e Instagram”, afirman.

Según el grupo de monitoreo Ranking Digital Rights, añaden, solo cinco de las 14 plataformas principales publican datos sobre sus acciones tomadas para restringir la publicidad que viola sus políticas. A esto se suma que, según dicho ranking, 14 plataformas tienen déficits masivos en el rendimiento respecto al impacto de sus algoritmos en los derechos humanos. “La automatización funciona para hacer coincidir la publicidad con los usuarios, independientemente del contenido adyacente, lo que lleva a un daño a la reputación de las marcas que están vinculadas a contenido de odio o falso”, especifican.

Medidas de control aplicadas

Facebook dijo en 2022 que había eliminado más de 200 operaciones orquestadas desde 2017 en más de 40 idiomas y en casi 70 países. Sin embargo, hay muchas exposiciones periodísticas de «desinformación a sueldo» por parte de empresas de relaciones públicas que venden este servicio a nivel mundial, y no son censuradas. Así sucedió en un país de África, donde una agencia creo unos 3,8 millones de cuentas no auténticas de Facebook ligadas a páginas falsas durante unas elecciones presidenciales.

Académicos, ONG y periodistas han revelado muchos otros casos que las plataformas no han detectado, incluido el trolling subcontratado y la explotación del odio para impulsar acciones contraproducentes. En Brasil, por ejemplo, se comprobó que la viralidad sin control de las teorías de conspiración para desacreditar las elecciones brasileñas de 2022 hizo que este contenido ganara más de 22 millones de visitas en YouTube y 2,3 millones de interacciones en Facebook tres meses antes del violento asalto del 8 de enero a instituciones estatales brasileñas.

Frances Haugen reveló que en 2020 Facebook dedicó solo el 13% de su presupuesto de moderación al desarrollo de algoritmos para detectar información errónea en regiones fuera de los Estados Unidos, lo que generó daños a los derechos humanos que no son prevenidos. Las empresas, sin embargo, afirman que respetan los derechos humanos en sus operaciones, además de comprometerse a respetar lo dispuesto por la ONU en sus políticas, y gastan grandes sumas en la moderación.

TikTok, por citar otro ejemplo donde el discurso de odio y supremacía blanca es eliminado de forma inconsistente, tienen 10 000 moderadores humanos, pero esto es insuficiente para atender sus mil millones de usuarios activos mensuales. Además, si bien los sistemas algorítmicos automatizados hacen el trabajo pesado de forma insuficiente, cuando la aplicación de políticas se basa solo en el juicio humano, los moderadores trabajan en condiciones indignas y no están suficientemente capacitados sobre cómo aplicar la política a instancias específicas.

Lo que resulta evidente para los autores del informe es que estos esfuerzos de las empresas del sector no son tan efectivos ni tienen la debida diligencia en el respeto de los derechos humanos. “Con muy pocas excepciones, ni los gobiernos ni las plataformas parecen estar trabajando sistemáticamente para desarrollar estas capacidades a escala. La falta de transparencia por parte de estas empresas agrava los bajos niveles de conocimiento sobre las plataformas”, afirman.

Es por eso que los investigadores de Unesco, a través del citado informe, proponen que la regulación (en todas sus formas) se aplique para la prevención desde la fase más temprana del proceso, sin formulaciones ambiciosas o excesivamente amplias que obstaculicen acciones eficaces. Destacan el valor de la participación de las múltiples partes interesadas, incluyendo desde la academia hasta el Gobierno, pasando por una acción más responsable por parte de las empresas del sector.

ÚLTIMAS NOTICIAS

NOTICIAS RELACIONADAS