En los últimos años se han incrementado los debates en torno al poder de las grandes plataformas de internet. Ahora que internet atraviesa todos los aspectos de nuestra vida dejamos atrás aquel primer momento de euforia por lo que implicó en términos de democratización del acceso a la información para preocuparnos por la manera en que el ecosistema digital afecta nuestra privacidad, el debate público, el acceso a la información y la libertad de expresión. En definitiva, cómo afecta nuestros derechos como usuarios pero principalmente como ciudadanos.
A nadie se le escapa que hablamos de un sector concentrado en un puñado de grandes empresas tecnológicas que nos dicen qué mirar, qué comprar y con quiénes y de qué manera relacionarnos. Todo eso bajo el manto de la libre elección. Los millones de usuarios que habitan estas plataformas nos dan una dimensión del impacto social que tienen en las sociedades.

Uno de los aspectos que más preocupan es la circulación de noticias falsas –o fake news- y de discursos de odio que se viralizan a través de las distintas plataformas. Frente a esta realidad de época son muchas las voces que hoy debaten en torno a la moderación de contenidos. Pero ¿De qué manera pensamos en la moderación y la circulación de contenidos desde una perspectiva de los derechos humanos? ¿Cómo equilibramos la libertad de expresión con la protección de las infancias? ¿De qué manera se garantiza que los contenidos discriminatorios no sean moneda corriente en las redes sociales? ¿Cómo se combate la violencia simbólica que circula en las redes? ¿Quiénes son los actores que deberían llevar adelante estas tareas?
Los discursos de odio y las fake news son mecanismos que dañan los procesos democráticos.
Desde hace un tiempo estos interrogantes dejaron de ser una preocupación de especialistas para permear en la agenda pública, en los sectores políticos, en los organismos internacionales, en la sociedad. Por caso, hace pocos días la Comisión Interamericana de Derechos Humanos realizó una jornada sobre moderación de contenidos con la participación de las principales empresas (entre ellas YouTube y Facebook) y especialistas de toda América latina. El objetivo es pensar de qué manera los estándares de libertad de expresión se cumplen en los entornos digitales. El artículo 13 de la Convención Interamericana de Derechos Humanos, que cuenta con rango constitucional en nuestro país, consagra como un derecho humano el derecho a la libertad de expresión protegiendo la circulación de informaciones y opiniones por cualquier medio. En esta primera jornada sobre moderación de contenidos hubo consenso en que los discursos de odio y las fake news son mecanismos que dañan los procesos democráticos de nuestros países. Sin embargo, no hay consenso ni síntesis de cómo abordar este problema ni de quién debe impulsar medidas concretas para aplacar el impacto de estos contenidos dañinos para la sociedad. Algunos entusiastas de la autorregulación celebran que la empresa Facebook haya implementado una Junta de Supervisión externa que evaluará los criterios de bloqueo o eliminación de contenidos de las redes sociales de esa empresa. Esa compañía, dueña de Facebook e Instagram, ha sido cuestionada por bloquear contenidos de los usuarios y por el manejo de los datos personales. Abundan los ejemplos de bloqueos arbitrarios como la remoción de campañas de prevención del cáncer de mama confundiéndola con pornografía. Incluso la automatización de los procesos de bloqueo de contenidos ha llegado a remover fotos de personas del mismo sexo besándose o las imágenes de personas gordas en ropa interior, entre otros actos discriminatorios. No podemos dejar de mencionar la actuación de esta empresa en el manejo de la información de temas políticos y del tratamiento de los datos personales de sus usuarios en campañas electorales. Basta recordar el escándalo de Cambridge Analytica que le valió una multa millonaria a Facebook y la interpelación a su CEO Mark Zuckerberg en el Congreso de EEUU.
¿Cuáles son los criterios que utilizan para la moderación de contenidos? ¿Cómo afecta nuestra libertad de expresión? ¿Quién decide qué contenidos circulan?
Si bien en algunas ocasiones estas grandes compañías han dado marcha atrás por la presión pública, la pregunta que como sociedad debemos hacernos es cuáles son los criterios que utilizan para la moderación de contenidos, cómo afecta nuestra libertad de expresión y quién decide qué contenidos circulan.
Quienes prefieren la autorregulación proponen que sean las propias empresas las que instalen mecanismos de revisión y bloqueo de contenidos ya sea de manera directa o a través de terceros como es el caso de las organizaciones de fact-check entre las que se encuentra Chequeado que tiene un convenio con Facebook. O la flamante Junta de Supervisión externa que acaba de implementar esa empresa cuyos integrantes fueron elegidos por el directorio de la misma empresa. Sin embargo, a pesar de estas estrategias aparentemente independientes que impulsa esa compañía, recientemente realizó un apagón informativo a los medios australianos en desacuerdo con una ley que la obligaba a pagar por contenidos generados por estos medios tradicionales. Durante varios días los ciudadanos australianos dejaron de tener acceso a las noticias de los medios de comunicación a través de Facebook. Difícil creer en su preocupación por el tratamiento de los contenidos desde una perspectiva de derechos humanos.
Google ostenta más del 90% de las búsquedas de internet. Sus algoritmos son un misterio.
Otro caso paradigmático de cómo actúan estas empresas y el poder que tienen es el bloqueo de la red social Twitter a la cuenta de Donald Trump cuando todavía era presidente de los Estados Unidos y se encontraba en plena campaña electoral. ¿Debe una empresa tener la potestad de callar la voz de un presidente? ¿Acaso la palabra de un presidente elegido democráticamente no es de interés público para los ciudadanos?.
No sólo hablamos de estos contenidos que circulan en las redes sociales y el poder de las empresas para bloquearlos. Si ampliamos la mirada la priorización de contenidos es otra forma de incidir en la información que llega a las personas. Sin dudas aquí aparece otro gigante como Google, que ostenta más del 90% de las búsquedas de internet y cuyos algoritmos son un misterio. No podemos dejar de mencionar la demanda que la vicepresidenta de la nación Cristina Fernández de Kirchner lleva contra esta empresa por contenidos difamatorios en la portada del motor de búsqueda y que abre la discusión sobre la responsabilidad de los intermediarios, la priorización de la información y la transparencia de los algoritmos.
El derecho de defensa de los usuarios y la transparencia de los algoritmos no pueden quedar sólo en manos de empresas privadas.
¿Por qué Facebook, Twitter, Google definen qué contenidos deben circular y cuáles no? Los hechos nos demuestran que la autorregulación y el control privado no parecieran ser la mejor respuesta para construir un entorno digital amplio, plural y democrático donde se fortalezca el debate público. Aquí se ponen en juego derechos fundamentales como la libertad de expresión, el acceso a la información y la protección de las personas ante discursos de odio y discriminación que no pueden quedar en manos de la decisión de uno o varios empresarios.
El debate a nivel regional y mundial es sobre cómo establecer criterios democráticos de moderación de contenidos que respeten los estándares de libertad de expresión y a la vez desalienten las fake news y los discursos de odio con mecanismos de transparencia de los procesos de bloqueo, la rendición de cuentas, el derecho de defensa de los usuarios, la supervisión del poder judicial del proceso y la transparencia de los algoritmos.
Esta tarea no puede quedar sólo en manos de empresas privadas. El Estado debe tener un rol protagónico en la defensa de los derechos humanos y promover espacios multiactorales que contengan al sector privado y a la sociedad civil para implementar regulaciones y políticas públicas que promuevan un espacio público virtual plural, democrático y respetuoso de las personas. Los espacios donde se están discutiendo estos temas deberían ir en esa dirección.