A finales del mes de julio de 2021, el Tribunal Supremo de Justicia de Alemania (Bundesgerichtshof, BGF) emitió una importante decisión sobre la moderación de contenidos en las redes sociales. La sentencia de los casos III ZR 179/20 y III ZR 192/20 discute si Facebook puede eliminar contenidos que violen las propias directrices de la empresa sobre la prohibición del discurso de odio y, en este contexto, también bloquear las cuentas de los usuarios.

El texto completo de la sentencia todavía no ha sido publicado. Sin embargo, el resumen oficial trae aportes importantes para la discusión global en el ámbito de la libertad de expresión online y la responsabilidad de las plataformas de las redes sociales para asegurar un espacio digital más saludable.

El contexto de la decisión: los desafíos de la regulación de contenidos en las redes sociales

Internet se ha convertido en un medio de comunicación vital para que las personas puedan ejercer su derecho a la libertad de expresión y participar de manera activa de los debates públicos y privados. Sin embargo, este también ha sido un espacio donde el odio, la incitación a la violencia, la discriminación y la desinformación fluyen sin ningún control. Empresas y Estados han intentado, sin mucho éxito hasta el momento, distintas estrategias para frenar los excesos del ejercicio de la libertad de expresión.

Por un lado, los intentos de regulación estatal del sector, como señala David Kaye, aumentaron paradójicamente el poder corporativo para vigilar todos los foros mundiales. En cambio, los Gobiernos no han querido o podido pensar creativamente mecanismos para garantizar tanto los derechos de los usuarios como para supervisar el comportamiento de las grandes empresas.

Por otra parte, los gigantes estadunidenses (Twitter, Facebook, Instagram y Google) han cambiado sus reglas y condiciones de servicio para controlar el contenido en línea. Sin embargo, han seguido un camino de autorregulación casi enigmático creando una especie de ley de las plataformas donde es difícil percibir elementos claros y coherentes para la rendición de cuentas y la reparación.

Las decisiones de las empresas para moderar contenido son a menudo difíciles de entender. La mayoría de las empresas profieren las reglas de moderación de contenido bajo sus propios criterios y no están basadas en un ordenamiento jurídico concreto que pueda regular la libertad de expresión. Además, los usuarios tienen poca información sobre los comportamientos prohibidos, las sanciones que pueden sufrir y las razones que llevaron a la empresa a restringir determinado contenido o bloquear alguna cuenta.

En el cuarto trimestre de 2020 Facebook eliminó alrededor de 27 millones de contenidos clasificados como discurso de odio en todo el mundo. Pero solo un número pequeño de usuarios afectados por las sanciones acudió a los tribunales. En julio de 2021, el BGH de Alemania se ocupó de estas reclamaciones por primera vez.

La decisión del Tribunal Supremo: el deber de información de Facebook al momento de moderar el contenido

En los casos analizados en Alemania, el centro de la discusión era si Facebook puede eliminar las publicaciones y bloquear las cuentas de sus usuarios. El Tribunal declaró que las normas de la comunidad de Facebook eran ineficaces en los casos analizados porque Facebook no tenía mecanismos para informar con anticipación la eliminación del contenido, el bloqueo de la cuenta de los usuarios, el motivo de la decisión y tampoco les brindaba a los usuarios una oportunidad de defensa.

Los dos posts en discusión indicaban que los migrantes no respetaban ni las leyes nacionales ni a las mujeres y hacían lo que querían en Alemania. Facebook eliminó estas declaraciones en agosto de 2018 porque violaban la prohibición de discurso de odio. Además, bloqueó de manera temporal las cuentas de los usuarios.

La sentencia reafirma el derecho de Facebook a estipular que los usuarios cumplan ciertos estándares que van más allá de los requisitos de la ley penal y a  reservarse el derecho de eliminar determinadas publicaciones o bloquear cuentas. Sin embargo, para un equilibrio de los derechos en conflicto, Facebook debería comprometerse a informar al usuario, al menos de manera retroactiva, sobre la eliminación de la publicación y el bloqueo de su cuenta. Asimismo, debe indicar el motivo de la eliminación y permitirle discutir la decisión de la empresa. Para el tribunal alemán, los procedimientos de Facebook no cumplen con estas condiciones. Si los términos y condiciones de los servicios son ineficaces, el usuario tiene derecho a la reactivación del contenido y, si es necesario, evitar futuros bloqueos de su cuenta.

El Tribunal Supremo no afirma que las empresas privadas estén absolutamente vinculadas a los derechos fundamentales o deban un respeto estricto a cualquier legislación nacional o internacional. Sin embargo, les impone ciertas condiciones que deberían estar presentes en la relación contractual entre Facebook y los usuarios de la plataforma con el objetivo de proteger los derechos fundamentales. El deber de información es uno de ellos.

El tribunal consideró que las normas de Facebook eran ineficaces debido a la Sección 307 (1) del Código Civil Alemán (Bürgerliches Gesetzbuch o BGB). Dicha sección declara ineficaces las disposiciones en términos y condiciones de servicios que perjudican injustamente a los usuarios por la violación del principio de buena fe o porque las disposiciones no son claras y comprensibles.

Las perspectivas sobre la regulación de contenidos en las redes sociales

Desde luego, es fundamental esperar la decisión y analizar con atención los argumentos de los jueces. De todos modos, esa no será la única decisión en la que el gran poder corporativo sobre los discursos públicos y privados será cuestionado por los tribunales. Las críticas a la política de moderación de contenidos de las grandes plataformas de Internet han sido bastante intensas en los últimos años y esta es apenas la punta del iceberg de un problema que está relacionado con el propio modelo de negocios de estas empresas.

Facebook intentó frenar las críticas con la creación de un Consejo Asesor de Contenido. Este viene realizando una importante tarea, pero todavía tiene una actuación bastante limitada. Solo en abril de 2021 se anunció la posibilidad de que los usuarios de la red social apelaran directamente al Oversigth para discutir la moderación de contenidos de la empresa. La apelación será posible siempre y cuando el usuario tenga su cuenta activa.

El propio Consejo ha advertido sobre el déficit de transparencia de la empresa en la moderación de contenido y el bloqueo de cuentas. Una de las primeras decisiones sobre lenguaje que incita al odio se refirió a un usuario que publicó contenido que usaba un término ofensivo para describir a un grupo de personas en función de la nacionalidad. La mayoría del Consejo ratificó la decisión de Facebook de eliminar la publicación. Sin embargo, recomendó que la empresa garantizara que siempre se notifique a los usuarios los motivos por los que se aplican las normas comunitarias en su contra, incluida la regla específica que aplica Facebook en cada caso.

Para el Consejo, no basta con informar que la publicación del usuario infringía las normas comunitarias sobre lenguaje que incita al odio. Era necesario comunicarle que era debido al insulto dirigido a las personas de una nacionalidad determinada. En ese caso, el Consejo indicó que la decisión de Facebook no había sido transparente y la dejaba expuesta a interpretaciones erróneas.

En el famoso caso de Donald Trump, el Consejo ratificó la decisión de Facebook de excluir las publicaciones y la cuenta del exmandatario estadunidense. Sin embargo, enfatizó que, al aplicar la penalización, la empresa no siguió un procedimiento público y claro. Por eso recomendó que Facebook:

“(…) brinde más información que permita a los usuarios entender y evaluar el proceso y los criterios para la aplicación de la concesión de interés periodístico, incluido cómo se aplica esto a las cuentas influyentes. La empresa también debe explicar con claridad la lógica, los estándares y los procesos implicados en la revisión comprobatoria, e informar las tasas de error relativas de las determinaciones que se toman por medio de la comprobación, en comparación con los procedimientos de aplicación de políticas habituales”.

La sentencia alemana representa un importante precedente y seguramente los casos discutidos no serán los últimos que exigirán una respuesta por parte del poder judicial que garantice el pleno ejercicio de la libertad de expresión en espacio digital. 


Cita recomendada: Anna Luisa Walter de Santana, “Facebook y los límites a la libertad de expresión: la decisión del Bundesgerichtshof de Alemania sobre las reglas de moderación de contenido” IberICONnect, 27 de agosto de 2021. Disponible en: https://www.ibericonnect.blog/2021/08/facebook-y-los-limites-a-la-libertad-de-expresion-la-decision-del-bundesgerichtshof-de-alemania-sobre-las-reglas-de-moderacion-de-contenido/

Print Friendly, PDF & Email

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *