EL MERCURIO. COM
Versión para imprimir El Mercurio.com

Santiago de Chile. Mar 07/12/2021

5:55
Atención a suscriptores

Santiago:   Mín. 5°C   |   Máx. 20°C   |   Actual 13°C

Redes sociales y proyecto de ley que regula las plataformas digitales: ¿qué se puede aprender de la Unión Europea?

"...Nuestro proyecto es binario: distingue meramente entre contenidos legales e ilegales. El proyecto europeo identifica una tercera categoría, la de los contenidos legales que ponen en peligro el interés público, y reconoce que estos contenidos a veces deberían ser moderados por las plataformas. Al mismo tiempo, evita entregarles a estas empresas una carta blanca para censurar a sus usuarios..."

Lunes, 22 de noviembre de 2021 a las 18:30
  • Facebook
  • Twitter
Enviar
Imprimir
agrandar letra
achicar letra
Lucas MacClure
En septiembre de este año, el Senado empezó a tramitar un proyecto de ley que, entre otras materias, busca regular cómo Facebook, Twitter, YouTube, TikTok y otras redes sociales moderan contenidos creados por sus usuarios (Boletín 14561-19). Un proyecto similar está siendo tramitado en la Unión Europea: la Digital Services Act (Ley de Servicios Digitales). El proyecto europeo se alimenta de una basta experiencia regulatoria que comenzó en el año 2000; el proyecto chileno, de ser aprobado, sería la primera ley chilena que regula la moderación de contenidos (dejando de lado las materias reguladas por la ley de propiedad intelectual). La propuesta europea tiene 74 artículos; el nuestro tiene 15. ¿Qué se puede aprender del proyecto de la Ley de Servicios Digitales? ¿Cómo podría servir para mejorar nuestro proyecto?

Un aspecto importante del proyecto chileno es que, de ser aprobado, implícitamente prohibiría a las plataformas eliminar contenidos que, sin ser ilegales, afectan el interés público.

Invocando los conceptos de “neutralidad de la plataforma” y de “libertad de expresión digital” (arts. 5 y 6), el proyecto chileno establece que las plataformas “no podrán” eliminar contenidos que se ajusten al derecho (art. 6 inc. 1). Las plataformas solamente solo podrán —y en estricto rigor, tendrán la obligación— de eliminar contenidos ilegales, específicamente, contenidos “civilmente injuriosos, calumniosos, constitutivos de amenazas, que constituyan delitos tipificados por otros cuerpos jurídicos o que inciten a cometer un crimen” (art. 6 inc. 1). Esta obligación existirá cuando las plataformas tomen conocimiento de la ilegalidad de los contenidos o cuando se cumplan otras condiciones.

Es fácil entender porqué esta norma es atractiva. Por un lado, al establecer que las plataformas no pueden eliminar contenidos legales el proyecto protege la libertad de expresión de los usuarios. Por otro lado, al exigir que las plataformas eliminen contenidos ilegales la norma protege derechos individuales como la honra y otros intereses valiosos.

Pero también es fácil entender porqué la norma del proyecto es problemática. Muchos contenidos que son legales son al mismo tiempo perjudiciales para el interés público. Y muchos de estos contenidos son frecuentemente eliminados por las plataformas de redes sociales invocando sus normas sobre moderación de contenidos (e.g., las normas comunitarias de Facebook). De ser aprobado, el proyecto pondría fin a esta moderación de contenidos pro interés público.

Considere, por ejemplo, los mensajes falsos que fomentan decisiones individuales irracionales respecto de enfermedades mortales. Recientemente, el Presidente de Brasil Jair Bolsonaro afirmó que las vacunas contra el covid-19 eran inefectivas y que causaban otras enfermedades. YouTube reaccionó bloqueando el canal de Bolsonaro. La plataforma lo hizo invocando sus normas sobre moderación de contenidos, normas que prohíben, entre otras cosas, la desinformación sobre vacunas cuya efectividad ha sido demostrada. Considere, también, el caso del expresidente de Estados Unidos, Donald Trump. Sus mentiras sobre la última elección presidencial de ese país causaron, en parte, el asalto al Capitolio del 6 de enero de 2021. Muchas plataformas reaccionaron a las mentiras de Trump bloqueando sus cuentas. Lo hicieron invocando normas propias que prohíben falsedades manifiestas que afectan la legitimidad de procesos electorales limpios.

Casos similares a los anteriores no podrían ser objeto de moderación de contenidos si el proyecto chileno se convierte en ley. Por regla general, las informaciones falsas sobre la salud pública o los procesos eleccionarios no son prohibidas por nuestro derecho. Por supuesto, sí existen normas sociales que sustentan la crítica y el desprecio de quienes difunden esos tipos de falsedades. Sin embargo, nuestro proyecto les dice a las plataformas que esas normas sociales no pueden ser parte de sus políticas de moderación en Chile. Por cierto, el proyecto tiene una norma sobre las “informaciones manifiestamente falsas”, pero la norma se limita a permitir que las plataformas publiquen “avisos” (art. 6 inc. final). A las plataformas les queda vedado tomar medidas más estrictas.

¿Cuál es la solución ofrecida por el proyecto de la Ley de Servicios Digitales en la Unión Europea? Una parcialmente distinta a la de la propuesta chilena. Al igual que nuestro proyecto, la Ley de Servicios Digitales exige que las plataformas eliminen contenidos ilegales cuando ellas toman conocimiento de los mismos, pero el proyecto europeo también permite que las plataformas eliminen contenidos que son legales. En principio, la Ley de Servicios Digitales permitiría que las plataformas eliminen falsedades peligrosas como las de Trump o Bolsonaro.

¿Cómo se hace cargo el proyecto europeo, entonces, de proteger la libertad de expresión? ¿Cómo intenta evitar o mitigar posibles abusos por parte de las plataformas? Las normas recién descritas repiten lo que ya se encuentra en el derecho europeo vigente. Es decir, en la Directiva Europea de Comercio Electrónico del año 2000 (E-Commerce Directive), pero la Ley de Servicios Digitales también tiene otras normas sobre moderación de contenidos. Es aquí donde el proyecto puede ser de gran utilidad para nuestro debate.

Si se aprueba, la Ley de Servicios Digitales les exigirá a las plataformas “muy grandes”, como Facebook o Twitter, que tomen medidas para minimizar sus “riesgos sistémicos”. Estos riesgos incluyen tanto la manipulación de las redes sociales mediante bots y cuentas falsas en perjuicio de la salud pública, los menores, los procesos electorales, el discurso cívico y la seguridad pública, como la afectación de la libertad de expresión por parte de las mismas plataformas.

El proyecto europeo les dice a las plataformas lo que tienen que hacer para reducir sus riesgos sistémicos: deben realizar evaluaciones anuales, someterse a auditorías externas, publicar los informes así producidos, mejorar sus sistemas de moderación de contenidos considerando las directrices de las autoridades competentes, y establecer unidades internas para monitorear el cumplimiento de sus obligaciones legales. Además, el proyecto contempla órganos sectoriales con competencias para evaluar los riesgos sistémicos, identificar mejores prácticas e imponer sanciones a las plataformas que descuiden sus obligaciones. Finalmente, el proyecto europeo establece requisitos detallados de justicia procedimental para los procesos de moderación de contenidos.

El proyecto europeo no es perfecto, por ejemplo, solamente se hace cargo de la manipulación de las redes sociales mediante bots y cuentas falsas. Pero los bots y las cuentas falsas no son las únicas fuentes de noticias falsas, tal como lo demuestran los casos de Trump y de Bolsonaro discutidos arriba. El tiempo dirá cómo esta y otras cuestiones serán resueltas durante la tramitación del proyecto. Es un debate que conviene seguir con atención.

Frances Haugen, la ex empleada de Facebook responsable de revelar los “archivos de Facebook”, afirmó recientemente que “la Ley de Servicios Digitales (…) tiene el potencial de ser un estándar de oro global. Puede inspirar a otros países, incluido el mío (los EE.UU.), a aplicar nuevas reglas que salvaguarden nuestras democracias”.

La Ley de Servicios Digitales debería servir de inspiración para mejorar el proyecto que está siendo tramitado en el Congreso. Nuestro proyecto es binario: distingue meramente entre contenidos legales e ilegales. El proyecto europeo identifica una tercera categoría, la de los contenidos legales que ponen en peligro el interés público, y reconoce que estos contenidos a veces deberían ser moderados por las plataformas. Al mismo tiempo, el proyecto europeo evita entregarles a estas empresas una carta blanca para censurar a sus usuarios. Por el contrario, somete a las plataformas a reglas sustantivas y procedimentales, al escrutinio público y a la fiscalización de los representantes de la ciudadanía. Conviene estudiar a fondo la Ley de Servicios Digitales si queremos crear una buena ley.

* Lucas MacClure Brintrup es profesor de Gobernanza de Internet del Boston College, doctor en derecho por la U. de Yale (J.S.D.) y abogado de la U. de Chile.

EL MERCURIO.COM
Términos y condiciones de la Información © 2002 El Mercurio Online
El Mercurio

"...La Política Criminal moderna ha dejado de ser la sapiencia del Estado legiferante en materia penal (Feuerbach), que implica la necesaria base científica de las decisiones de política legislativa en materia penal, escuchar a los sabios, a los técnicos, no dejarse inducir por el sano sentimiento popular, por la voz de la calle, y comprender y respetar los elementos limitadores del ordenamiento jurídico-penal..."

El Mercurio

"...El caso Leufu Pilaiquen es la síntesis de una larga jurisprudencia de la Corte sobre la relación entre consulta indígena y procedimiento administrativo que comenzó hace más de una década, pero que en esta ocasión ha delimitado de modo permanente al definir la consulta como el único medio de participación de las comunidades indígenas ante los organismos de la Administración del Estado, sin que estos puedan utilizar mecanismos alternativos..."

El Mercurio

"...Ya sabemos cómo continúa esta historia. Uno de los dos candidatos obtiene entre 50-55% de los votos. Ello le dará una interpretación subjetiva distorsionada de su mandato (...) En el fondo, somos testigos en tiempo real de cómo se incuba un sistema político bloqueado, que podrá desembocar en una crisis política mayor y, para la cual, el modelo no tiene salidas institucionales no traumáticas..."

El Mercurio

"...Modestos permisionarios de espacios públicos quedan así entregados a la desnuda discrecionalidad de los alcaldes, quienes (dada la desorientación de la jurisprudencia) gozan actualmente de una efectiva ausencia de control jurisdiccional, pues sus reclamos ante los tribunales no tienen por resultado un efectivo control jurídico como el que se espera en un Estado de Derecho..."

El Mercurio

"...Este caso deja en evidencia la necesidad de contar con reglas claras en materia de normas técnicas, especialmente por el mayor protagonismo que han adquirido en el ámbito del derecho administrativo. Así, a modo de ejemplo, buena parte de la regulación en materia de transformación digital de la Administración del Estado será regulado en normas técnicas..."

Ver más

Comentarios Recientes

Más Comentados

Ranking de Comentadores