Discursos de odio en línea

Compartir Imprimir Citar

El discurso de odio en línea es un tipo de discurso que tiene lugar en línea con el propósito de atacar a una persona o grupo en función de su raza, religión, origen étnico, orientación sexual, discapacidad y/o género. El discurso de odio en línea no se define fácilmente, pero se puede reconocer por la función degradante o deshumanizadora que cumple.

Tratados multilaterales como el Pacto Internacional de Derechos Civiles y Políticos (PIDCP) han buscado definir sus contornos. Los procesos de múltiples partes interesadas (p. ej., el Plan de Acción de Rabat) han intentado aportar mayor claridad y han sugerido mecanismos para identificar los mensajes de odio. Sin embargo, el discurso de odio sigue siendo un término genérico en el discurso cotidiano, que mezcla amenazas concretas a individuos y/o grupos con casos en los que las personas pueden estar simplemente descargando su ira contra la autoridad. Los intermediarios de Internet (organizaciones y redes sociales que median la comunicación en línea, como Facebook, Twitter y Google) han avanzado sus propias definiciones de discurso de odio que vinculan a los usuarios a un conjunto de reglas y permiten a las empresas limitar ciertas formas de expresión.

La velocidad y el alcance de Internet dificultan que los gobiernos hagan cumplir la legislación nacional en el mundo virtual. Las redes sociales son un espacio privado para la expresión pública, lo que dificulta las cosas para los reguladores. Algunas de las empresas propietarias de estos espacios se han vuelto más receptivas para abordar el problema del discurso de odio en línea.

Políticos, activistas y académicos discuten el carácter del discurso de odio en línea y su relación con el discurso y la acción fuera de línea, pero los debates tienden a alejarse de la evidencia empírica sistemática. El carácter del discurso de odio percibido y sus posibles consecuencias ha llevado a poner mucho énfasis en las soluciones al problema y en cómo deben fundamentarse en el derecho internacional de los derechos humanos. Sin embargo, este mismo enfoque también ha limitado los intentos más profundos de comprender las causas subyacentes del fenómeno y la dinámica a través de la cual ciertos tipos de contenido emergen, se difunden y conducen, o no, a discriminación, hostilidad o violencia reales.

Definiciones

El discurso del odio

El concepto de discurso de odio toca el choque de la libertad de expresión y los derechos individuales, colectivos y de las minorías, así como los conceptos de dignidad, libertad e igualdad. No es fácil de definir, pero puede reconocerse por su función.

En la legislación nacional e internacional, el discurso de odio se refiere a las expresiones que propugnan la incitación al daño, incluidos los actos de discriminación, hostilidad, radicalización, violencia verbal y/o física, en función de la identidad social y/o demográfica de las víctimas. El discurso de odio puede incluir, pero no se limita a, discurso que defiende, amenaza o alienta actos violentos. El concepto puede extenderse también a las expresiones que fomentan un clima de prejuicio e intolerancia bajo el supuesto de que esto puede alimentar la discriminación selectiva, la hostilidad y los ataques violentos. En momentos críticos, como durante las elecciones políticas, el concepto de discurso de odio puede ser propenso a la manipulación; las acusaciones de instigar discursos de odio pueden intercambiarse entre opositores políticos o ser utilizadas por quienes están en el poder para frenar la disidencia y las críticas. Discurso de odio (ya sea transmitido a través de texto,

El jurista y teórico político Jeremy Waldron argumenta que el discurso de odio siempre contiene dos mensajes: primero, permitir que los miembros del grupo externo se sientan mal recibidos o asustados; y segundo, permitir que los miembros del grupo interno sientan que sus creencias de odio son legítimas.

Características del discurso de odio en línea

La proliferación del discurso de odio en línea, observada por el Relator Especial sobre Asuntos de las Minorías del Consejo de Derechos Humanos de la ONU, plantea un nuevo conjunto de desafíos. Tanto las plataformas de redes sociales como las organizaciones creadas para combatir el discurso de odio han reconocido que los mensajes de odio difundidos en línea son cada vez más comunes y han suscitado una atención sin precedentes para desarrollar respuestas adecuadas. Según HateBase, una aplicación basada en la web que recopila instancias de incitación al odio en línea en todo el mundo, la mayoría de los casos de incitación al odio se dirigen a individuos en función de su origen étnico y nacionalidad, pero las incitaciones al odio centradas en la religión y la clase social también han ido en aumento.

Si bien el discurso de odio en línea no es intrínsecamente diferente de expresiones similares que se encuentran fuera de línea, existen desafíos peculiares exclusivos del contenido en línea y su regulación. Esos desafíos relacionados con su permanencia, itinerancia, anonimato y carácter transjurisdiccional complejo.

Permanencia

El discurso de odio puede permanecer en línea durante mucho tiempo en diferentes formatos en múltiples plataformas, que se pueden vincular repetidamente. Como señaló Andre Oboler, director ejecutivo del Instituto de prevención del odio en línea: "Cuanto más tiempo permanezca disponible el contenido, más daño puede infligir a las víctimas y empoderar a los perpetradores. Si elimina el contenido en una etapa temprana, puede limitar la exposición. Esto es como limpiar la basura, no impide que las personas tiren basura, pero si no se soluciona el problema, simplemente se acumula y se agrava aún más". Las conversaciones de Twitter organizadas en torno a temas de actualidad pueden facilitar la rápida y amplia difusión de mensajes de odio,pero también ofrecen la oportunidad para que oradores influyentes eviten mensajes y posiblemente pongan fin a hilos populares que incitan a la violencia. Facebook, por el contrario, puede permitir que múltiples hilos continúen en paralelo y pasen desapercibidos; creando espacios más duraderos que ofenden, discriminan y ridiculizan a ciertos individuos y grupos.

Itinerancia

El discurso de odio en línea puede ser itinerante. Incluso cuando se elimina el contenido, puede encontrar expresión en otro lugar, posiblemente en la misma plataforma con un nombre diferente o en diferentes espacios en línea. Si se cierra un sitio web, puede reabrirse rápidamente utilizando un servicio de alojamiento web con regulaciones menos estrictas o mediante la reasignación a un país con leyes que imponen un umbral más alto para el discurso de odio. La naturaleza itinerante del discurso de odio también significa que los pensamientos mal formulados, o el comportamiento bajo la influencia, que no habrían encontrado expresión pública ni apoyo en el pasado, ahora pueden aterrizar en espacios donde pueden ser visibles para grandes audiencias.

Anonimato

El anonimato también puede presentar un desafío para lidiar con el discurso de odio en línea. Las discusiones en Internet pueden ser anónimas o bajo seudónimo, lo que puede hacer que las personas se sientan más seguras al expresar sus opiniones, pero también puede acelerar el comportamiento destructivo. Como ha declarado Drew Boyd, director de operaciones de The Sentinel Project, "Internet otorga a las personas la capacidad de decir cosas horribles porque creen que no serán descubiertas. Esto es lo que hace que el discurso de odio en línea sea tan único, porque las personas se sienten mucho más cómodos hablando de odio en contraposición a la vida real cuando tienen que lidiar con las consecuencias de lo que dicen".China y Corea del Sur aplican políticas de nombre real para las redes sociales. Facebook, LinkedIn y Quora han buscado activar un sistema de nombre real para tener más control sobre el discurso de odio en línea. Tales medidas han sido muy cuestionadas porque se considera que violan el derecho a la privacidad y su intersección con la libertad de expresión.

Muchos casos de discurso de odio en línea son publicados por "trolls" de Internet, que generalmente son usuarios seudónimos que publican contenido impactante, vulgar y en general falso que tiene la intención explícita de desencadenar una reacción negativa, aunque también puede tener la intención de influir o reclutar al lector. a sus creencias, si comparten la misma opinión. Las redes sociales también han brindado una plataforma para que grupos políticos o religiosos radicales y extremistas se formen, establezcan redes y colaboren para difundir sus mensajes contra el establecimiento y la corrección política, y promuevan creencias e ideologías que son racistas, antifeministas, homofóbicas., transfóbico, etc. La comunicación en línea completamente anónima es rara, ya que requiere que el usuario emplee medidas altamente técnicas para garantizar que no pueda ser identificado fácilmente.

Propagación transjurisdiccional

Otra complicación es el alcance transnacional de Internet, que plantea problemas de cooperación entre jurisdicciones con respecto a los mecanismos legales para combatir el discurso de odio. Si bien existen tratados de Asistencia Legal Mutua vigentes en Europa, Asia y América del Norte, estos son característicamente lentos para funcionar. El alcance transnacional de muchos intermediarios de Internet del sector privado puede proporcionar un canal más efectivo para resolver problemas en algunos casos, aunque estos organismos a menudo también se ven afectados por apelaciones de datos entre jurisdicciones (como revelar la identidad del autor o autores). de un contenido particular). Las diferentes jurisdicciones también tienen definiciones únicas para el discurso de odio, lo que dificulta enjuiciar a los perpetradores que pueden buscar refugio en jurisdicciones menos estrictas.

A diferencia de la difusión del discurso de odio a través de canales convencionales, las víctimas del discurso de odio en línea pueden tener dificultades para saber a quién deben acudir para que les ayuden, como la plataforma, la policía local y la policía local de la persona o personas que utilizan el discurso de odio. todos pueden sentir que el problema no cae dentro de su jurisdicción, incluso cuando existen políticas y leyes sobre la incitación al odio. Las organizaciones no gubernamentales y los grupos de presión han estado creando conciencia y animando a diferentes partes interesadas a tomar medidas.

Inteligencia artificial

Algunas empresas de tecnología, como Facebook, utilizan sistemas de inteligencia artificial (IA) para monitorear el discurso de odio. Sin embargo, es posible que la IA no siempre sea una forma efectiva de monitorear el discurso de odio, ya que los sistemas carecen de las habilidades de juicio que tienen los humanos. Por ejemplo, un usuario puede publicar o comentar algo que se clasifica como discurso de odio o viola las pautas de la comunidad, pero si la palabra objetivo está mal escrita o si algunas letras se reemplazan con símbolos, los sistemas de IA no lo reconocerán. Esta debilidad ha llevado a la proliferación de intentos de eludir los algoritmos de censura utilizando errores ortográficos deliberados, como el uso de "vachscenes" en lugar de "vaccines" por parte de los antivacunas durante el COVID-19.Por lo tanto, los humanos todavía tienen que monitorear los sistemas de IA que monitorean el discurso de odio; un problema común en la tecnología de IA que se conoce como "Última milla de la automatización"., lo que significa que el último 10% o 1% del trabajo es el más difícil de completar.

Marcos

Precedente de Stormfront

Después de los dramáticos incidentes de 2014, son comunes los pedidos de medidas más restrictivas o intrusivas para contener el potencial de Internet para propagar el odio y la violencia, como si los vínculos entre la violencia en línea y fuera de línea fueran bien conocidos. Por el contrario, como indica el siguiente ejemplo, las apariencias a menudo pueden ser engañosas. Stormfront es considerado el primer "sitio web de odio". Lanzado en marzo de 1995 por un ex líder del Ku Klux Klan, se convirtió rápidamente en un espacio popular para discutir ideas relacionadas con el neonazismo, el nacionalismo blanco y el separatismo blanco, primero en los Estados Unidos de América y luego a nivel mundial. El foro presenta llamados a una guerra santa racial e incitación al uso de la violencia para resistir la inmigración. y es considerado un espacio para el reclutamiento de activistas y posiblemente la coordinación de actos violentos.Los pocos estudios que han explorado las identidades de Stormfront en realidad representan una imagen más compleja. Más que verlo como un espacio de coordinación de acciones. Conocidos activistas de extrema derecha han acusado al foro de ser solo una reunión de "guerreros del teclado". Uno de ellos, por ejemplo, según lo informado por De Koster y Houtman, afirmó: "He leído bastantes artículos en el foro, y me sorprende que se haga un gran alboroto, mientras que suceden pocas cosas. La sección activismo/política en sí es sencillamente ridículo. [...] Ni hablar de las asambleas en las que sólo se presentan cuatro personas".Aún más reveladoras son algunas de las respuestas a estas acusaciones proporcionadas por miembros habituales del sitio web. Como argumentó uno de ellos, "Seguramente, tengo derecho a tener una opinión sin llevarla a cabo activamente. [...] No asisto a manifestaciones y tampoco me afilio a un partido político. Si esto me convierte en un guerrero del teclado, eso es está bien. Me siento bien de esta manera. [...] No me avergüenzo de eso". De Koster y Houtman encuestaron solo un capítulo nacional de Stormfront y una muestra no representativa de usuarios, pero respuestas como las anteriores deberían al menos invitar a la cautela hacia las hipótesis que conectan expresiones y acciones, incluso en espacios cuya función principal es albergar puntos de vista extremistas.El Southern Poverty Law Center publicó un estudio en 2014 que encontró que los usuarios del sitio "fueron presuntamente responsables del asesinato de casi 100 personas en los cinco años anteriores".

Principios Internacionales

La incitación al odio no se menciona explícitamente en muchos documentos y tratados internacionales de derechos humanos, pero se invoca indirectamente en algunos de los principios relacionados con la dignidad humana y la libertad de expresión. Por ejemplo, la Declaración Universal de los Derechos Humanos (DUDH) de 1948, redactada como respuesta a las atrocidades de la Segunda Guerra Mundial, contiene el derecho a la igual protección ante la ley en el Artículo 7, que proclama que: "Todos tienen derecho a igual protección contra toda discriminación que infrinja esta Declaración y contra toda incitación a tal discriminación”. La DUDH también establece que toda persona tiene derecho a la libertad de expresión, que incluye "la libertad de tener opiniones sin interferencias y de buscar, recibir y difundir información e ideas a través de cualquier medio y sin consideración de fronteras.

La DUDH fue decisiva para establecer un marco y una agenda para la protección de los derechos humanos, pero la Declaración no es vinculante. Posteriormente se han creado una serie de documentos vinculantes para ofrecer una protección más sólida a la libertad de expresión y protección contra la discriminación. El Pacto Internacional de Derechos Civiles y Políticos (PIDCP) aborda la incitación al odio y contiene el derecho a la libertad de expresión en el artículo 19 y la prohibición de la apología del odio que constituye incitación a la discriminación, la hostilidad o la violencia en el artículo 20.Otros instrumentos jurídicos internacionales más adaptados contienen disposiciones que repercuten en la definición de discurso de odio y la identificación de respuestas al mismo, como: la Convención para la Prevención y la Sanción del Delito de Genocidio (1951), la Convención Internacional para la Eliminación de Todas las Formas de Discriminación Racial, ICERD (1969), y, en menor medida, la Convención sobre la Eliminación de Todas las Formas de Discriminación contra la Mujer, CEDAW (1981).

Discurso de odio y el Pacto Internacional de Derechos Civiles y Políticos

El Pacto Internacional de Derechos Civiles y Políticos es el instrumento jurídico al que se hace referencia con mayor frecuencia en los debates sobre el discurso del odio y su regulación, aunque no utiliza explícitamente el término "discurso del odio". El artículo 19, al que a menudo se hace referencia como parte del "núcleo del Pacto", establece el derecho a la libertad de expresión. Esto establece el derecho, y también incluye restricciones generales a las que debe ajustarse cualquier limitación del derecho para que sea legítima. Al artículo 19 le sigue el artículo 20 que limita expresamente la libertad de expresión en los casos de "apología del odio nacional, racial o religioso que constituya incitación a la discriminación, la hostilidad o la violencia".La decisión de incluir esta disposición, que puede caracterizarse como que incorpora una conceptualización particular del discurso de odio, ha sido muy cuestionada. El Comité de Derechos Humanos, el organismo de las Naciones Unidas creado por el Pacto Internacional de Derechos Civiles y Políticos para supervisar su implementación, consciente de la tensión, ha tratado de enfatizar que el Artículo 20 es totalmente compatible con el derecho a la libertad de expresión. En el Pacto Internacional de Derechos Civiles y Políticos, el derecho a la libertad de expresión no es un derecho absoluto. Puede ser legítimamente limitado por los estados bajo circunstancias restringidas:

"3. El ejercicio de los derechos previstos en el párrafo 2 de este artículo conlleva deberes y responsabilidades especiales. Por lo tanto, puede estar sujeto a ciertas restricciones, pero estas solo serán las que establezca la ley y sean necesarias: (a) Para el respeto de los derechos o la reputación de otros; (b) Para la protección de la seguridad nacional o del orden público (ordre public), o de la salud o la moral públicas".

Entre el artículo 19 (3) y el artículo 20, existe una distinción entre limitaciones facultativas y obligatorias al derecho a la libertad de expresión. El artículo 19 (3) establece que las limitaciones a la libertad de expresión "pueden, por lo tanto, estar sujetas a ciertas restricciones", siempre que estén previstas por la ley y sean necesarias para ciertos fines legítimos. El artículo 20 establece que toda apología de (ciertos tipos de) odio que constituya incitación a la discriminación, la hostilidad o la violencia "quedará prohibida por la ley". A pesar de las indicaciones sobre la gravedad de los delitos de expresión que deberían estar prohibidos por ley en virtud del artículo 20, sigue habiendo complejidad.En particular, hay un área gris en la conceptualización de distinciones claras entre (i) expresiones de odio, (ii) expresiones que abogan por el odio y (iii) discurso de odio que constituye específicamente incitación a los daños prácticos de discriminación, hostilidad o violencia. Si bien los estados tienen la obligación de prohibir el discurso concebido como "apología del odio que constituye una incitación a la discriminación, la hostilidad o la violencia", de conformidad con el artículo 20 (2), no está claramente definido cómo interpretarlo.

Otros instrumentos jurídicos internacionales

ICERD

La Convención Internacional sobre la Eliminación de Todas las Formas de Discriminación Racial (ICERD), que entró en vigor en 1969, también tiene implicaciones para conceptualizar formas de discurso de odio. La ICERD difiere del ICCPR en tres aspectos. Su conceptualización del discurso del odio se limita específicamente al discurso que se refiere a la raza y la etnia. Afirma en el artículo 4, párrafo (a), que los Estados partes:

“Declarará como delito penado por la ley toda difusión de ideas basadas en la superioridad o el odio racial, la incitación a la discriminación racial, así como todo acto de violencia o incitación a tales actos contra cualquier raza o grupo de personas de otro color u origen étnico., y también la prestación de asistencia a actividades racistas, incluida la financiación de las mismas; esta obligación impuesta por la ICERD a los Estados partes también es más estricta que el caso del artículo 20 del ICCPR que cubre la criminalización de ideas racistas que no necesariamente incitan a la discriminación, hostilidad o violencia".

Una diferencia importante está en la cuestión de la intención. El concepto de "abogacía del odio" introducido en el ICCPR es más específico que el discurso discriminatorio descrito en la ICERD, ya que se considera que requiere la consideración de la intención del autor y no la expresión de forma aislada; esto se debe a que "abogacía" se interpreta en el Pacto Internacional de Derechos Civiles y Políticos como requisito de la intención de sembrar el odio. El Comité para la Eliminación de la Discriminación Racial ha abordado activamente el discurso de odio en su Recomendación General 29, en la que el Comité recomienda a los estados partes que:

"(r) Tomar medidas contra cualquier difusión de ideas de superioridad e inferioridad de casta o que intente justificar la violencia, el odio o la discriminación contra las comunidades basadas en la ascendencia; (s) Tomar medidas estrictas contra cualquier incitación a la discriminación o violencia contra las comunidades, incluso a través de Internet; t) Adopte medidas para sensibilizar a los profesionales de los medios de comunicación sobre la naturaleza y la incidencia de la discriminación basada en la ascendencia;"

Estos puntos, que reflejan la referencia de la ICERD a la difusión de la expresión, tienen importancia para Internet. La expresión de ideas en algunos contextos en línea puede equivaler inmediatamente a difundirlas. Esto es especialmente relevante para los espacios privados que han comenzado a jugar un papel público, como es el caso de muchas plataformas de redes sociales.

Convención de Genocidio

De manera similar a la ICERD, la Convención contra el Genocidio tiene como objetivo proteger a los grupos definidos por raza, nacionalidad o etnia, aunque también extiende sus disposiciones a los grupos religiosos. Cuando se trata de incitación al odio, la Convención sobre Genocidio se limita únicamente a los actos que incitan públicamente al genocidio, reconocidos como "actos cometidos con la intención de destruir, total o parcialmente, a un grupo nacional, étnico, racial o religioso", independientemente de si tales actos se llevan a cabo en tiempo de paz o en tiempo de guerra. Específicamente, el discurso de odio basado en el género (a diferencia de las acciones discriminatorias) no está cubierto en profundidad por el derecho internacional.

CEDAW

La Convención sobre la Eliminación de Todas las Formas de Discriminación contra la Mujer (CEDAW), que entró en vigor en 1981, impone obligaciones a los Estados de condenar la discriminación contra la mujer y "prevenir, investigar, enjuiciar y sancionar" los actos de violencia de género.

Respuestas regionales

La mayoría de los instrumentos regionales no tienen artículos específicos que prescriban la prohibición del discurso de odio, pero en general permiten que los estados limiten la libertad de expresión, disposiciones que pueden aplicarse a casos específicos.

Convención Americana sobre Derechos Humanos

La Convención Americana sobre Derechos Humanos describe las limitaciones a la libertad de expresión de manera similar al Pacto Internacional de Derechos Civiles y Políticos en el artículo 19 (3). La Organización de los Estados Americanos también ha adoptado otra declaración sobre los principios de la libertad de expresión, que incluye una cláusula específica que establece que "los condicionamientos previos a las expresiones, tales como la veracidad, la oportunidad o la imparcialidad, son incompatibles con el derecho a la libertad de expresión reconocido en el derecho internacional". instrumentos". La Corte Interamericana ha advertido que "(a) el abuso de la libertad de información no puede ser controlado por medidas preventivas sino únicamente mediante la imposición posterior de sanciones a los culpables de los abusos".La Corte también impone un test a los Estados que deseen imponer restricciones a la libertad de expresión, ya que deben observar los siguientes requisitos: "a) la existencia de causales de responsabilidad previamente establecidas; b) la definición expresa y precisa de dichas causales en la ley; c) la legitimidad de los fines que se pretenden alcanzar; d) la demostración de que estas causales de responsabilidad son 'necesarias para asegurar' los fines mencionados”. El Sistema Interamericano cuenta con un Relator Especial para la Libertad de Expresión que realizó un amplio estudio sobre el discurso de odio. Concluyó que el Sistema Interamericano de Derechos Humanos difiere del enfoque de las Naciones Unidas y el europeo en un punto clave: el sistema interamericano cubre y restringe el discurso de odio que en realidad conduce a la violencia, y solo ese discurso puede ser restringido.

Carta Africana de Derechos Humanos y Derechos de los Pueblos

La Carta Africana de Derechos Humanos y Derechos de los Pueblos adopta un enfoque diferente en el Artículo 9 (2), que permite restricciones a los derechos siempre que estén "dentro de la ley". Este concepto ha sido criticado y existe una gran cantidad de estudios jurídicos sobre las denominadas cláusulas de "claw-back" y su interpretación.La crítica se dirige principalmente al hecho de que los países pueden manipular su propia legislación y debilitar la esencia del derecho a la libertad de expresión. La Declaración de Principios sobre la Libertad de Expresión en África elabora un estándar más alto para las limitaciones a la libertad de expresión. Declara que el derecho “no debe ser restringido por razones de orden público o seguridad nacional a menos que exista un riesgo real de daño a un interés legítimo y exista un estrecho nexo de causalidad entre el riesgo de daño y la expresión”.

Declaración de El Cairo sobre los Derechos Humanos en el Islam

En 1990, la Organización de la Conferencia Islámica (que luego pasó a llamarse Organización de Cooperación Islámica, OIC) adoptó la Declaración de El Cairo sobre los Derechos Humanos en el Islam (CDHRI), que exige la criminalización del discurso que se extiende más allá de los casos de violencia inminente para abarcar " actos o discursos que denoten intolerancia y odio manifiestos”.

Carta Árabe de Derechos Humanos

La Carta Árabe de Derechos Humanos, que fue adoptada por el Consejo de la Liga de los Estados Árabes en 2004, incluye en el Artículo 32 disposiciones que también son relevantes para la comunicación en línea, ya que garantiza el derecho a la "libertad de opinión y expresión, y el derecho buscar, recibir y difundir información e ideas a través de cualquier medio, independientemente de las fronteras geográficas”. Permite una limitación sobre una base amplia en el párrafo 2 "Tales derechos y libertades se ejercerán de conformidad con los valores fundamentales de la sociedad".

Declaración de derechos humanos de la ASEAN

La Declaración de Derechos Humanos de la ASEAN incluye el derecho a la libertad de expresión en el Artículo 23. El Artículo 7 de la Declaración establece limitaciones generales, afirmando que "la realización de los derechos humanos debe considerarse en el contexto regional y nacional teniendo en cuenta las diferentes políticas,, antecedentes legales, sociales, culturales, históricos y religiosos”.

Carta de los Derechos Fundamentales de la Unión Europea

La Carta de los Derechos Fundamentales de la Unión Europea que declara el derecho a la libertad de expresión en el artículo 11, tiene una cláusula que prohíbe el abuso de derecho. Afirma que la Carta no debe interpretarse en el sentido de que implica ninguna "limitación mayor que la prevista en ella".Un ejemplo de una limitación que implica una prueba estricta de necesidad y proporcionalidad es la disposición sobre libertad de expresión en el Convenio Europeo de Derechos Humanos, que subraya que el ejercicio de la libertad de expresión conlleva deberes y responsabilidades. "Podrá estar sujeta a las formalidades, condiciones, restricciones o sanciones que prescriba la ley y sean necesarias en una sociedad democrática, en interés de la seguridad nacional, la integridad territorial o la seguridad pública, para prevenir el desorden o el delito, para la protección de la salud o la moral, para la protección de la reputación o los derechos de los demás, para impedir la divulgación de información recibida con carácter confidencial, o para mantener la autoridad e imparcialidad del poder judicial”.

El Tribunal Europeo de Derechos Humanos tiene cuidado de distinguir entre el discurso de odio y el derecho de las personas a expresar sus puntos de vista libremente, incluso si otros se ofenden. Hay instancias regionales relevantes específicamente para el discurso de odio en línea. El Consejo de Europa (CoE) emitió en 2000 una Recomendación de política general para combatir la difusión de material racista, xenófobo y antisemita a través de Internet. La creación de la Convención del Consejo de Europa sobre Ciberdelincuencia en 2001, que regula la asistencia mutua con respecto a los poderes de investigación, brinda a los países signatarios un mecanismo para tratar los datos informáticos, lo que incluiría el discurso de odio transnacional en línea.En 2003, el Consejo de Europa lanzó un protocolo adicional a la Convención sobre Ciberdelincuencia que aborda la expresión en línea del racismo y la xenofobia. La convención y su protocolo se abrieron a la firma y ratificación de países fuera de Europa, y otros países, como Canadá y Sudáfrica, ya forman parte de esta convención. El Protocolo impone a los Estados miembros la obligación de penalizar los insultos racistas y xenófobos en línea de "(i) personas por el hecho de pertenecer a un grupo que se distinga por su raza, color, ascendencia u origen nacional o étnico, así como por religión, si se utilizan como pretexto para cualquiera de estos factores; o (ii) un grupo de personas que se distingue por alguna de estas características”.

Espacios privados

Los intermediarios de Internet, como las plataformas de redes sociales, los Proveedores de Servicios de Internet o los Motores de Búsqueda, estipulan en sus términos de servicio cómo pueden intervenir para permitir, restringir o canalizar la creación y el acceso a determinados contenidos. Una gran cantidad de interacciones en línea ocurren en plataformas de redes sociales que trascienden las jurisdicciones nacionales y cuyas plataformas también han desarrollado sus propias definiciones de discurso de odio y medidas para responder a él. Para un usuario que viole los términos de servicio, el contenido que él o ella ha publicado puede ser eliminado de la plataforma, o su acceso puede ser restringido para ser visto solo por una determinada categoría de usuarios (por ejemplo, usuarios que viven fuera de un país específico).

Los principios que inspiran los contratos de términos de servicio y los mecanismos que cada empresa desarrolla para asegurar su implementación tienen repercusiones significativas en la capacidad que tienen las personas para expresarse en línea así como para protegerse de los discursos de odio. La mayoría de los intermediarios tienen que entablar negociaciones con los gobiernos nacionales en una medida que varía según el tipo de intermediario, las áreas donde está registrada la empresa y el régimen legal que se aplica. Como explica Tsesis, "si las transmisiones en Internet se envían y reciben en lugares particulares, entonces los foros específicos conservan la jurisdicción para enjuiciar las actividades ilegales realizadas en Internet".Los proveedores de servicios de Internet son los más directamente afectados por la legislación nacional porque deben estar ubicados en un país específico para operar. Los motores de búsqueda, si bien pueden modificar los resultados de búsqueda por motivos de autorregulación o comerciales, han tendido cada vez más a adaptarse al régimen de responsabilidad de los intermediarios tanto de sus jurisdicciones de origen registradas como de otras jurisdicciones en las que prestan sus servicios, ya sea eliminando enlaces a contenidos de forma proactiva o a pedido de las autoridades.

También se espera que todos los intermediarios de Internet operados por empresas privadas respeten los derechos humanos. Esto se establece en los Principios Rectores sobre Empresas y Derechos Humanos elaborados por la Oficina del Alto Comisionado de las Naciones Unidas para los Derechos Humanos. El documento enfatiza la responsabilidad corporativa en la defensa de los derechos humanos. En el principio 11, declara que: "Las empresas comerciales deben respetar los derechos humanos. Esto significa que deben evitar infringir los derechos humanos de otros y deben abordar los impactos adversos sobre los derechos humanos en los que están involucradas". Los Principios Rectores de las Naciones Unidas también indican que en los casos en que se violen los derechos humanos, las empresas deben "prever o cooperar en su reparación a través de procesos legítimos".En el caso de los intermediarios de Internet y las concepciones del discurso de odio, esto significa que deben asegurarse de que se tomen medidas para brindar una respuesta acorde.

Respuestas sociales

Estudios de caso

El Panel de Tendencias Estadounidenses

El Pew Research Center encuestó a más de 10 000 adultos en julio de 2020 para estudiar el efecto de las redes sociales en la política y el activismo por la justicia social. El 23% de los encuestados, que son usuarios adultos de las redes sociales, informaron que el contenido de las redes sociales les ha hecho cambiar de opinión, positiva o negativamente, sobre un tema político o de justicia social. El 35% de los encuestados mencionaron el movimiento Black Lives Matter, la reforma policial y/o las relaciones raciales. El 18% de los encuestados informó un cambio de opinión sobre partidos políticos, ideologías, políticos y/o el presidente Donald Trump. El 9 % de los encuestados mencionó cuestiones de justicia social, como los derechos LGBTQIA+, el feminismo, la inmigración, etc. El 8 % de los encuestados cambió de opinión sobre la pandemia de COVID-19 y el 10 % citó otras opiniones.Con base en estos resultados, las redes sociales juegan un papel importante para influir en la opinión pública.

Manipulación de medios y desinformación en línea

Un estudio realizado por los investigadores Alice Marwick y Rebecca Lewis observó la manipulación de los medios y exploró cómo la extrema derecha comercializaba, se conectaba en red y colaboraba para influir en sus controvertidas creencias que podrían haber ayudado a influir en la victoria del presidente Trump en las elecciones de 2016. A diferencia de los principales medios de comunicación, la derecha alternativa no necesita cumplir con ninguna regla en lo que respecta a la influencia y no necesita preocuparse por las calificaciones de la red, las críticas de la audiencia o el sensacionalismo.Los grupos de extrema derecha pueden compartir y persuadir a otros de sus controvertidas creencias con la franqueza y descaro que deseen, en cualquier plataforma, lo que puede haber jugado un papel en las elecciones de 2016. Aunque el estudio no pudo concluir cuál fue exactamente el efecto en las elecciones, proporcionó una investigación exhaustiva sobre las características de la manipulación y el troleo de los medios.

Discurso de odio y elaboración de perfiles lingüísticos en los juegos en línea

La profesora y jugadora Kishonna Gray estudió las opresiones interseccionales en la comunidad de juegos en línea y pidió a Microsoft y a los desarrolladores de juegos que "evalúen críticamente las experiencias de los jugadores no tradicionales en las comunidades en línea... reconozcan la diversidad... [y que] la población de juegos predeterminada están desplegando la blancura y la masculinidad hegemónicas en detrimento de los usuarios no blancos y/o no masculinos dentro del espacio". Gray examinó el sexismo y el racismo en la comunidad de juegos en línea. Los jugadores intentan identificar el género, la sexualidad y el origen étnico de sus compañeros de equipo y oponentes a través de perfiles lingüísticos, cuando no se puede ver a los otros jugadores.Debido a la atmósfera intensa de la esfera de los juegos virtuales y la imposibilidad de no ser vistos, localizados o confrontados físicamente, los jugadores tienden a decir cosas en el juego virtual que probablemente no habrían dicho en un entorno público. Muchos jugadores de comunidades marginadas se han separado de la red global de juegos y se han unido a "clanes", que consisten solo en jugadores del mismo género, sexualidad y/o identidad étnica, para evitar la discriminación mientras juegan. Un estudio encontró que el 78 por ciento de todos los jugadores en línea juegan en "gremios", que son grupos más pequeños de jugadores, similares a los "clanes". Uno de los "clanes" más notables, Puerto Reekan Killaz, ha creado un espacio de juegos en línea donde las mujeres negras y latinas de la comunidad LGBTQIA+ pueden jugar sin riesgo de racismo, nativismo, homofobia, sexismo,

Además del discurso de odio, la profesora y jugadora Lisa Nakamura descubrió que muchos jugadores han experimentado el turismo de identidad, que es cuando una persona o grupo se apropia y finge a los miembros de otro grupo, ya que Nakamura observó que los jugadores blancos jugaban como "geishas" japonesas. El turismo de identidad a menudo conduce a estereotipos, discriminación y apropiación cultural. Nakamura hizo un llamado a la comunidad de juegos en línea para que reconozca Cybertyping, "la forma en que Internet propaga, difunde y mercantiliza las imágenes de raza y racismo".

Retórica antichina empleada por los perpetradores del odio antiasiático

Hasta agosto de 2020, más de 2500 asiático-estadounidenses informaron haber experimentado racismo alimentado por COVID-19, y el 30,5% de esos casos contenían retórica anti-china, según Stop AAPI (Asian-American/Pacific Islander) Hate. El lenguaje utilizado en estos incidentes se divide en cinco categorías: animosidad virulenta, chivo expiatorio de China, nativismo antiinmigrante, caracterizaciones racistas de los chinos e insultos raciales. El 60,4% de estos incidentes informados encajan en la categoría de animosidad virulenta, que incluye frases como "¡aleja tu trasero chino de mí!"

Pakistán

El discurso de odio en línea y el acoso cibernético contra las minorías étnicas y religiosas, las mujeres y otros grupos socialmente marginados han sido durante mucho tiempo un problema que se minimiza o ignora en la República Islámica de Pakistán.

El discurso de odio contra los áhmadis, tanto en línea como en la vida real, ha llevado a su persecución a gran escala.

BytesForAll, una iniciativa del sur de Asia y un proyecto miembro de APC, publicaron un estudio sobre el discurso de odio en línea en Pakistán el 7 de junio de 2014.

La investigación incluyó dos fases independientes:

Según el informe:

Birmania

Internet ha crecido a un ritmo sin precedentes. Myanmar está en transición hacia una mayor apertura y acceso, lo que genera aspectos negativos en las redes sociales, como el uso de discursos de odio y llamadas a la violencia. En 2014, la Relatora Especial sobre Asuntos de las Minorías del Consejo de Derechos Humanos de la ONU expresó su preocupación por la difusión de información errónea, incitación al odio e incitación a la violencia, discriminación y hostilidad en los medios de comunicación e Internet, especialmente dirigida contra una comunidad minoritaria. La creciente tensión en línea ha ido en paralelo con casos de violencia real que han dejado cientos de muertos y miles de desplazados. Un desafío en este proceso se refiere a las minorías étnicas y religiosas. En 2013, 43 personas murieron a causa de los enfrentamientos que estallaron tras una disputa en el estado de Rakhine, en la parte occidental del país.Un año antes, más de 200 personas fueron asesinadas y miles desplazadas 37 a causa de la violencia étnica, que estalló tras un presunto caso de violación. En este contexto, la rápida aparición de nuevos espacios en línea, aunque para una fracción de la población, ha reflejado algunas de estas tensiones profundamente arraigadas en una nueva forma.

Lidiar con la intolerancia y el discurso de odio en línea es un problema emergente. Facebook se ha convertido rápidamente en la plataforma elegida por aquellos ciudadanos que dan sus primeros pasos en línea. En este ambiente ha habido individuos y grupos, que han abanderado un uso más agresivo del medio, especialmente al sentirse protegidos por un sentido de rectitud y por afirmar estar actuando en defensa del interés nacional. Las figuras políticas también han utilizado los medios en línea para causas particulares. En las redes sociales, ha habido el uso de términos despectivos en referencia a las minorías.Ante esta compleja situación, una variedad de actores ha comenzado a movilizarse, buscando ofrecer respuestas que puedan evitar más violencia. Facebook ha tratado de asumir un papel más activo en el seguimiento de los usos de la plataforma de red social en Myanmar, desarrollando asociaciones con organizaciones locales y haciendo accesibles en birmano directrices sobre cómo informar problemas.

La sociedad civil local ha constituido una voz fuerte al condenar abiertamente la difusión del discurso de odio en línea, pero al mismo tiempo reclama alternativas a la censura. Entre las respuestas más innovadoras se encuentra Panzagar, que en birmano significa "discurso floral", una campaña lanzada por la bloguera y activista Nay Phone Latt para oponerse abiertamente al discurso de odio. El objetivo de la iniciativa era ofrecer un ejemplo alegre de cómo las personas pueden interactuar, tanto en línea como fuera de línea.Los activistas locales se han centrado en las soluciones locales, en lugar de tratar de movilizar a la sociedad civil global sobre estos temas. Esto contrasta con algunas otras campañas en línea que han podido atraer la atención del mundo hacia problemas relativamente desatendidos. Iniciativas como las impulsadas por la Coalición Save Darfur para la guerra civil en Sudán, o la organización Invisible Children con la campaña Kony2012 que denunciaba las atrocidades cometidas por el Lord Resistance Army, son ejemplos populares. Como han señalado los comentarios sobre estas campañas, tales respuestas globales pueden tener repercusiones negativas en la capacidad de encontrar soluciones locales.

Etiopía

2019–2020

La rivalidad étnica de larga data en Etiopía entre el pueblo oromo y el pueblo amhara encontró un campo de batalla en Facebook, lo que generó discursos de odio, amenazas, desinformación y muertes. Facebook no tiene verificadores de datos que hablen ninguno de los idiomas dominantes que se hablan en Etiopía ni proporcionan traducciones de las Normas comunitarias, por lo tanto, el discurso de odio en Facebook no se controla en gran medida en Etiopía. En cambio, Facebook confía en los activistas para señalar posibles discursos de odio y desinformación, pero muchos activistas agotados se sienten maltratados.

En octubre de 2019, el activista etíope Jawar Mohammed anunció falsamente en Facebook que la policía lo iba a detener, citando tensiones religiosas y étnicas. Esto llevó a la comunidad a protestar por su supuesta detención y las tensiones raciales y étnicas, que provocaron más de 70 muertes.

Una campaña de desinformación se originó en Facebook centrada en el popular cantante etíope, Hachalu Hundessa, del grupo étnico Oromo. Las publicaciones acusaban a Hundessa de apoyar a su controvertido primer ministro Abiy Ahmed, a quien los nacionalistas oromo desaprobaban por atender a otros grupos étnicos. Hundessa fue asesinada en junio de 2020 luego de las publicaciones de odio en Facebook, lo que provocó la indignación pública. Los usuarios de Facebook culparon al pueblo Amhara por el asesinato de Hundessa sin ninguna evidencia en un largo hilo de contenido odioso. Según The Network Against Hate Speech, muchas publicaciones de Facebook pedían "ataques genocidas contra un grupo étnico o una religión, o ambos al mismo tiempo, y ordenar a las personas que quemen las propiedades de los civiles, los maten brutalmente y los desplacen".La violencia en las calles y en Facebook escaló hasta el punto de que el gobierno etíope bloqueó Internet durante tres semanas. Sin embargo, los países vecinos aún podían publicar y acceder al contenido de odio del asunto, y los activistas voluntarios no podían acceder a Internet para denunciar el discurso de odio. Por lo tanto, "hay horas de video que provienen de la comunidad de la diáspora, contenido extremista, que dice que debemos exterminar a este grupo étnico", según el profesor Endalk Chala de la Universidad de Hamline.

Los funcionarios de Facebook se aventuraron a Etiopía para investigar, pero no dieron a conocer sus hallazgos. Facebook anunció que está contratando moderadores que pueden hablar amárico y otros idiomas en Etiopía, pero no proporcionó muchos detalles.finales de 2020-2021

El discurso de odio en línea tuvo lugar durante la Guerra de Tigray, en la que en noviembre de 2020 comenzaron el conflicto militar y los crímenes de guerra de todos los bandos, que posiblemente constituyan crímenes de lesa humanidad. En el discurso de odio en las redes sociales en línea de noviembre de 2021, periodistas, Los activistas llamaron "traidores" a los tigrayanos étnicos, pidieron a los vecinos que los "desmalezaran" y pidieron a las autoridades que detuvieran a los tigrayanos étnicos en "campos de concentración". Se llevaron a cabo detenciones masivas de personas de etnia tigrayana, con justificación legal federal en virtud del estado de emergencia etíope de 2021.

Compañías privadas

Los intermediarios de Internet han desarrollado definiciones dispares de discurso de odio y pautas para regularlo. Algunas empresas no utilizan el término discurso de odio, pero tienen una lista descriptiva de términos relacionados.

Yahoo!

Los términos de servicio de Yahoo! prohíben la publicación de "contenido que sea ilegal, dañino, amenazante, abusivo, acosador, tortuoso, difamatorio, vulgar, obsceno, calumnioso, invasivo de la privacidad de otra persona, odioso o racial, étnico o de otra manera objetable. "

Gorjeo

En diciembre de 2017, Twitter comenzó a aplicar nuevas políticas contra el discurso de odio, prohibiendo varias cuentas y estableciendo nuevas pautas sobre lo que se permitirá en su plataforma.Hay una página completa en el Centro de ayuda de Twitter dedicada a describir su Política de conducta odiosa, así como sus procedimientos de aplicación. La parte superior de esta página dice: "La libertad de expresión significa poco si las voces se silencian porque las personas tienen miedo de hablar. No toleramos el comportamiento que acosa, intimida o utiliza el miedo para silenciar la voz de otra persona. Si ve algo en Twitter que viola estas reglas, por favor infórmenos". La definición de Twitter de discurso de odio va desde "amenazas violentas" y "deseos de daño físico, muerte o enfermedad de individuos o grupos" hasta "difamaciones, epítetos, tropos racistas y sexistas u otro contenido repetido y/o no consensuado que degrada a alguien".

Los castigos por infracciones van desde suspender la capacidad de un usuario para twittear hasta que elimine su publicación ofensiva/de odio hasta la eliminación total de una cuenta. En un comunicado posterior a la implementación de sus nuevas políticas, Twitter dijo: "En nuestros esfuerzos por ser más agresivos aquí, podemos cometer algunos errores y estamos trabajando en un sólido proceso de apelación"... "Evaluaremos e iteramos sobre estos cambios en los próximos días y semanas, y lo mantendremos informado sobre el progreso en el camino". Estos cambios se producen en un momento en el que se están tomando medidas para evitar el discurso de odio en todo el mundo, incluidas nuevas leyes en Europa que imponen multas a los sitios que no pueden abordar las denuncias de discurso de odio en 24 horas.

Youtube

YouTube, una subsidiaria de la empresa de tecnología Google, permite una fácil distribución y acceso al contenido para cualquier creador de contenido, lo que crea la oportunidad para que la audiencia acceda a contenido que se desplaza hacia la derecha o hacia la izquierda de la ideología "moderada" común en los medios de comunicación principales. YouTube brinda incentivos a los creadores de contenido popular, lo que lleva a algunos creadores a optimizar la experiencia de YouTuber y publicar contenido impactante que puede promover ideas extremistas y llenas de odio. La diversidad de contenido y la monetización en YouTube dirige a una amplia audiencia al contenido potencialmente dañino de los extremistas. YouTube permite que los creadores se identifiquen personalmente, lo que facilita que los suscriptores jóvenes establezcan una relación parasocial con ellos y actúen como clientes "regulares". En 2019,pero los creadores de contenido radical todavía tienen sus canales y suscriptores para mantenerlos culturalmente relevantes y financieramente a flote.

YouTube ha esbozado una "política de incitación al odio" clara en medio de varias otras políticas de usuario en su sitio web. La política está redactada de la siguiente manera: "Fomentamos la libertad de expresión y tratamos de defender su derecho a expresar puntos de vista impopulares, pero no permitimos el discurso de odio. El discurso de odio se refiere al contenido que promueve la violencia o tiene el objetivo principal de incitar odio contra individuos o grupos basado en ciertos atributos, tales como: raza u origen étnico, religión, discapacidad, género, edad, condición de veterano, orientación sexual/identidad de género". YouTube ha incorporado un sistema de informes de usuarios para contrarrestar la tendencia creciente del discurso de odio.Entre los disuasivos más populares contra el discurso de odio, los usuarios pueden denunciar de forma anónima a otro usuario por contenido que consideren inapropiado. Luego, el contenido se revisa según la política de YouTube y las restricciones de edad, y se elimina o se deja solo.

Facebook

Los términos de Facebook prohíben contenido que sea dañino, amenazante o que tenga potencial para despertar el odio e incitar a la violencia. En sus estándares comunitarios, Facebook explica que "Facebook elimina el discurso de odio, que incluye contenido que ataca directamente a las personas en función de su: raza, etnia, origen nacional, afiliación religiosa, orientación sexual, sexo, género o identidad de género, o discapacidades o enfermedades graves".."Además, establece que "Permitimos el humor, la sátira o los comentarios sociales relacionados con estos temas, y creemos que cuando las personas usan su identidad auténtica, son más responsables cuando comparten este tipo de comentarios. Por esa razón, les pedimos a los propietarios de las páginas asocie su nombre y perfil de Facebook con cualquier contenido que no sea sensible, incluso si ese contenido no viola nuestras políticas. Como siempre, instamos a las personas a ser conscientes de su audiencia al compartir este tipo de contenido".

Instagram, una plataforma para compartir fotos y videos propiedad de Facebook, tiene pautas de incitación al odio similares a las de Facebook, pero no está dividida en niveles. Las Pautas de la comunidad de Instagram también prohíben la desinformación, la desnudez, la glorificación de las autolesiones y la publicación de contenido protegido por derechos de autor sin autorización.

Las políticas de incitación al odio de Facebook son aplicadas por 7500 revisores de contenido, así como por muchos monitores de inteligencia artificial. Debido a que esto requiere una toma de decisiones difícil, surge controversia entre los revisores de contenido sobre la aplicación de las políticas. Algunos usuarios parecen sentir que la aplicación es inconsistente. Un ejemplo anterior adecuado son dos publicaciones separadas pero igualmente gráficas que deseaban la muerte a miembros de una religión específica. Ambas publicaciones fueron marcadas por los usuarios y revisadas por el personal de Facebook. Sin embargo, solo se eliminó uno a pesar de que tenían sentimientos casi idénticos. En una cita sobre el discurso de odio en la plataforma, el vicepresidente de operaciones globales de Facebook, Justin Osofky, declaró: "Lamentamos los errores que hemos cometido; no reflejan la comunidad que queremos ayudar a construir... Debemos hacerlo mejor. "

Ha habido controversia adicional debido a la especificidad de las políticas de incitación al odio de Facebook. En muchas ocasiones ha habido informes de actualizaciones de estado y comentarios que los usuarios sienten que son insensibles y transmiten odio. Sin embargo, estas publicaciones técnicamente no infringen ninguna política de Facebook porque su discurso no ataca a otros según la lista de clases protegidas de la empresa. Por ejemplo, la declaración "Las reporteras deportivas deben ser golpeadas en la cabeza con discos de hockey" no se consideraría discurso de odio en la plataforma de Facebook y, por lo tanto, no se eliminaría. Si bien la empresa protege contra el odio basado en el género, no protege contra el odio basado en la ocupación.

Facebook ha sido acusado de tener prejuicios al vigilar el discurso de odio, citando anuncios de campañas políticas que pueden promover el odio o la desinformación que han tenido un impacto en la plataforma. Facebook ajustó sus políticas después de recibir reacciones violentas, acusaciones y grandes corporaciones retiraron sus anuncios de la plataforma para protestar por el manejo poco estricto del discurso de odio y la desinformación por parte de la plataforma. A partir de 2020, los anuncios de campañas políticas tienen una función de "bandera" que señala que el contenido es de interés periodístico pero que puede violar algunas pautas de la comunidad.

Facebook también trata de acomodar a los usuarios que promueven otro contenido de incitación al odio con la intención de criticarlo. En estos casos, se requiere que los usuarios dejen en claro que su intención es educar a los demás. Si esta intención no está clara, Facebook se reserva el derecho de censurar el contenido. Cuando Facebook marca inicialmente el contenido que puede contener discurso de odio, lo designa en una escala de Nivel 1, 2 y 3, según la gravedad del contenido. El nivel 1 es el más grave y el nivel 3 es el menos. El nivel 1 incluye cualquier cosa que transmita "discursos violentos o apoyo a la muerte/enfermedad/daño". El nivel 2 se clasifica como contenido que difama la imagen de otro usuario mental, física o moralmente. El Nivel 3 incluye cualquier cosa que potencialmente pueda excluir o discriminar a otros, o que use calumnias sobre grupos protegidos, pero no necesariamente se aplica a argumentos para restringir la inmigración o críticas a las políticas de inmigración existentes.

En marzo de 2019, Facebook prohibió el contenido que apoyaba el nacionalismo blanco y el separatismo blanco, extendiendo una prohibición anterior de contenido de supremacía blanca. En mayo de 2019, anunció prohibiciones a varias personas destacadas por violaciones de su prohibición del discurso de odio, incluidos Alex Jones, Louis Farrakhan, Milo Yiannopoulos, Laura Loomer y Paul Nehlen.

En 2020, Facebook agregó pautas al Nivel 1 que prohíben la cara negra, las comparaciones raciales con animales, los estereotipos raciales o religiosos, la negación de eventos históricos y la cosificación de las mujeres y la comunidad LGBTQIA+.

El discurso de odio en Facebook e Instagram se cuadruplicó en 2020, lo que llevó a la eliminación de 22,5 millones de publicaciones en Facebook y 3,3 millones de publicaciones en Instagram solo en el segundo trimestre de 2020.

Microsoft

Microsoft tiene reglas específicas sobre el discurso de odio para una variedad de sus aplicaciones. Su política para teléfonos móviles prohíbe las aplicaciones que "contengan cualquier contenido que promueva la discriminación, el odio o la violencia en función de consideraciones de raza, etnia, origen nacional, idioma, género, edad, discapacidad, religión, orientación sexual, condición de veterano o pertenencia a cualquier otro grupo social”. La compañía también tiene reglas con respecto a los juegos en línea, que prohíben cualquier comunicación que sea indicativa de "discurso de odio, temas religiosos controvertidos y eventos históricos o actuales sensibles".

Tik Tok

TikTok carece de pautas claras y control sobre el discurso de odio, lo que permite que la intimidación, el acoso, la propaganda y el discurso de odio se conviertan en parte del discurso normal en TikTok. Los grupos de odio de extrema derecha y las organizaciones terroristas prosperan en TikTok al difundir y alentar el odio a una audiencia de tan solo 13 años. Los niños son ingenuos y fácilmente influenciables por otras personas y mensajes, por lo tanto, es más probable que escuchen y repitan lo que se les muestra o les dice. Internet no cuenta con un espacio excesivamente monitoreado que garantice la seguridad de los niños, por lo que mientras Internet sea pública, los niños y adolescentes seguramente se encontrarán con discursos de odio. A partir de ahí, los jóvenes adolescentes tienden a dejar que su curiosidad los lleve a promover su interés e investigar ideas radicales.

Sin embargo, los niños no pueden responsabilizarse por sus acciones de la manera en que los adultos pueden y deben, culpando no solo a la persona que publicó el contenido vulgar, sino también a la plataforma de redes sociales en sí. Por lo tanto, TikTok es criticado por su manejo del discurso de odio en la plataforma. Si bien TikTok prohíbe la intimidación, el acoso y cualquier discurso vulgar o de odio en sus Términos y condiciones, TikTok no ha estado activo el tiempo suficiente como para haber desarrollado un método efectivo para monitorear este contenido. Otras plataformas de redes sociales como Instagram, Twitter y Facebook han estado activas el tiempo suficiente para saber cómo combatir el discurso de odio y el contenido vulgar en línea, pero la audiencia en esas plataformas tiene la edad suficiente para asumir la responsabilidad de los mensajes que difunden.

TikTok, por otro lado, tiene que asumir cierta responsabilidad por el contenido distribuido a su audiencia joven. Los usuarios de TikTok deben tener al menos 13 años de edad, sin embargo, ese requisito se puede omitir fácilmente, ya que las aplicaciones no pueden acceder físicamente a la edad de los usuarios. El investigador Robert Mark Simpson concluyó que combatir el discurso de odio en los medios dirigidos a los jóvenes "podría parecerse más a las regulaciones que rigen el entretenimiento para adultos que a las prohibiciones sobre la negación del Holocausto".

Alfabetización mediática e informacional

La alfabetización mediática e informacional tiene como objetivo ayudar a las personas a participar en una sociedad digital al poder usar, comprender, investigar, crear, comunicar y pensar críticamente; al tiempo que puede acceder, organizar, analizar, evaluar y crear mensajes de manera efectiva en una variedad de formas.

La educación para la ciudadanía se centra en preparar a las personas para que sean ciudadanos informados y responsables mediante el estudio de los derechos, las libertades y las responsabilidades, y se ha empleado de diversas formas en sociedades que emergen de conflictos violentos. Uno de sus principales objetivos es generar conciencia sobre los derechos políticos, sociales y culturales de las personas y los grupos, incluida la libertad de expresión y las responsabilidades e implicaciones sociales que de ella se derivan. La preocupación de la educación ciudadana con el discurso de odio es doble: abarca el conocimiento y las habilidades para identificar el discurso de odio y debería permitir a las personas contrarrestar los mensajes de odio.Uno de sus retos actuales es adaptar sus objetivos y estrategias al mundo digital, aportando los conocimientos y habilidades no solo argumentativos sino también tecnológicos que un ciudadano puede necesitar para contrarrestar el discurso de odio en la red.

La alfabetización informacional no puede evitar cuestiones como los derechos a la libertad de expresión y la privacidad, la ciudadanía crítica y el fomento del empoderamiento para la participación política. Las alfabetizaciones múltiples y complementarias se vuelven críticas. La aparición de las nuevas tecnologías y las redes sociales ha jugado un papel importante en este cambio. Los individuos han pasado de ser meros consumidores de mensajes mediáticos a productores, creadores y curadores de información, dando como resultado nuevos modelos de participación que interactúan con los tradicionales, como votar o afiliarse a un partido político. Las estrategias de enseñanza están cambiando en consecuencia, desde fomentar la recepción crítica de los mensajes de los medios hasta incluir el empoderamiento de la creación de contenido de los medios.

El concepto mismo de alfabetización mediática e informacional continúa evolucionando, siendo aumentado por la dinámica de Internet. Está comenzando a abarcar temas de identidad, ética y derechos en el ciberespacio. Algunas de estas habilidades pueden ser particularmente importantes al identificar y responder al discurso de odio en línea.

Serie de iniciativas dirigidas tanto a brindar información como herramientas prácticas para que los internautas sean ciudadanos digitales activos:

La educación también es vista como una herramienta contra el discurso de odio. Laura Geraghty del 'Movimiento No Hate Speech' afirmó: "La educación es clave para prevenir el discurso de odio en línea. Es necesario crear conciencia y empoderar a las personas para que se conecten a Internet de manera responsable; sin embargo, aún se necesitan los antecedentes e instrumentos legales para enjuiciar los delitos de odio, incluido el discurso de odio en línea, de lo contrario, el aspecto preventivo no ayudará".