Entrevista

La extrema derecha y el odio en las redes

Entrevista a Julia Ebner


noviembre 2019

¿Cómo operan los grupos de extrema derecha en internet y las redes sociales? ¿Qué es lo que están buscando sus miembros? ¿Cómo entender los constantes discursos de odio? Julia Ebner, investigadora de extremismo en el Instituto para el Diálogo Estratégico en Londres, analiza la actividad virtual de los derechistas radicales.

<p>La extrema derecha y el odio en las redes</p>  Entrevista a Julia Ebner

Usted ha investigado de manera encubierta a varios grupos extremistas con presencia online. ¿Cómo se hace concretamente una investigación así?

En los últimos años se han realizado muchos análisis sobre el extremismo en internet. En particular, se analizó el cambio de lenguaje en grupos extremistas y se examinó el alcance de las campañas y sus grupos destinatarios. Sin embargo, me pareció que faltaba llegar a los seres humanos. Quería comprender mejor los procesos sociales dentro de los grupos extremistas. Es por eso que durante dos años desarrollé diferentes identidades en internet para pasar por distintos procesos de reclutamiento y acceder a los grupos. En algunos casos, también conocí a los miembros de estos grupos offline.

¿Cómo funcionan el reclutamiento y la construcción de grupos tan radicales?

Los grupos de extrema derecha son los que más recurren a Discord, una aplicación común, para reclutar gente. Muchos de estos grupos primero verifican los antecedentes en las cuentas de redes sociales que cada persona especifica en la solicitud. En algunos casos, también elaboran cuestionarios sobre postura ideológica, opiniones políticas o visión cultural. En otros grupos, la religión juega un papel importante. A esto, con frecuencia, le siguen chats de voz o entrevistas. De esa manera se pretende evitar que se inmiscuyan periodistas o agentes de seguridad. Los procesos de reclutamiento se han refinado enormemente tras la marcha de la extrema derecha en Charlottesville en 2017. Por ejemplo, un grupo neonazi de Estados Unidos me pidió que posteara una foto de mi muñeca, con el logotipo del grupo y la fecha, para demostrar que soy blanca. A veces también quieren ver pruebas genéticas para confirmar la ascendencia.

¿Mantuvo la identidad falsa cuando se reunió con miembros individuales?

Al principio no era mi objetivo encontrarme también offline. Por eso, por ejemplo, en mi foto de perfil era rubia. Compré una peluca rubia más tarde. También hubo reuniones offline como parte del proceso de aceptación del movimiento identitario. Tuve que encontrarme con un identitario austríaco en Viena. Después tuve una conversación por Skype con el jefe del movimiento en Escocia, que estuvo involucrado en la creación de la nueva rama británica e irlandesa. Luego fui invitada a una reunión inicial de esta unidad británico-irlandesa en Londres.

Se desarrolló entonces una dinámica propia. Cuando usted repasa esta secuencia: ¿qué ofrecen estos grupos a sus miembros? ¿Qué personas son particularmente receptivas a los contenidos de estos grupos?

Lo triste, en verdad, fue que muchos de los nuevos miembros en los grupos estaban más bien buscando amor, amistad, camaradería e identidad. Una buena parte de ellos estaba pasando por una crisis personal. Esto quedó muy claro, por ejemplo, en el «grupo misógino», donde muchos provenían de relaciones fallidas y sentían que no eran amados. En última instancia, se trata de reemplazar la familia o el círculo de amigos. Eso es exactamente lo que ofrecen estos grupos. Es por eso que el perfil de susceptibilidad es muy diverso. Se postulan personas de diferentes grupos etarios, niveles educativos o situaciones socioeconómicas.

Estas personas tienen algo en común: todas se ven en la necesidad de luchar con una crisis de identidad. En tal estado, todos son susceptibles a la radicalización. En los grupos, la frustración individual se eleva a un nivel colectivo y se le ofrece una explicación. Tiene lugar un proceso de socialización al cual la radicalización y el adoctrinamiento ideológico están, en verdad, subordinados. Dentro del grupo, se desarrolla un vocabulario propio y chistes propios que hacen que todo parezca a veces menos serio. Pero finalmente se define siempre un grupo claro de enemigos y se propaga una ideología extrema.

¿También se ha identificado como mujer en estos grupos misóginos y, por lo tanto, ha adoptado en ellos una identidad femenina?

Depende de cada caso. Me he creado una cuenta especialmente en grupos de mujeres misóginas. Eso fue muy emocionante, porque fue un tipo completamente diferente de radicalización la que encontré aquí: un grupo en el que el odio se dirige no contra un grupo ajeno sino contra sí mismo. A través de mi cuenta masculina, me sumergí también en el lado masculino de esta esfera de opinión. Pero mi interés principal han sido las mujeres misóginas, ya que nunca antes me había encontrado con algo así.

Este grupo tampoco está muy presente en los medios de comunicación.

Exacto. Pero fue interesante, porque en ciertos grupos una es aceptada como mujer incluso con los brazos abiertos. Por ejemplo, en el Movimiento Identitario o en algunos grupos estadounidenses de extrema derecha. Pusieron mucho énfasis en tener mujeres en los primeros puestos, porque eso le da al grupo una imagen de mayor legitimidad e inocuidad. Pero en otros grupos, ser mujer fue un obstáculo que tuve que superar para que me aceptaran. Ese fue el caso del grupo neonazi de Estados Unidos, donde tuve que mostrar resultados de mi examen genético.

¿Qué papel juegan las teorías conspirativas dentro de estos grupos? Vistas desde afuera, estas teorías suenan a menudo muy abstrusas y uno se pregunta cómo alguien puede adherir seriamente a ellas.

En algunos casos se reclutan específicamente teóricos de la conspiración, o bien personas que, según los estudios, tienen mentalidad conspirativa. Por otro lado, las teorías conspirativas también pueden transmitirse como un proceso sutilmente progresivo. Llaman a esto redpilling, en referencia a la película Matrix, donde el componente ideológico es agregado paso a paso. El mejor ejemplo de una teoría conspirativa que genera odio hacia un grupo enemigo es la dirigida contra la elite judía mundial. De esta manera, al miedo personal se le asocia una foto del culpable. En la mayor parte de los casos son temores relacionados con la migración, la violencia sexual, el descenso social o los ataques terroristas. La teoría conspirativa proporciona una explicación fácil y una imagen sencilla del enemigo. Si bien la teoría conspirativa del judío que controla en secreto el mundo entero es muy antigua, esa teoría es vinculada a acontecimientos políticos actuales y a nuevas dinámicas y procesos sociales.

Ahora, si bien suelen defenderse posiciones muy extremas, en última instancia son inofensivas porque el grupo no sale de la red. ¿Es realmente posible distinguir desde afuera en estas plataformas las tendencias peligrosas de las interacciones más bien inofensivas?

El problema es que muchas de estas teorías conspirativas e ideologías pertinentes propagan una especie de amenaza existencial. Las visiones a veces apocalípticas pueden llevar a determinados individuos a dejar de creer en soluciones políticas o metapolíticas. Esto puede promover en gran medida la disposición a usar la violencia. Una guerra racial, cultural o religiosa es entonces la única forma lógica de autodefensa. Esto puede inspirar rápidamente a tales terroristas, tal como lo vimos en Christchurch, Nueva Zelanda, pero también en Estados Unidos e incluso en Halle.

¿Funcionan internet y las redes sociales como catalizadores? La rápida comunicación en red y la veloz radicalización son difíciles de imaginar fuera del espacio digital.

«Catalizador» es el término correcto, porque las dinámicas que he observado online no se diferencian mucho de los procesos de radicalización usuales en las redes fuera de internet. Sin embargo, lo nuevo es la forma en que los grupos se conectan en red y se movilizan internacionalmente. Hoy en día, los grupos marginales pueden hacerse oír mucho más y reclutar miembros más allá de los grupos destinatarios tradicionales. Dado que hay diferentes subculturas en cada país, pueden adaptar específicamente su comunicación y su propaganda. Además, los algoritmos y la infraestructura de la mayoría de las plataformas tecnológicas juegan a su favor. Especialmente en los algoritmos de recomendación, suelen tener preeminencia los contenidos radicales, por lo que uno va a parar rápidamente a cámaras de eco extremistas sin tener necesariamente una tendencia política o ideológica previa.

¿Se pueden diferenciar ciertas dinámicas individuales entre los distintos grupos radicales? Hemos hablado principalmente de grupos de derecha, ¿qué pasa con los grupos islamistas?

En los últimos años han sido mucho más combatidos en internet los grupos islamistas, o al menos su propaganda. Existe la Coalición Global Contra Estado Islámico, una cooperación internacional que trabaja principalmente contra la propaganda de EI. O la fusión de las cuatro principales plataformas tecnológicas, Microsoft, Google, Facebook y Twitter, que trabajaron para que se eliminen vídeos propagandísticos lo más rápido posible y evitar que se vuelvan a cargar en sus páginas. Eso afectó aproximadamente en 90% a la propaganda islamista y no estaba orientado al extremismo de derecha. En consecuencia, los grupos extremistas de derecha han podido trabajar mucho más tiempo sin ser observados por las autoridades y las empresas tecnológicas, y han podido construir su red. Además, los grupos de derecha actuales trabajan más con la sátira y explotan áreas grises, valiéndose del rebranding de símbolos y usando un vocabulario que difiere del de los grupos neonazis tradicionales.

Dicen que las compañías tecnológicas están tratando de detener la radicalización en sus páginas. A menudo, sin embargo, también son objeto de críticas, acusadas de eliminar contenido de odio con poco entusiasmo. ¿Qué opina usted? ¿Las empresas tecnológicas están haciendo lo suficiente?

Diría que en la mayoría de los casos les importa su reputación. Se nota por el hecho de que son más bien reactivas en sus acciones. Teóricamente, tendrían que cambiar todo su modelo de negocio. Los algoritmos también reflejan muy fuertemente la psique humana, y por desgracia nuestra atención repara precisamente en el contenido extremista. Antes nos gustaba ver peleas de gladiadores y aún hoy la violencia atrae nuestra atención. Por lo tanto, se necesitaría un enfoque más humano o un cambio completo en los algoritmos y modelos de negocio de estas empresas. En cualquier caso, la política puede ejercer cierta presión sobre la eliminación de contenidos violentos en la red. Esto debería hacerse no solo en las plataformas grandes, sino también en las plataformas más pequeñas, en su mayoría mucho más extremistas, a veces ultraidentitarias, que se han convertido en verdaderos focos de extremismo. Algunas de ellas están aisladas por completo y permiten que surjan cámaras de eco extremistas en las que se insta al uso de violencia. Aquí la política podría intervenir mucho más.

¿Qué tan bien preparadas están las agencias de seguridad cuando se trata de identificar y monitorear en la red a estos actores radicalizados?

Es necesario ponerse al día. Especialmente después de Christchurch, se notó que el enfoque y los recursos después del 11 de septiembre estaban demasiado puestos en el terrorismo (islamista). Las redes de derecha en internet casi no eran observadas. Se omitió entender mejor toda esta subcultura, para finalmente poder clasificarla adecuadamente. ¿Qué es potencialmente amenazante para la democracia? ¿Qué puede convertirse en violencia? ¿Qué es en realidad solo trolling? En este momento, las autoridades no tienen, ni en Alemania ni en el ámbito internacional, el panorama completo, en términos de grupos online de extrema derecha. Del lado islamista, por el contrario, estamos mucho mejor protegidos.

¿Qué pasa con los grupos de extrema izquierda?

Durante mi investigación, si bien busqué en todas las direcciones ideológicas, traté de reflejar las redes con mayor influencia y que son la mayor amenaza para la democracia y la sociedad. Noté que, precisamente en la extrema derecha, el foco estaba puesto en la disciplina y el orden. Los grupos de extrema derecha están más coordinados y tienen una red más grande que presenta estructuras militares y, por lo tanto, opera de manera mucho más efectiva en el espacio online. Esto se aplica al reclutamiento, la comunicación y las redes internacionales. En el lado de la izquierda, no noté esta coordinación ni tampoco noté tanto foco en la disciplina y el orden.

Por otro lado, también hay una fuerte diferencia ideológica. Tanto en los grupos islamistas como en los de extrema derecha existe un desarrollo muy fuerte del odio contra un grupo extraño, principalmente contra un grupo minoritario. Esto no se da ideológicamente en la izquierda. Allí hay más bien una movilización en respuesta al extremismo de derecha. Especialmente como reacción a Charlottesville, hubo también grupos militantes que querían vengarse. Pero fue solo reactivo y no odio contra un grupo humano enemigo. La excepción es el antiautoritarismo y la movilización anti-Estado de los extremistas de izquierda. Pero en el plano táctico, no son tan refinados ni militarmente organizados como los grupos de derecha. A menudo me dicen que tengo ceguera en el ojo izquierdo, pero cuando se miran objetivamente las diferentes redes, no hay nada comparable a los extremistas de derecha.

Volvamos a su propio rol. Usted ha escrito un libro basado en su investigación de grupos extremistas en línea. ¿Estaría usted en peligro si hace una aparición pública ahora? ¿Hay, por ejemplo, amenazas?

Hay mucha tranquilidad en este momento. He recibido bastantes amenazas en el pasado y me he preparado para amenazas o campañas de odio después del lanzamiento de este libro. Para mí era importante comprender qué impulsa a las personas a integrar estos círculos y cómo sacarlas de ellos nuevamente. He hecho un gran esfuerzo para no revelar la identidad de los extremistas no públicos, así que espero que, a cambio, se me trate humanamente. He visto el costado humano incluso de los radicales más extremos y siento que estos conocimientos podrían usarse como punto de partida para los programas de desradicalización en el espacio online.

Imagino que debe ser difícil lidiar con posiciones radicalizadas y campañas de odio durante muchas horas y aun así lograr tener en cuenta el costado humano.

Es una mezcla. Por supuesto, sentía rechazo ante las bromas racistas o las ideologías con teorías conspirativas que me hubiera gustado refutar de inmediato. Pero, por otro lado, una se da cuenta de que hay mucha motivación humana en este proceso de radicalización y que comienza en muchos casos con la búsqueda de amor o reconocimiento. A veces sentía una gran compasión, especialmente por los miembros jóvenes.

Julia Ebner es escritora e investigadora del extremismo en el Instituto para el Diálogo Estratégico (ISD) de Londres.

Fuente: https://www.ipg-journal.de/interviews/artikel/schrei-nach-liebe-3862/

Traducción: Carlos Díaz Rocca


Artículos Relacionados

Newsletter

Suscribase al newsletter