No son los videojuegos: foros, chats y comunidades gamer, los espacios donde se cuece la radicalización
- Harley Nuñez

- 15 oct
- 2 Min. de lectura

Cuando pensamos en radicalización digital, usualmente pensamos en redes sociales clásicas, plataformas de video o foros políticos. Sin embargo, estudios recientes han puesto la mirada en otro ámbito menos visibilizado: los espacios sociales vinculados al mundo gamer —foros de mods, chats de videojuegos, plataformas de livestreaming, servidores privados como Discord, etc. Allí, advierten los expertos, se fraguan muchas de las actividades extremistas.
¿Qué ocurre realmente?
Extremistas ya no solo usan redes sociales convencionales. Se infiltran en comunidades gamer, usan chats de juegos, foros de modding, salas de voz y mensajería para buscar jóvenes vulnerables, con sentido de pertenencia, buscando comunidad.
El contenido extremista muchas veces se comunica disfrazado de humor, de símbolos visuales, memes, jerga propia de gamers, lo que dificulta la identificación por moderadores automáticos.
Los foros de mods (lugares donde se comparten modificaciones de juegos, skins, mapas personalizados, etc.) han sido menos estudiados, pero se ha encontrado que muchas modificaciones tienen contenido de odio, y los foros donde se discuten y comparten esas mods pueden servir de caldo de cultivo para ideas extremistas.
Algunos estudios psicológicos señalan que quienes experimentan “fusión de identidad” con la cultura gamer —es decir, cuando “ser gamer” pasa a formar parte muy fuerte de la identidad de uno— tienen mayor probabilidad de adoptar comportamientos agresivos, pensamientos racistas o violento, especialmente si además se combinan con aislamiento social, apego inseguro o soledad.
¿Por qué sabemos tan poco todavía?
Opacidad de los espacios: Muchos de estos chats y foros son privados, semiocultos o requieren invitaciones; pocas instancias de moderación pública o transparencia.
Dificultad para moderar contenido sutil: Los extremistas usan memes, símbolos codificados, discursos velados; los algoritmos automáticos tienen problemas para diferenciarlos de humor, sátira o discurso político legítimo.
Desplazamiento entre plataformas: Cuando una comunidad es regulada o expulsada de una plataforma, migra a otra menos regulada (Discord, foros de mods, servidores privados).
Pocas investigaciones profundas: Aunque hay algunos estudios recientes, faltan datos longitudinales, estudios locales, comparaciones entre géneros, edades, culturas, etc.; también falta visibilidad pública de estos hallazgos.

Consecuencias posibles
Jóvenes expuestos a contenidos extremistas sin darse cuenta podrían desarrollar creencias radicales o ser reclutados para causas extremistas.
El tráfico web hacia grupos o comunidades ideológicamente radicalizadas podría aumentar, reduciendo la eficacia preventiva de redes sociales convencionales.
Posibles daños sociales más amplios: polarización, intolerancia, violencia verbal o real fomentada por estos círculos.
¿Qué se debería hacer?
Que plataformas de juegos, servicios de streaming, foros de mods se sumen a políticas de moderación más robustas, con transparencia, revisiones humanas y automáticas más sensitivas al contexto gamer.
Fomentar educación digital entre jugadores, familias, profesores, para reconocer señales de contenido extremista, y crear espacios seguros de diálogo.
Investigaciones más profundas: estudios con seguimiento de comunidades, casos reales, perfiles psicológicos, cómo se produce el paso de “jugar y estar en chat” a “participar activamente en ideologías radicales”.
Colaboraciones entre gobiernos, academia, plataformas de gaming, y organizaciones de prevención de extremismo.





Comentarios