A finales del año 2025, la UE, a través de su portal de estrategia digital, publicó un informe de la Ley de Servicios Digitales sobre el panorama de riesgos sistémicos en línea a nivel mundial. Estos se pueden encontrar tanto en plataformas como en motores de búsqueda. Lo que llamó particularmente la atención de esto son los riesgos sistémicos que van desde difundir contenido ilegal o amenazas a derechos y cómo se propagan.
Se hallaron riesgos para la salud mental y cómo proteger a los menores en línea ante tantas tecnologías emergentes como el uso de la IA generativa. Sorprendió que los emojis pueden ser utilizados como un tipo de lenguaje codificado para promover actividades ilegales en línea, algunos para la venta de drogas.
Los emojis utilizados como un nuevo lenguaje para promover el mal
En las observaciones detectadas en los riesgos sistémicos relacionados con el contenido ilegal, se apreció distinta actividad sospechosa tanto en tiendas en línea como AliExpress y redes populares como son X y Facebook. En esta última, se pudo revisar que los ciberdelincuentes están explorando formas para evitar la detección y aplicación de la ley utilizando emojis e insultos. Insinúan cosas en lugar de afirmar de manera explícita.
En X, grupos extremistas eluden los controles con este lenguaje codificado y actualizan los símbolos con la finalidad de reducir los esfuerzos de moderación. En este caso utilizan palabras clave y manipulan imágenes recortándolas y ajustando los colores. En AliExpress solo manipulan imágenes y texto; en gran medida utilizan bots para spamear o acosar a los usuarios.
💊 Emojis used as coded language to promote illegal activities online?
— Digital EU 🇪🇺 (@DigitalEU) April 22, 2026
Some platforms are now detecting emojis used as code for drug sales.
This is one of the key findings of the first EU-wide report on systemic online risks.
Dive in → https://t.co/oAlxoNdogu#DSAForReal pic.twitter.com/OMq0YyIEF5
Respecto al tema de los menores en internet, también se pudo notar que hay adultos que se hacen pasar por menores para llegar a ellos. La verificación de edad sigue siendo un problema para los proveedores; los tutores no han podido gestionar de buena forma esta situación. De igual forma, utilizan emojis para sugerir algunos actos. La sopa de pollo la atribuyen a autolesiones, la pizza, en referencia a materiales de abuso sexual infantil, entre otros.
Los moderadores humanos son los únicos que pueden contribuir a contrarrestar estas actividades
En este informe se destaca a las organizaciones de la sociedad civil que están enfatizando la necesidad de que los moderadores humanos puedan estar capacitados en cada uno de los temas de cultura local, idiomas y contextos en redes sociales. Indican que es necesario crear modelos de detección temprana para identificar tendencias virales, por ejemplo, los retos dañinos. El espectro es demasiado amplio: contenidos ilegales, transcripciones automáticas, uso de filtros en contenido y cualquier cosa que esté perjudicando la experiencia de internet.
Los moderadores deberían hacer frente a la actividad en línea en redes sociales. Si bien es cierto que Meta ya está empezando a controlar la actividad que pueden ver los menores en Instagram, debería ampliarse a más redes y en internet en general. Google debería poder reglamentar el uso de su buscador, considerar la edad del usuario que está frente a él. Veremos si se actúa al respecto, ya que el internet sigue creciendo cada vez más en usuarios y contenidos; y no todo es apropiado para todas las edades.