¿Qué hacen las redes sociales para proteger a los menores? ¿Es suficiente?
- 2026-02-17
- Autor: Te Lo Explico
Madrid.- El Gobierno ha acordado este martes instar a la Fiscalía General del Estado a investigar y, en su caso, perseguir posibles delitos de violencia sexual digital cometidos contra menores en las principales redes sociales, X, TikTok o las de Meta. ¿Qué hacen las plataformas en este ámbito? ¿Es suficiente?
La decisión del Ejecutivo se apoya en un informe técnico elaborado por expertos de varios ministerios sobre las responsabilidades penales en la generación y difusión de contenidos sexuales y pornografía infantil a través «deepfakes» (ultrafalsificaciones).
El objetivo es proteger la seguridad de los niños, su imagen, su intimidad y su libertad y evitar situaciones como la de Grok, la inteligencia artificial de X, que en apenas once días generó más de 3 millones de fotos de desnudos, incluyendo 23.000 de menores.
Así, España se suma a los países e instituciones del entorno que ya están tomando medidas al respecto. Por ejemplo, este martes la Comisión de Protección de Datos de Irlanda (DPC), uno de los principales reguladores del sector en la Unión Europea (UE), anunció que ha abierto una investigación sobre Grok.
La vigilancia en las redes no es suficiente
Las plataformas tienen herramientas de vigilancia, pero están basadas, precisamente, en inteligencia artificial (IA), «con los sesgos y errores que eso conlleva». También cuentan con equipos humanos que revisan si el contenido es legal y si se puede o no difundir, pero las grandes tecnológicas subcontratan estos servicios con condiciones muy precarias, señala a EFE Francisco José García Ull.
Para este profesor de Análisis de Datos, Privacidad, Ética e Inteligencia Artificial en la Universidad Europea de Valencia, la propia comunidad de la red social también actúa como «un filtro» y tiene mecanismos para denunciar imágenes con contenido ilegal.
«Pero lo cierto es que todas estas medidas para nada son suficientes y no son transparentes», resume García Ull, quien pone como ejemplo lo sucedido este pasado enero con Grok. Tras numerosas quejas en todo el mundo, la compañía de Elon Musk se vio obligada a limitar la polémica herramienta que permite manipular y publicar imágenes de personas que han sido desnudadas digitalmente.
Este experto opina que todas estas herramientas de control de las tecnológicas llegan tarde y son insuficientes: hay que hacer algo más a priori y medidas que sean más efectivas.
Conciencia social y educación
Desde su punto de vista, hay que trabajar por una conciencia social y una educación para que quede claro que todo lo que se comparte en internet puede terminar siendo usado en nuestra contra, pero sobre todo son esenciales las leyes: en Europa la nueva ley de IA, que ya está en marcha y que tiene como objetivo evitar que pasen estas cosas.
De hecho, apunta, esta norma tiene un apartado específico sobre los «deepfakes».
Cuando se trate de «contenido sexual de menores, no hay duda, no hay zonas grises, esto ha de perseguirse», recalca García Ull.
Pero cuando el «deepfake» se utilice para hacer, por ejemplo, un chiste sobre una persona poderosa, «debemos permitir que esto se pueda hacer. Este es el gran debate, la libertad de expresión».
En todo caso, «las leyes tienen que ser duras y actuar en el fondo y no solo en el fin».
Las redes se defienden
Aunque las plataformas consultadas por EFE no han opinado sobre el anuncio del Gobierno, en los últimos tiempos han defendido sus actuaciones.
Cuando saltó el escándalo el pasado enero, X tuvo que poner freno al uso de su IA. La propia red decidió implementar medidas tecnológicas para evitar que la cuenta de Grok permitiera la edición de imágenes de personas reales con ropa reveladora, como bikinis.
Desde entonces, la restricción afecta a todos los usuarios, incluidos los suscriptores de pago, porque X está comprometida con ser «una plataforma segura para todos». «Mantenemos una política de tolerancia cero con cualquier forma de explotación sexual infantil, desnudez no consentida y contenido sexual no deseado», puntualizó en su día.
También afirmó que tomaría medidas contra las cuentas que violan sus reglas y denunciaría a las que buscan material de explotación sexual infantil.
Por su parte, Meta siempre defiende que su postura es extremadamente firme contra las imágenes íntimas no consentidas, ya sean reales o generadas por IA. Compartirlas es una de las infracciones más graves de su política y la compañía las elimina -dice- cuando las encuentra.
En sus normas de comunidad Meta, propietaria de Instagram o Facebook, señala, por ejemplo, que no permite contenido, actividades o interacciones para explotar a personas a cambio de dinero, favores o imágenes íntimas (sextorsión).
Políticas separadas para los menores
Respecto a los menores, la compañía cuenta con políticas separadas. También en este apartado asegura ser extremadamente estricta contra la explotación sexual infantil, ya sea real o generada por IA; afirma eliminar este contenido, así como las cuentas que lo comparten, siempre que tiene conocimiento de ello.
Sus herramientas de IA (Meta AI y AI Studio) están entrenadas para ignorar las peticiones para crear imágenes de desnudos o tomar imágenes de personas vestidas y desvestirlas, según la compañía.
Meta no permite que las denominadas aplicaciones de desnudez se anuncien en sus plataformas. Recientemente emprendió acciones legales contra una empresa con sede en Hong Kong que intentaba repetidamente anunciarlas, lo que demuestra «la seriedad» con la que abordan este asunto, escribe la compañía en su web.
(EFE)
Etiquetas
Más Noticias de Tecnología
Noticias Más Leídas
Divisas
1 USD = 61.67 DOP
1 EUR = 70.06 DOP



















