El auge de la inteligencia artificial (IA) en la creación de imágenes íntimas no consentidas (deepfakes sexuales) en México es un fenómeno en rápida expansión, impulsado por la accesibilidad de herramientas de inteligencia artificial generativa.
Estas permiten crear o manipular fotos y videos en segundos a partir de imágenes públicas de redes sociales, insertando rostros reales en cuerpos desnudos o en actos sexuales simulados, sin que las víctimas hayan proporcionado ningún material íntimo real.
Entre el 95% y el 99% de los deepfakes pornográficos en internet representan a mujeres, y la gran mayoría de las víctimas son niñas, adolescentes y mujeres jóvenes o adultas.
El problema se ha agravado por la facilidad de uso de aplicaciones y chatbots de IA, los cuales han multiplicado la producción de este tipo de contenido.
En México, los casos más visibles ocurren en entornos escolares y entre menores:
- Zacatecas (noviembre de 2025): Al menos 400 alumnas de secundaria de la Escuela Técnica No. 1 “Lázaro Cárdenas” fueron víctimas: tres estudiantes varones manipularon sus fotos con IA para crear y difundir imágenes pornográficas falsas en redes sociales. Solo 80 víctimas presentaron una denuncia formal ante la Fiscalía.
- Sonora (2025): Se reportaron 32 casos de deepfakes sexuales dirigidos exclusivamente contra niñas y mujeres jóvenes, según la organización Sonora Cibersegura.

Daños, acoso y el uso de inteligencia artificial en imágenes y otras cosas
Organismos como UNICEF, en un estudio internacional que incluye a México, señalan que al menos 1.2 millones de niños y niñas en 11 países fueron afectados por manipulaciones deepfake de contenido sexual explícito en el último año. En contextos escolares, esto equivale aproximadamente a 1 de cada 25 niñas o niños por salón.
La violencia digital, que incluye deepfakes, afectó a 10.6 millones de mujeres en México en 2024, según el Módulo de Ciberacoso (Mociba) del INEGI; las mujeres representan la mayoría de las víctimas de ciberacoso (22.2% de las usuarias de internet).
Las víctimas sufren daño psicológico profundo, extorsión, acoso, estigmatización, pérdida de oportunidades educativas o laborales y, en casos extremos, incluso pensamientos suicidas. Se trata de una forma de violencia digital de género que revictimiza a la persona al viralizarse el contenido.

Marco legal estrecho
México cuenta con herramientas previas, pero el marco legal se está actualizando específicamente para la IA. La Ley Olimpia, vigente desde 2021 en la mayoría de las entidades, castiga la difusión no consentida de contenido íntimo con penas de 3 a 6 años de prisión.
Se aplica en algunos casos de deepfakes, pero activistas y legisladores señalan que es insuficiente porque no contempla explícitamente la creación de imágenes falsas generadas por IA, las cuales no son reales:
- Estado de México (diciembre de 2025): Hasta 5 años de prisión y multas por crear o difundir deepfakes íntimos sin consentimiento.
- Ciudad de México (propuesta de marzo-abril de 2026): De 7 a 12 años de prisión específicamente por deepfakes de menores, incluso si son simulados.
- Tlaxcala (marzo de 2026): Reformas al Código Penal con penas de 3 a 5 años por generar contenido íntimo con IA.
- Otras entidades, como San Luis Potosí: Impulsan actualizaciones similares a la Ley Olimpia.
- Nivel federal (marzo de 2026): Se presentó una iniciativa en la Cámara de Diputados para tipificar explícitamente los deepfakes sexuales con penas de 4 a 8 años de prisión, cerrando así los vacíos legales.

Cómo denunciar y herramientas disponibles
- Policía Cibernética en varios estados.
- Plataformas como StopNCII.org para pedir la eliminación de imágenes íntimas no consentidas en sitios web.
- Guardar evidencia: capturas, enlaces y fechas; además, reportar inmediatamente en redes sociales y ante las autoridades.
El auge es real y sigue creciendo debido a la democratización de la IA, pero también hay un movimiento legislativo activo en el periodo 2025-2026 para endurecer las sanciones y reconocerlo como violencia sexual digital.
El desafío principal sigue siendo la rapidez de difusión, el anonimato de los creadores y la brecha entre la tecnología y la regulación.
Las víctimas, principalmente niñas, adolescentes y mujeres, no están solas; existen canales de denuncia y un creciente consenso para proteger la intimidad y la dignidad frente a estas herramientas. Si eres víctima o conoces un caso, actúa rápido con las instancias mencionadas.
Lee: ¿Se debe sancionar manipulación de imágenes con fines sexuales?






