Para la integridad del debate público y protección de los derechos de personas
- Chronos
- 5 dic 2025
- 2 Min. de lectura

Hoy circulan en redes sociales cientos de miles de videos y audios manipulados que se utilizan para cometer fraudes, engañar a familias, pedir depósitos, suplantar identidad y ofrecer inversiones inexistentes o realizar extorsiones cada vez más sofisticadas.
Los casos de fraude con la inteligencia artificial han aumentado en más de un 2 mil por ciento desde el 2022 hasta la fecha, y miles de víctimas han perdido sus ahorros, patrimonio y, lo más importante, su tranquilidad.
Las consecuencias son profundas, se erosiona la confianza entre los usuarios, se facilita la comisión del delito sin que las víctimas puedan distinguir su voz o un mensaje o un video proveniente de lo es la inteligencia artificial. O también, igual, algún tipo de fraude que se puede generar hacia alguna institución bancaria o de alguna autoridad.
La frontera entre lo real y lo fabricado se vuelve cada vez más difícil de identificar, dejando a millones de personas expuestas y en completa vulnerabilidad. Nuestro marco normativo no está preparado para enfrentar esta situación.
Las leyes mexicanas fueron diseñadas antes de esta masificación de la inteligencia artificial generada. No reconoce legalmente el contenido sintético, no exige que se identifique, no impone obligaciones claras a las plataformas para evitar precisamente ese tipo de fraude a los usuarios.
Mantener una regulación es muy importante porque es proteger a los ciudadanos, y sabemos que hoy más que nunca tenemos que protegerlos del engaño, de la extorsión y sobre todo de lo que es el robo.
Por eso, presentamos esta iniciativa que plantea que cualquier contenido generado, editado o alterado por la inteligencia artificial sea claramente identificado para personas que lo están utilizando; que las plataformas en redes sociales y servicios digitales cumplan con la obligación de transparencia para prevenir fraudes.
Que la autoridad tenga facultades para supervisar el etiquetado, exigir correcciones y sancionar prácticas destinadas a ocultar contenidos sintéticos con fines de engaño.
Aquí no se prohíbe la tecnología, no se censura la creatividad, no se frena la innovación. Simplemente se establece una regla básica: que la gente sepa cuando está viendo o está escuchando un video con la inteligencia artificial, especialmente cuando es un contenido que puede utilizarse para cometer algún tipo de delitos.
Es una medida que ya se aplica en plataformas globales, como en TikTok, y que varios países han comenzado a incorporar en sus marcos regulatorios.
Esa reforma protege a cualquiera y, sobre todo, a quien más lo necesita: a las personas que han sido víctimas de fraudes digitales, de llamadas con voces falsas, de videos creados para pedir dinero, de inversionistas piratas, de extorsiones o de amenazas construidos con lo que es la inteligencia artificial.
Es un primer paso urgente y necesario. La inteligencia artificial llegó para quedarse. Nuestra responsabilidad es asegurar que se use de forma adecuada y en forma clara, para prevenir abusos y detener los fraudes.
Concluyo: por eso, hoy pido su respaldo no para frenar el futuro, sino para garantizar que ese futuro llegue con ética, con responsabilidad y con un compromiso firme con la seguridad y protección precisamente de los ciudadanos.



Comentarios