Análisis de la Ley de Ciberseguridad: Implicaciones y Desafíos con la IA

La ausencia de lineamientos sobre IA en la Ley de Ciberseguridad podría resultar en fallos judiciales inconsistentes.

20 de junio, 2025 Las malas películas nos lo ponen demasiado fácil: el héroe aparece como totalmente bueno, no ofrece dudas al respecto, y el villano es completamente malvado. No existe ambigüedad, nada que pensar.

La Ley de Ciberseguridad en Puebla, también conocida como “Ley Censura”, es una normativa que ha generado un amplio debate en México por sus implicaciones en la protección contra el acoso digital y la libertad de expresión. Fue propuesta por José Luis García Parra, coordinador de Gabinete del gobernador Alejandro Armenta, y aprobada por el Congreso de Puebla en noviembre de 2024, con 35 votos a favor, 5 en contra y 1 abstención. La ley fue publicada el 13 de junio de 2025 y entró en vigor el 14 de junio de 2025.

Su propósito principal es proteger a los ciudadanos de comportamientos dañinos en línea, como insultos y ofensas. No obstante, diversas voces han expresado preocupación por la posibilidad de que esta legislación limite derechos fundamentales, especialmente la libertad de expresión, debido a la vaguedad de sus términos y su potencial aplicación arbitraria.

Principales Riesgos Asociados

Uno de los aspectos más críticos de la Ley de Ciberseguridad es la falta de claridad en la definición de conceptos como “insulto” o “ciberasedio”. Esta ambigüedad podría derivar en interpretaciones erróneas, donde expresiones legítimas, como críticas sociales o comentarios satíricos, sean consideradas infracciones. Esto representa un riesgo para la libertad de expresión, ya que los usuarios podrían optar por abstenerse de participar en debates en línea para evitar sanciones. Asimismo, existe la posibilidad de que la ley sea empleada de forma selectiva para restringir opiniones contrarias a ciertos intereses, afectando la pluralidad en el espacio digital.

Algunas posibilidades son:

1. Silenciamiento de la Disidencia Política y Crítica a Figuras Públicas

La vaguedad en la definición de “insulto” dentro de la ley podría ser utilizada por políticos o figuras públicas para silenciar críticas legítimas. Por ejemplo, comentarios satíricos o cuestionamientos a la gestión pública podrían ser interpretados como “ciberasedio”, restringiendo la libertad de expresión y el debate democrático. Esto generaría un ambiente de miedo, donde los ciudadanos podrían autocensurarse para evitar sanciones, afectando la participación política en línea.

2. Impacto en el Periodismo de Investigación y la Libertad de Prensa

Los periodistas que investigan y publican información sensible podrían ser blanco de esta ley si su trabajo es considerado “ofensivo” por las partes afectadas. Esto no solo intimidaría a los medios, sino que también limitaría su capacidad para exponer corrupción o abusos de poder, debilitando la transparencia y la rendición de cuentas en la sociedad.

3. Aplicación Inconsistente de la Ley

Debido a la falta de definiciones claras sobre qué constituye un “insulto” o “ofensa”, las autoridades podrían interpretar la ley de manera subjetiva. Esto podría resultar en castigos desiguales para casos similares, generando injusticias y confusión. Además, el sistema judicial podría saturarse con casos mal definidos, desviando recursos de problemas más graves.

4. Efecto Inhibidor en el Discurso en Línea

La incertidumbre sobre qué podría ser penalizado bajo esta ley podría llevar a un “efecto inhibidor” (chilling effect), donde las personas evitan expresar opiniones controversiales o críticas por temor a represalias legales. Esto empobrecería el diálogo en línea, reduciendo la diversidad de ideas y la vitalidad de las comunidades digitales.

5. Incapacidad para Adaptarse a los Avances Tecnológicos

Con el rápido desarrollo de nuevas plataformas, herramientas de comunicación y tecnologías emergentes, la ley podría volverse obsoleta o inadecuada. Por ejemplo, no está claro cómo abordaría formas novedosas de interacción en línea o el uso de tecnologías de anonimización. Esto podría resultar en una regulación excesiva de comportamientos inofensivos o en una incapacidad para enfrentar nuevas formas de acoso digital.

6. Enfoque Punitivo en Lugar de Preventivo

La ley parece priorizar el castigo (como multas o prisión) sobre la prevención del ciberacoso. Sin embargo, sancionar después de que ocurre el daño no aborda las causas raíz, como la falta de educación digital o empatía en línea. Esto podría limitar su efectividad a largo plazo, convirtiéndola en una solución superficial en lugar de un cambio estructural.

Principales Afectados

Los sectores más impactados por esta normativa incluyen a periodistas, activistas y usuarios habituales de internet:

Los periodistas, en particular aquellos dedicados a investigaciones sobre temas controversiales, podrían enfrentar acusaciones si sus publicaciones son percibidas como ofensivas. 

Los activistas que cuestionan decisiones gubernamentales también podrían ser blanco de sanciones, limitando su capacidad de incidencia. 

Por su parte, los ciudadanos comunes que interactúan en redes sociales podrían ser señalados por comentarios malinterpretados, lo que reduciría la participación espontánea en plataformas digitales.

El Papel de la Inteligencia Artificial en esta Ley

La inteligencia artificial (IA) agrega una capa de complejidad a la implementación de la ley. 

Tecnologías como los deepfakes, que generan contenido falso pero verosímil, pueden ser utilizadas para difamar o acosar, complicando la identificación de responsables. 

La ausencia de lineamientos específicos en la ley sobre el uso de IA podría resultar en fallos judiciales inconsistentes. 

Además, la dificultad para determinar la autoría de contenidos generados por máquinas plantea retos para quienes sean acusados injustamente, dificultando su defensa.

La tecnología actual ofrece estos riesgos:

Deepfakes: Contenido Falso con Impacto Real

Los deepfakes son videos, audios o imágenes manipulados por IA que imitan de forma realista a personas reales, haciéndolas parecer decir o hacer cosas que nunca ocurrieron. Esta tecnología puede ser utilizada para difamar, acosar o desinformar, lo que encaja en la definición de “ciberasedio” de la ley. Sin embargo, la legislación no menciona cómo manejar este tipo de contenido generado por máquinas, lo que crea problemas significativos:

  • Identificación Difícil: Distinguir un deepfake de contenido auténtico requiere herramientas avanzadas y conocimientos técnicos que no todas las autoridades tienen. Esto puede llevar a errores judiciales, como aceptar un deepfake como evidencia real o rechazar contenido genuino por sospecha de manipulación.
  • Autoría Confusa: Determinar quién creó o difundió un deepfake es un reto debido al anonimato en línea y al uso de intermediarios (como bots). Esto complica la defensa de personas acusadas injustamente, ya que probar su inocencia puede ser casi imposible sin un marco legal claro.

Bots: Amplificadores Automatizados del Daño

Los bots son programas automatizados que realizan tareas en línea, como publicar mensajes o interactuar en redes sociales. En el contexto del acoso, pueden amplificar mensajes ofensivos o coordinar campañas de desprestigio, multiplicando el impacto del “ciberasedio”. Sin embargo, la ley no diferencia entre acciones humanas y automatizadas, lo que genera problemas:

  • Responsabilidad Ambigua: Un usuario podría ser sancionado por interactuar con bots sin saberlo, mientras que los verdaderos responsables (quienes programaron los bots) quedan fuera de alcance.
  • Moderación Insuficiente: Las plataformas digitales no siempre logran identificar y eliminar bots rápidamente, permitiendo que el acoso persista sin que la ley ofrezca soluciones específicas.

Vacíos en la Ley

La ausencia de lineamientos sobre IA en la Ley de Ciberseguridad podría resultar en fallos judiciales inconsistentes. Por ejemplo, un juez podría interpretar un deepfake como prueba válida sin herramientas para verificarlo, o sancionar a alguien por el comportamiento de bots sin considerar su naturaleza automatizada. Esto no solo afecta la justicia, sino también la protección de los derechos individuales en el espacio digital.

¿Cómo protegerse de un deepfake?

De momento no hay una protección total y fácil de implementar por el usuario común, esto es lo más peligroso de este tema, las modernas tecnologías de inteligencia artificial podrían hacer casi imposible identificar que es verdad y qué es mentira.

Lo único que pudiéramos considerar en estos momentos es:

  • En videos, revisar a detalle la calidad del mismo para poder encontrar detalles que muestren que no es real, como movimientos de manos, ojos, gestos acostumbrados, etc.
  • En audios, usar un analizador de voz que pueda contrastar los tonos de la voz, velocidad, etc.
  • En mensaje en X o facebook… Ufff… habrá que aplicar muchos criterios: tales como tiempo de la cuenta, seguidores. La otra situación es una cuenta que no intente suplantar la identidad, que realice mensajes como los que acostumbraba hacer el personaje en cuestión.

En fin, al final, se depende del criterio e intención de la autoridad.

Conclusión

La Ley de Ciberseguridad en Puebla parece tener como objetivo principal proteger a los ciudadanos del acoso digital, una necesidad creciente en el contexto actual. 

Sin embargo, su falta de precisión y los riesgos que plantea para la libertad de expresión requieren una evaluación cuidadosa. 

Es imprescindible ajustar la normativa para equilibrar la seguridad en línea con el respeto a los derechos constitucionales, asegurando que su aplicación no comprometa la participación democrática ni el acceso a la información.

Referencias:

  • Informes de ARTÍCULO 19 sobre las implicaciones de la ley en la libertad de expresión.  
  • Comunicados de la Red de Periodistas de Puebla respecto a los efectos en el ejercicio periodístico.  
  • Declaraciones de Rosa Icela Rodríguez, Secretaría de Gobernación, y Claudia Sheinbaum sobre la posición federal.  
  • Análisis y propuestas de Sociedad Civil México.  
  • Posturas de las diputadas Susana Riestra y Delfina Pozos durante la discusión legislativa.  
Comentarios


Scattered Spider: El Nuevo Fantasma de la Ingeniería Social. ¿Quiénes son y por qué deberían preocuparnos?

…aunque México no ha sido blanco confirmado por el momento, sus características lo vuelven un terreno fértil para este tipo de ataques.

junio 30, 2025

El enojo, esa emoción con final feliz

Al discutir, se incrementa la dopamina y se activan regiones del cerebro asociadas a la adicción, por ello algunas personas inician procesos...

junio 23, 2025




Más de categoría
KIMI K2: LA IA CHINA QUE DESAFÍA A CHATGPT, GEMINI Y GROK

KIMI K2: LA IA CHINA QUE DESAFÍA A CHATGPT, GEMINI Y GROK

Kimi es una invitación a cuestionarnos y a aprovechar la competencia global para construir soluciones más humanas y locales.

julio 17, 2025

¿Podrían tus emociones ser el mayor riesgo de ciberseguridad?

En ciberseguridad, el mayor riesgo puede ser la reacción emocional no controlada de las personas.

julio 15, 2025
LA EPIGENÉTICA

LA EPIGENÉTICA

La epigenética es una disciplina reciente que trata de explicar los efectos de diversos factores internos y externos en...

julio 14, 2025
¿Se fiaría del criterio de ChatGPT para su diagnóstico médico? Por si acaso, busque una segunda opinión

¿Se fiaría del criterio de ChatGPT para su diagnóstico médico? Por si acaso, busque una segunda opinión

En la antigua Grecia, cuando alguien quería conocer su futuro, iba al oráculo de Delfos y preguntaba a la...

julio 11, 2025