La nueva cara del fraude digital: Cuando la IA te sugiere el enlace equivocado

Los ataques digitales ya no dependen de errores ortográficos y correos mal redactados. Con la IA el fraude suena como tu jefe, escribe como tu marca y recomienda enlaces que parecen perfectos

25 de noviembre, 2025

La inteligencia artificial ya escribe correos, resume documentos y hasta responde a clientes. Pero hay un ángulo incómodo: también puede recomendar ligas peligrosas con total naturalidad. No porque “quiera”, sino porque fue contaminada o manipulada para hacerlo. Investigaciones recientes demuestran que es posible envenenar un modelo con muy pocas muestras de entrenamiento para implantar “disparadores” que activan comportamientos indebidos, como soltar enlaces maliciosos al ver ciertas frases. El tamaño del modelo no lo salva.

Situación actual. Datos que no conviene ignorar

Los delincuentes no improvisan, usan inteligencia artificial para elevar la precisión, escala y veracidad. En Europa, la policía comunitaria advierte que el crimen organizado ya explota estas tecnologías para crear suplantaciones creíbles en múltiples idiomas y automatizar campañas enteras.

En México, más de 13 millones de personas han sido víctimas de fraudes en línea en los últimos años; solo en 2024 se reportaron pérdidas por encima de 20 mil millones de pesos, con el phishing como protagonista.

A nivel global, el centro de quejas de delitos en internet del Buró Federal de Investigación reportó más de 16 mil millones de dólares en pérdidas durante 2024, un salto de 33% frente al año previo.

Y el informe anual de una de las referencias del sector confirma a la ingeniería social (engaños que buscan que la víctima haga clic o comparta credenciales) entre las causas más costosas de las brechas.  

El panorama europeo coincide: el uso de inteligencia artificial ya está normalizado entre atacantes para producir textos, voces o videos extremadamente convincentes.

Cómo se llevan a cabo estos ataques

Hay tres rutas que vemos a diario:

a) Navegación” y lectura de fuentes externas. Cuando una aplicación de inteligencia artificial puede visitar páginas o leer documentos, corre el riesgo de absorber instrucciones ocultas incrustadas en esos contenidos (“inyección indirecta”). El resultado: respuestas manipuladas con ligas peligrosas que parecen salir “de buena fe”. Grandes proveedores como Microsoft han documentado este riesgo y propuesto defensas escalonadas.

b) Cadena de suministro de modelos y complementos. Un modelo descargado de un repositorio o un “plugin” puede venir alterado para recomendar sitios trampa o filtrar datos, aunque su nombre suene legítimo. Es la lógica detrás de casos bautizados como “modelos envenenados”.

c) Aplicaciones que confían ciegamente en la salida del modelo. Si la app coloca sin validar cualquier liga que devuelve la IA (por ejemplo, en un botón de “Descargar”) abre la puerta a que el usuario termine en páginas falsas. La comunidad de seguridad ha listado este patrón entre los riesgos más comunes de las aplicaciones basadas en modelos de lenguaje.

Cómo detectarlos y recomendaciones para evitarlos

Señales de alerta en una liga sugerida por la IA”. Dominios muy parecidos al real (errores mínimos de ortografía), terminaciones extrañas, acortadores de URLs que ocultan el destino y múltiples redirecciones antes de llegar a la página final. Si la respuesta insiste en desactivar protecciones o en usar “ese único enlace”, desconfía y piensa antes de hacer clic y verifica.

Hábitos personales que bajan el riesgo. 

· Evita el clic directo: copia el dominio y revísalo con buscadores y reputación.

· Usa un perfil sin privilegios (no administrador) para navegar; así contienes daños si algo se descarga.

· Bloquea descargas automáticas y exige confirmación manual.

· Cuando pidas referencias, solicita sitios oficiales y compáralos con el dominio que conoces.

Controles que la organización debe exigir.

· Gobierno del riesgo en IA. Existen guías oficiales para gestionar el riesgo en sistemas de generación de contenido, con controles y responsabilidades claras para cada área.

· Barandales” técnicos. Lista de dominios permitidos, filtrado de nombres de dominio y de tráfico web, y un puente intermedio entre usuarios y el modelo que intercepte la respuesta, detecte y clasifique enlaces (permitir, advertir o bloquear), además de probarlos en entornos controlados antes de mostrarlos.

· Fuentes confiables. Si tu sistema “consulta” documentos internos para responder, mantén el repositorio legítimo, vigente y limpio e identificando las versiones, con escaneo de ligas dentro de archivos y revisión constante para evitar contenidos manipulados.

Conclusión

Los ataques ya no dependen de errores ortográficos y correos mal redactados. Con inteligencia artificial, el fraude suena como tu jefe, escribe como tu marca y recomienda enlaces que parecen perfectos. No se trata de desconfiar de toda herramienta, sino de usar la IA con reglas, barreras y cultura.

Fuentes:

· Anthropic — “A small number of samples can poison LLMs of any size” (9 oct 2025). (anthropic.com)

· OWASP — “Top 10 for Large Language Model Applications” (marco de riesgos en apps con LLM). (owasp.org)

· NIST — “AI Risk Management Framework: Generative AI Profile” (2024). (NIST)

· Microsoft — “How Microsoft defends against indirect prompt injection attacks” (29 jul 2025) y guía MCP (28 abr 2025). (Microsoft)

· FBI IC3 — “2024 Internet Crime Report”. (Federal Bureau of Investigation)

· México — The CIU vía El País: “Más de 13 millones de víctimas por fraudes cibernéticos en México…”, con pérdidas >20 mil millones de pesos en 2024. (El País)

· INEGI — MOCIBA 2024 (ciberacoso y señales de riesgo en la población usuaria de internet). (INEGI)

Comentarios


author avatar
Jose Luis Garcia
BIO JOSE LUIS GARCIA José Luis García es Emprendedor y Director General de Grupo ETP. Graduado de la Universidad Autónoma Metropolitana como Ingeniero Industrial, con posgrados en Ciberseguridad y Finanzas por el Tecnológico de Monterrey y CISO Club, ha colaborado en posiciones ejecutivas para empresas como NCR de México, Moore de México y fue socio fundador de Netrix empresa especializada en Seguridad Informática. Durante su carrera profesional ha desarrollado exitosamente la instalación del primer SOC-MSSP de carácter internacional con Verisign, hoy Secure Works, desarrollando proyectos de integración en Seguridad informática, gestión de riesgos, certificación ISO 27000, y Security Awareness entre otros para instituciones como el SAT, SCT, Banorte, BanBajio, HDI, Banco Ve Por Mas, etcétera. Cuenta con las certificaciones Certified Cybersecurity Awareness Professional Certified Cybersecurity Professional por HIPAA y Cybersecurity Awareness – CAPC por CertiProf. Actualmente, dirige ETP Tecnología - unidad de negocios de Grupo ETP - como una empresa especializada en el ramo de la Seguridad de la Información y Gestión de Activos de TI.

LAS 12 GRANDES CONCLUSIONES DEL AI INDEX REPORT 2025

Aunque hoy la Inteligencia Artificial parece estar en todos lados, su historia no es reciente. La IA nació hace más de siete...

diciembre 19, 2025
¿Somos libres cuando elegimos una película en Netflix?

¿Por qué nos “atrapan” las series?

La conducta prolongada frente a la pantalla puede tener efectos secundarios físicos, como sedentarismo o problemas de sueño, cuando desplaza otras actividades...

enero 12, 2026




Más de categoría
¿Somos libres cuando elegimos una película en Netflix?

¿Por qué nos “atrapan” las series?

La conducta prolongada frente a la pantalla puede tener efectos secundarios físicos, como sedentarismo o problemas de sueño, cuando...

enero 12, 2026

México 2026: La Ciberseguridad ya no es un Tema Técnico, es un Riesgo de Negocio

La ciberseguridad dejó de ser un problema técnico. Hoy es, sin duda, una decisión de liderazgo.

enero 12, 2026
La bola de cristal en los tiempos de la inteligencia artificial

PERSPECTIVAS DE IA EN 2026

En 2026, la IA se volverá "invisible" porque estará en todas partes.

enero 8, 2026

LAS 12 GRANDES CONCLUSIONES DEL AI INDEX REPORT 2025

Aunque hoy la Inteligencia Artificial parece estar en todos lados, su historia no es reciente. La IA nació hace...

diciembre 19, 2025