La nueva cara del fraude digital: Cuando la IA te sugiere el enlace equivocado

Los ataques digitales ya no dependen de errores ortográficos y correos mal redactados. Con la IA el fraude suena como tu jefe, escribe como tu marca y recomienda enlaces que parecen perfectos

25 de noviembre, 2025

La inteligencia artificial ya escribe correos, resume documentos y hasta responde a clientes. Pero hay un ángulo incómodo: también puede recomendar ligas peligrosas con total naturalidad. No porque “quiera”, sino porque fue contaminada o manipulada para hacerlo. Investigaciones recientes demuestran que es posible envenenar un modelo con muy pocas muestras de entrenamiento para implantar “disparadores” que activan comportamientos indebidos, como soltar enlaces maliciosos al ver ciertas frases. El tamaño del modelo no lo salva.

Situación actual. Datos que no conviene ignorar

Los delincuentes no improvisan, usan inteligencia artificial para elevar la precisión, escala y veracidad. En Europa, la policía comunitaria advierte que el crimen organizado ya explota estas tecnologías para crear suplantaciones creíbles en múltiples idiomas y automatizar campañas enteras.

En México, más de 13 millones de personas han sido víctimas de fraudes en línea en los últimos años; solo en 2024 se reportaron pérdidas por encima de 20 mil millones de pesos, con el phishing como protagonista.

A nivel global, el centro de quejas de delitos en internet del Buró Federal de Investigación reportó más de 16 mil millones de dólares en pérdidas durante 2024, un salto de 33% frente al año previo.

Y el informe anual de una de las referencias del sector confirma a la ingeniería social (engaños que buscan que la víctima haga clic o comparta credenciales) entre las causas más costosas de las brechas.  

El panorama europeo coincide: el uso de inteligencia artificial ya está normalizado entre atacantes para producir textos, voces o videos extremadamente convincentes.

Cómo se llevan a cabo estos ataques

Hay tres rutas que vemos a diario:

a) Navegación” y lectura de fuentes externas. Cuando una aplicación de inteligencia artificial puede visitar páginas o leer documentos, corre el riesgo de absorber instrucciones ocultas incrustadas en esos contenidos (“inyección indirecta”). El resultado: respuestas manipuladas con ligas peligrosas que parecen salir “de buena fe”. Grandes proveedores como Microsoft han documentado este riesgo y propuesto defensas escalonadas.

b) Cadena de suministro de modelos y complementos. Un modelo descargado de un repositorio o un “plugin” puede venir alterado para recomendar sitios trampa o filtrar datos, aunque su nombre suene legítimo. Es la lógica detrás de casos bautizados como “modelos envenenados”.

c) Aplicaciones que confían ciegamente en la salida del modelo. Si la app coloca sin validar cualquier liga que devuelve la IA (por ejemplo, en un botón de “Descargar”) abre la puerta a que el usuario termine en páginas falsas. La comunidad de seguridad ha listado este patrón entre los riesgos más comunes de las aplicaciones basadas en modelos de lenguaje.

Cómo detectarlos y recomendaciones para evitarlos

Señales de alerta en una liga sugerida por la IA”. Dominios muy parecidos al real (errores mínimos de ortografía), terminaciones extrañas, acortadores de URLs que ocultan el destino y múltiples redirecciones antes de llegar a la página final. Si la respuesta insiste en desactivar protecciones o en usar “ese único enlace”, desconfía y piensa antes de hacer clic y verifica.

Hábitos personales que bajan el riesgo. 

· Evita el clic directo: copia el dominio y revísalo con buscadores y reputación.

· Usa un perfil sin privilegios (no administrador) para navegar; así contienes daños si algo se descarga.

· Bloquea descargas automáticas y exige confirmación manual.

· Cuando pidas referencias, solicita sitios oficiales y compáralos con el dominio que conoces.

Controles que la organización debe exigir.

· Gobierno del riesgo en IA. Existen guías oficiales para gestionar el riesgo en sistemas de generación de contenido, con controles y responsabilidades claras para cada área.

· Barandales” técnicos. Lista de dominios permitidos, filtrado de nombres de dominio y de tráfico web, y un puente intermedio entre usuarios y el modelo que intercepte la respuesta, detecte y clasifique enlaces (permitir, advertir o bloquear), además de probarlos en entornos controlados antes de mostrarlos.

· Fuentes confiables. Si tu sistema “consulta” documentos internos para responder, mantén el repositorio legítimo, vigente y limpio e identificando las versiones, con escaneo de ligas dentro de archivos y revisión constante para evitar contenidos manipulados.

Conclusión

Los ataques ya no dependen de errores ortográficos y correos mal redactados. Con inteligencia artificial, el fraude suena como tu jefe, escribe como tu marca y recomienda enlaces que parecen perfectos. No se trata de desconfiar de toda herramienta, sino de usar la IA con reglas, barreras y cultura.

Fuentes:

· Anthropic — “A small number of samples can poison LLMs of any size” (9 oct 2025). (anthropic.com)

· OWASP — “Top 10 for Large Language Model Applications” (marco de riesgos en apps con LLM). (owasp.org)

· NIST — “AI Risk Management Framework: Generative AI Profile” (2024). (NIST)

· Microsoft — “How Microsoft defends against indirect prompt injection attacks” (29 jul 2025) y guía MCP (28 abr 2025). (Microsoft)

· FBI IC3 — “2024 Internet Crime Report”. (Federal Bureau of Investigation)

· México — The CIU vía El País: “Más de 13 millones de víctimas por fraudes cibernéticos en México…”, con pérdidas >20 mil millones de pesos en 2024. (El País)

· INEGI — MOCIBA 2024 (ciberacoso y señales de riesgo en la población usuaria de internet). (INEGI)

Comentarios


author avatar
Jose Luis Garcia
BIO JOSE LUIS GARCIA José Luis García es Emprendedor y Director General de Grupo ETP. Graduado de la Universidad Autónoma Metropolitana como Ingeniero Industrial, con posgrados en Ciberseguridad y Finanzas por el Tecnológico de Monterrey y CISO Club, ha colaborado en posiciones ejecutivas para empresas como NCR de México, Moore de México y fue socio fundador de Netrix empresa especializada en Seguridad Informática. Durante su carrera profesional ha desarrollado exitosamente la instalación del primer SOC-MSSP de carácter internacional con Verisign, hoy Secure Works, desarrollando proyectos de integración en Seguridad informática, gestión de riesgos, certificación ISO 27000, y Security Awareness entre otros para instituciones como el SAT, SCT, Banorte, BanBajio, HDI, Banco Ve Por Mas, etcétera. Cuenta con las certificaciones Certified Cybersecurity Awareness Professional Certified Cybersecurity Professional por HIPAA y Cybersecurity Awareness – CAPC por CertiProf. Actualmente, dirige ETP Tecnología - unidad de negocios de Grupo ETP - como una empresa especializada en el ramo de la Seguridad de la Información y Gestión de Activos de TI.
¿Quién controla al que quiere controlar la IA?

¿Quién controla al que quiere controlar la IA?

En 2026, la pregunta no es si la IA es inteligente, sino quién controla al que controla la IA. Como público, nuestro...

abril 9, 2026
El impacto de la Inteligencia Artificial en el entorno empresarial

IA: EL NUEVO ALFABETISMO O LA BRECHA DE LA IRRELEVANCIA

La IA no viene a reemplazar al ser humano, pero el humano con IA sí reemplazará al humano sin ella.

abril 3, 2026




Más de categoría
¿Cómo mantenerse bien informado…?

Registro de celulares

Desde el 9 de enero de 2026, en México entró en vigor la obligación de registrar las líneas de...

abril 23, 2026
La IA y el Programador: ¿Una Nueva Era o el Comienzo del Fin?

De los test vocacionales al análisis de datos: elegir estudios en la era de la IA

Luis Angel Tapia Aneas Profesor UVA, Universidad de Valladolid Elegir qué estudiar siempre ha sido una decisión complicada, pero...

abril 20, 2026
¿Por qué no puedo parar? Patrones de diseño adictivos y tecnología que ‘engancha’

¿Por qué no puedo parar? Patrones de diseño adictivos y tecnología que ‘engancha’

En las últimas semanas, dos jurados en Estados Unidos han declarado a grandes empresas tecnológicas responsables de negligencia por el diseño...

abril 15, 2026

El sonido más poderoso del mundo: nuestro nombre

Fernando Díez Ruiz Associate professor, Universidad de Deusto En cualquier interacción humana, desde una conversación informal hasta una reunión...

abril 14, 2026