La nueva cara del fraude digital: Cuando la IA te sugiere el enlace equivocado

Los ataques digitales ya no dependen de errores ortográficos y correos mal redactados. Con la IA el fraude suena como tu jefe, escribe como tu marca y recomienda enlaces que parecen perfectos

25 de noviembre, 2025

La inteligencia artificial ya escribe correos, resume documentos y hasta responde a clientes. Pero hay un ángulo incómodo: también puede recomendar ligas peligrosas con total naturalidad. No porque “quiera”, sino porque fue contaminada o manipulada para hacerlo. Investigaciones recientes demuestran que es posible envenenar un modelo con muy pocas muestras de entrenamiento para implantar “disparadores” que activan comportamientos indebidos, como soltar enlaces maliciosos al ver ciertas frases. El tamaño del modelo no lo salva.

Situación actual. Datos que no conviene ignorar

Los delincuentes no improvisan, usan inteligencia artificial para elevar la precisión, escala y veracidad. En Europa, la policía comunitaria advierte que el crimen organizado ya explota estas tecnologías para crear suplantaciones creíbles en múltiples idiomas y automatizar campañas enteras.

En México, más de 13 millones de personas han sido víctimas de fraudes en línea en los últimos años; solo en 2024 se reportaron pérdidas por encima de 20 mil millones de pesos, con el phishing como protagonista.

A nivel global, el centro de quejas de delitos en internet del Buró Federal de Investigación reportó más de 16 mil millones de dólares en pérdidas durante 2024, un salto de 33% frente al año previo.

Y el informe anual de una de las referencias del sector confirma a la ingeniería social (engaños que buscan que la víctima haga clic o comparta credenciales) entre las causas más costosas de las brechas.  

El panorama europeo coincide: el uso de inteligencia artificial ya está normalizado entre atacantes para producir textos, voces o videos extremadamente convincentes.

Cómo se llevan a cabo estos ataques

Hay tres rutas que vemos a diario:

a) Navegación” y lectura de fuentes externas. Cuando una aplicación de inteligencia artificial puede visitar páginas o leer documentos, corre el riesgo de absorber instrucciones ocultas incrustadas en esos contenidos (“inyección indirecta”). El resultado: respuestas manipuladas con ligas peligrosas que parecen salir “de buena fe”. Grandes proveedores como Microsoft han documentado este riesgo y propuesto defensas escalonadas.

b) Cadena de suministro de modelos y complementos. Un modelo descargado de un repositorio o un “plugin” puede venir alterado para recomendar sitios trampa o filtrar datos, aunque su nombre suene legítimo. Es la lógica detrás de casos bautizados como “modelos envenenados”.

c) Aplicaciones que confían ciegamente en la salida del modelo. Si la app coloca sin validar cualquier liga que devuelve la IA (por ejemplo, en un botón de “Descargar”) abre la puerta a que el usuario termine en páginas falsas. La comunidad de seguridad ha listado este patrón entre los riesgos más comunes de las aplicaciones basadas en modelos de lenguaje.

Cómo detectarlos y recomendaciones para evitarlos

Señales de alerta en una liga sugerida por la IA”. Dominios muy parecidos al real (errores mínimos de ortografía), terminaciones extrañas, acortadores de URLs que ocultan el destino y múltiples redirecciones antes de llegar a la página final. Si la respuesta insiste en desactivar protecciones o en usar “ese único enlace”, desconfía y piensa antes de hacer clic y verifica.

Hábitos personales que bajan el riesgo. 

· Evita el clic directo: copia el dominio y revísalo con buscadores y reputación.

· Usa un perfil sin privilegios (no administrador) para navegar; así contienes daños si algo se descarga.

· Bloquea descargas automáticas y exige confirmación manual.

· Cuando pidas referencias, solicita sitios oficiales y compáralos con el dominio que conoces.

Controles que la organización debe exigir.

· Gobierno del riesgo en IA. Existen guías oficiales para gestionar el riesgo en sistemas de generación de contenido, con controles y responsabilidades claras para cada área.

· Barandales” técnicos. Lista de dominios permitidos, filtrado de nombres de dominio y de tráfico web, y un puente intermedio entre usuarios y el modelo que intercepte la respuesta, detecte y clasifique enlaces (permitir, advertir o bloquear), además de probarlos en entornos controlados antes de mostrarlos.

· Fuentes confiables. Si tu sistema “consulta” documentos internos para responder, mantén el repositorio legítimo, vigente y limpio e identificando las versiones, con escaneo de ligas dentro de archivos y revisión constante para evitar contenidos manipulados.

Conclusión

Los ataques ya no dependen de errores ortográficos y correos mal redactados. Con inteligencia artificial, el fraude suena como tu jefe, escribe como tu marca y recomienda enlaces que parecen perfectos. No se trata de desconfiar de toda herramienta, sino de usar la IA con reglas, barreras y cultura.

Fuentes:

· Anthropic — “A small number of samples can poison LLMs of any size” (9 oct 2025). (anthropic.com)

· OWASP — “Top 10 for Large Language Model Applications” (marco de riesgos en apps con LLM). (owasp.org)

· NIST — “AI Risk Management Framework: Generative AI Profile” (2024). (NIST)

· Microsoft — “How Microsoft defends against indirect prompt injection attacks” (29 jul 2025) y guía MCP (28 abr 2025). (Microsoft)

· FBI IC3 — “2024 Internet Crime Report”. (Federal Bureau of Investigation)

· México — The CIU vía El País: “Más de 13 millones de víctimas por fraudes cibernéticos en México…”, con pérdidas >20 mil millones de pesos en 2024. (El País)

· INEGI — MOCIBA 2024 (ciberacoso y señales de riesgo en la población usuaria de internet). (INEGI)

Comentarios


author avatar
Jose Luis Garcia
BIO JOSE LUIS GARCIA José Luis García es Emprendedor y Director General de Grupo ETP. Graduado de la Universidad Autónoma Metropolitana como Ingeniero Industrial, con posgrados en Ciberseguridad y Finanzas por el Tecnológico de Monterrey y CISO Club, ha colaborado en posiciones ejecutivas para empresas como NCR de México, Moore de México y fue socio fundador de Netrix empresa especializada en Seguridad Informática. Durante su carrera profesional ha desarrollado exitosamente la instalación del primer SOC-MSSP de carácter internacional con Verisign, hoy Secure Works, desarrollando proyectos de integración en Seguridad informática, gestión de riesgos, certificación ISO 27000, y Security Awareness entre otros para instituciones como el SAT, SCT, Banorte, BanBajio, HDI, Banco Ve Por Mas, etcétera. Cuenta con las certificaciones Certified Cybersecurity Awareness Professional Certified Cybersecurity Professional por HIPAA y Cybersecurity Awareness – CAPC por CertiProf. Actualmente, dirige ETP Tecnología - unidad de negocios de Grupo ETP - como una empresa especializada en el ramo de la Seguridad de la Información y Gestión de Activos de TI.
Estamos viviendo una revolución digital sin precedentes. En su nuevo libro, Yuval Harari reflexiona acerca de la posibilidad de que la inteligencia artificial «tome el control» mediante la manipulación de los humanos para que hagan lo que ella quiera.

¿Es la IA la nueva constructora de valores culturales?

Piensen lo que significa educar a los niños en un mundo donde, desde el primer día, la mayoría de sus interacciones son...

marzo 23, 2026

El gobierno de EEUU veta a Anthropic

El veto a Claude en marzo de 2026 marca el fin de la neutralidad tecnológica.

marzo 6, 2026




Más de categoría
El gran desafío tecnológico de esta década no ha sido solo el razonamiento, sino la encarnación (embodiment): dotar a la IA de un cuerpo capaz de interactuar con la complejidad de un hogar o una oficina.

MELANIA TRUMP Y EL DESEMBARCO DEL FIGURE 3

Se ha marcado el inicio de la era del "electrodoméstico inteligente con patas", un cambio de paradigma que pronto...

marzo 27, 2026
Millones de personas tienen la bacteria que causa la tuberculosis sin saberlo

Millones de personas tienen la bacteria que causa la tuberculosis sin saberlo

Cada 24 de marzo se conmemora el Día Mundial de la Tuberculosis. Y, sin embargo, es una fecha que...

marzo 24, 2026
Estamos viviendo una revolución digital sin precedentes. En su nuevo libro, Yuval Harari reflexiona acerca de la posibilidad de que la inteligencia artificial «tome el control» mediante la manipulación de los humanos para que hagan lo que ella quiera.

¿Es la IA la nueva constructora de valores culturales?

Piensen lo que significa educar a los niños en un mundo donde, desde el primer día, la mayoría de...

marzo 23, 2026

El valor de un cromosoma extra

Durante décadas el síndrome de Down se miró principalmente desde el diagnóstico. Hoy el mundo empieza, lentamente, a mirarlo...

marzo 16, 2026