La inteligencia artificial ya escribe correos, resume documentos y hasta responde a clientes. Pero hay un ángulo incómodo: también puede recomendar ligas peligrosas con total naturalidad. No porque “quiera”, sino porque fue contaminada o manipulada para hacerlo. Investigaciones recientes demuestran que es posible envenenar un modelo con muy pocas muestras de entrenamiento para implantar “disparadores” que activan comportamientos indebidos, como soltar enlaces maliciosos al ver ciertas frases. El tamaño del modelo no lo salva.
Situación actual. Datos que no conviene ignorar
Los delincuentes no improvisan, usan inteligencia artificial para elevar la precisión, escala y veracidad. En Europa, la policía comunitaria advierte que el crimen organizado ya explota estas tecnologías para crear suplantaciones creíbles en múltiples idiomas y automatizar campañas enteras.
En México, más de 13 millones de personas han sido víctimas de fraudes en línea en los últimos años; solo en 2024 se reportaron pérdidas por encima de 20 mil millones de pesos, con el phishing como protagonista.
A nivel global, el centro de quejas de delitos en internet del Buró Federal de Investigación reportó más de 16 mil millones de dólares en pérdidas durante 2024, un salto de 33% frente al año previo.
Y el informe anual de una de las referencias del sector confirma a la ingeniería social (engaños que buscan que la víctima haga clic o comparta credenciales) entre las causas más costosas de las brechas.
El panorama europeo coincide: el uso de inteligencia artificial ya está normalizado entre atacantes para producir textos, voces o videos extremadamente convincentes.
Cómo se llevan a cabo estos ataques
Hay tres rutas que vemos a diario:
a) “Navegación” y lectura de fuentes externas. Cuando una aplicación de inteligencia artificial puede visitar páginas o leer documentos, corre el riesgo de absorber instrucciones ocultas incrustadas en esos contenidos (“inyección indirecta”). El resultado: respuestas manipuladas con ligas peligrosas que parecen salir “de buena fe”. Grandes proveedores como Microsoft han documentado este riesgo y propuesto defensas escalonadas.
b) Cadena de suministro de modelos y complementos. Un modelo descargado de un repositorio o un “plugin” puede venir alterado para recomendar sitios trampa o filtrar datos, aunque su nombre suene legítimo. Es la lógica detrás de casos bautizados como “modelos envenenados”.
c) Aplicaciones que confían ciegamente en la salida del modelo. Si la app coloca sin validar cualquier liga que devuelve la IA (por ejemplo, en un botón de “Descargar”) abre la puerta a que el usuario termine en páginas falsas. La comunidad de seguridad ha listado este patrón entre los riesgos más comunes de las aplicaciones basadas en modelos de lenguaje.
Cómo detectarlos y recomendaciones para evitarlos
Señales de alerta en una liga “sugerida por la IA”. Dominios muy parecidos al real (errores mínimos de ortografía), terminaciones extrañas, acortadores de URLs que ocultan el destino y múltiples redirecciones antes de llegar a la página final. Si la respuesta insiste en desactivar protecciones o en usar “ese único enlace”, desconfía y piensa antes de hacer clic y verifica.
Hábitos personales que bajan el riesgo.
· Evita el clic directo: copia el dominio y revísalo con buscadores y reputación.
· Usa un perfil sin privilegios (no administrador) para navegar; así contienes daños si algo se descarga.
· Bloquea descargas automáticas y exige confirmación manual.
· Cuando pidas referencias, solicita sitios oficiales y compáralos con el dominio que conoces.
Controles que la organización debe exigir.
· Gobierno del riesgo en IA. Existen guías oficiales para gestionar el riesgo en sistemas de generación de contenido, con controles y responsabilidades claras para cada área.
· “Barandales” técnicos. Lista de dominios permitidos, filtrado de nombres de dominio y de tráfico web, y un puente intermedio entre usuarios y el modelo que intercepte la respuesta, detecte y clasifique enlaces (permitir, advertir o bloquear), además de probarlos en entornos controlados antes de mostrarlos.
· Fuentes confiables. Si tu sistema “consulta” documentos internos para responder, mantén el repositorio legítimo, vigente y limpio e identificando las versiones, con escaneo de ligas dentro de archivos y revisión constante para evitar contenidos manipulados.
Conclusión
Los ataques ya no dependen de errores ortográficos y correos mal redactados. Con inteligencia artificial, el fraude suena como tu jefe, escribe como tu marca y recomienda enlaces que parecen perfectos. No se trata de desconfiar de toda herramienta, sino de usar la IA con reglas, barreras y cultura.
Fuentes:
· Anthropic — “A small number of samples can poison LLMs of any size” (9 oct 2025). (anthropic.com)
· OWASP — “Top 10 for Large Language Model Applications” (marco de riesgos en apps con LLM). (owasp.org)
· NIST — “AI Risk Management Framework: Generative AI Profile” (2024). (NIST)
· Microsoft — “How Microsoft defends against indirect prompt injection attacks” (29 jul 2025) y guía MCP (28 abr 2025). (Microsoft)
· FBI IC3 — “2024 Internet Crime Report”. (Federal Bureau of Investigation)
· México — The CIU vía El País: “Más de 13 millones de víctimas por fraudes cibernéticos en México…”, con pérdidas >20 mil millones de pesos en 2024. (El País)
· INEGI — MOCIBA 2024 (ciberacoso y señales de riesgo en la población usuaria de internet). (INEGI)
Registro de celulares
Desde el 9 de enero de 2026, en México entró en vigor la obligación de registrar las líneas de...
abril 23, 2026
De los test vocacionales al análisis de datos: elegir estudios en la era de la IA
Luis Angel Tapia Aneas Profesor UVA, Universidad de Valladolid Elegir qué estudiar siempre ha sido una decisión complicada, pero...
abril 20, 2026
¿Por qué no puedo parar? Patrones de diseño adictivos y tecnología que ‘engancha’
En las últimas semanas, dos jurados en Estados Unidos han declarado a grandes empresas tecnológicas responsables de negligencia por el diseño...
abril 15, 2026
El sonido más poderoso del mundo: nuestro nombre
Fernando Díez Ruiz Associate professor, Universidad de Deusto En cualquier interacción humana, desde una conversación informal hasta una reunión...
abril 14, 2026