La inteligencia artificial ya escribe correos, resume documentos y hasta responde a clientes. Pero hay un ángulo incómodo: también puede recomendar ligas peligrosas con total naturalidad. No porque “quiera”, sino porque fue contaminada o manipulada para hacerlo. Investigaciones recientes demuestran que es posible envenenar un modelo con muy pocas muestras de entrenamiento para implantar “disparadores” que activan comportamientos indebidos, como soltar enlaces maliciosos al ver ciertas frases. El tamaño del modelo no lo salva.
Situación actual. Datos que no conviene ignorar
Los delincuentes no improvisan, usan inteligencia artificial para elevar la precisión, escala y veracidad. En Europa, la policía comunitaria advierte que el crimen organizado ya explota estas tecnologías para crear suplantaciones creíbles en múltiples idiomas y automatizar campañas enteras.
En México, más de 13 millones de personas han sido víctimas de fraudes en línea en los últimos años; solo en 2024 se reportaron pérdidas por encima de 20 mil millones de pesos, con el phishing como protagonista.
A nivel global, el centro de quejas de delitos en internet del Buró Federal de Investigación reportó más de 16 mil millones de dólares en pérdidas durante 2024, un salto de 33% frente al año previo.
Y el informe anual de una de las referencias del sector confirma a la ingeniería social (engaños que buscan que la víctima haga clic o comparta credenciales) entre las causas más costosas de las brechas.
El panorama europeo coincide: el uso de inteligencia artificial ya está normalizado entre atacantes para producir textos, voces o videos extremadamente convincentes.
Cómo se llevan a cabo estos ataques
Hay tres rutas que vemos a diario:
a) “Navegación” y lectura de fuentes externas. Cuando una aplicación de inteligencia artificial puede visitar páginas o leer documentos, corre el riesgo de absorber instrucciones ocultas incrustadas en esos contenidos (“inyección indirecta”). El resultado: respuestas manipuladas con ligas peligrosas que parecen salir “de buena fe”. Grandes proveedores como Microsoft han documentado este riesgo y propuesto defensas escalonadas.
b) Cadena de suministro de modelos y complementos. Un modelo descargado de un repositorio o un “plugin” puede venir alterado para recomendar sitios trampa o filtrar datos, aunque su nombre suene legítimo. Es la lógica detrás de casos bautizados como “modelos envenenados”.
c) Aplicaciones que confían ciegamente en la salida del modelo. Si la app coloca sin validar cualquier liga que devuelve la IA (por ejemplo, en un botón de “Descargar”) abre la puerta a que el usuario termine en páginas falsas. La comunidad de seguridad ha listado este patrón entre los riesgos más comunes de las aplicaciones basadas en modelos de lenguaje.
Cómo detectarlos y recomendaciones para evitarlos
Señales de alerta en una liga “sugerida por la IA”. Dominios muy parecidos al real (errores mínimos de ortografía), terminaciones extrañas, acortadores de URLs que ocultan el destino y múltiples redirecciones antes de llegar a la página final. Si la respuesta insiste en desactivar protecciones o en usar “ese único enlace”, desconfía y piensa antes de hacer clic y verifica.
Hábitos personales que bajan el riesgo.
· Evita el clic directo: copia el dominio y revísalo con buscadores y reputación.
· Usa un perfil sin privilegios (no administrador) para navegar; así contienes daños si algo se descarga.
· Bloquea descargas automáticas y exige confirmación manual.
· Cuando pidas referencias, solicita sitios oficiales y compáralos con el dominio que conoces.
Controles que la organización debe exigir.
· Gobierno del riesgo en IA. Existen guías oficiales para gestionar el riesgo en sistemas de generación de contenido, con controles y responsabilidades claras para cada área.
· “Barandales” técnicos. Lista de dominios permitidos, filtrado de nombres de dominio y de tráfico web, y un puente intermedio entre usuarios y el modelo que intercepte la respuesta, detecte y clasifique enlaces (permitir, advertir o bloquear), además de probarlos en entornos controlados antes de mostrarlos.
· Fuentes confiables. Si tu sistema “consulta” documentos internos para responder, mantén el repositorio legítimo, vigente y limpio e identificando las versiones, con escaneo de ligas dentro de archivos y revisión constante para evitar contenidos manipulados.
Conclusión
Los ataques ya no dependen de errores ortográficos y correos mal redactados. Con inteligencia artificial, el fraude suena como tu jefe, escribe como tu marca y recomienda enlaces que parecen perfectos. No se trata de desconfiar de toda herramienta, sino de usar la IA con reglas, barreras y cultura.
Fuentes:
· Anthropic — “A small number of samples can poison LLMs of any size” (9 oct 2025). (anthropic.com)
· OWASP — “Top 10 for Large Language Model Applications” (marco de riesgos en apps con LLM). (owasp.org)
· NIST — “AI Risk Management Framework: Generative AI Profile” (2024). (NIST)
· Microsoft — “How Microsoft defends against indirect prompt injection attacks” (29 jul 2025) y guía MCP (28 abr 2025). (Microsoft)
· FBI IC3 — “2024 Internet Crime Report”. (Federal Bureau of Investigation)
· México — The CIU vía El País: “Más de 13 millones de víctimas por fraudes cibernéticos en México…”, con pérdidas >20 mil millones de pesos en 2024. (El País)
· INEGI — MOCIBA 2024 (ciberacoso y señales de riesgo en la población usuaria de internet). (INEGI)
¿Por qué nos “atrapan” las series?
La conducta prolongada frente a la pantalla puede tener efectos secundarios físicos, como sedentarismo o problemas de sueño, cuando...
enero 12, 2026
México 2026: La Ciberseguridad ya no es un Tema Técnico, es un Riesgo de Negocio
La ciberseguridad dejó de ser un problema técnico. Hoy es, sin duda, una decisión de liderazgo.
enero 12, 2026
PERSPECTIVAS DE IA EN 2026
En 2026, la IA se volverá "invisible" porque estará en todas partes.
enero 8, 2026
LAS 12 GRANDES CONCLUSIONES DEL AI INDEX REPORT 2025
Aunque hoy la Inteligencia Artificial parece estar en todos lados, su historia no es reciente. La IA nació hace...
diciembre 19, 2025