Desde el lanzamiento de las gafas inteligentes Ray-Ban Meta, la promesa central de Mark Zuckerberg fue la “privacidad por diseño”. Meta aseguró a los consumidores que las grabaciones y fotos capturadas por el dispositivo estaban protegidas por encriptación avanzada y que la IA procesaba la información de manera local o segura en la nube.
Sin embargo, a medida que la carrera por la Inteligencia Artificial General (AGI) se intensificó en 2025, la necesidad de datos “etiquetados” por humanos se volvió crítica para mejorar la precisión de los modelos multimodales (los que pueden ver y oír). Esto creó una presión interna en Meta para utilizar datos reales de usuarios para el entrenamiento de sus algoritmos.
SITUACIÓN (MARZO 2026)
El 6 de marzo de 2026, se formalizó una demanda colectiva en Estados Unidos alegando publicidad engañosa y violación sistemática de la privacidad. Los demandantes sostienen que Meta y RayBan ocultaron deliberadamente que el contenido capturado por las gafas no solo es procesado por máquinas, sino que es “auditado” por personas reales.
¿CÓMO SE ENTERARON LOS DEMANDANTES?
El velo de secreto se rompió gracias a tres factores determinantes:
· Filtraciones de Contratistas (Whistleblowers): Empleados de firmas externas de etiquetado de datos en India y África denunciaron de forma anónima que estaban procesando videos de situaciones “altamente sensibles” (dentro de dormitorios, consultas médicas y escuelas) que claramente no tenían el consentimiento para ser vistos por humanos.
· Investigaciones Periodísticas: Medios como The New York Times y Euronews realizaron rastreos técnicos del flujo de datos, confirmando que paquetes de información de las gafas Ray-Ban eran enviados a servidores de terceros para su análisis manual.
· Análisis de Metadatos: Investigadores de ciberseguridad independientes detectaron que las gafas subían archivos de audio y video incluso cuando el usuario no había activado explícitamente las funciones de IA, contradiciendo los manuales de usuario.
¿QUIÉNES Y POR QUÉ TIENEN POSIBILIDAD DE VER Y OÍR?
A pesar de la narrativa de “automatización total”, la IA actual todavía requiere de lo que se conoce como RLHF (Aprendizaje por Refuerzo a partir de Retroalimentación Humana).
· Revisores Externos: Meta subcontrata a empresas de gestión de datos en países como India, Filipinas o regiones de África.
· El Motivo: Estos revisores humanos escuchan clips de audio y ven fragmentos de video para corregir los errores de la IA. Si la IA no entiende un objeto o una frase, un humano debe “etiquetarla” manualmente.
· El Riesgo: Estos trabajadores externos no están sujetos a los mismos controles de seguridad que los empleados directos, lo que expone a los usuarios a que sus grabaciones sean filtradas o mal utilizadas por terceros con acceso a la base de datos de entrenamiento.
EL PAPEL DE LA PRIVACIDAD: ¿PROMESA O ILUSIÓN?
Para Meta, la privacidad ha sido una herramienta de marketing, pero para el usuario es un derecho fundamental. El problema aquí es el Consentimiento Informado.
· La demanda alega que Meta “escondió” en términos y condiciones ilegibles el hecho de que humanos podrían revisar el contenido.
· En la era de los wearables, la privacidad ya no se limita a lo que escribes en un chat, sino a todo lo que ves y oyes, convirtiendo a las gafas en un micrófono y cámara ambiental perpetuos que nunca “duermen”.
QUÉ SE PUEDE ESPERAR COMO RESOLUCIÓN
Expertos legales sugieren tres escenarios posibles para finales de 2026:
1. Multas Milmillonarias: Similares a las impuestas por la FTC en el pasado (caso Cambridge Analytica).
2. Cambio en el Producto: Meta podría verse obligada a incluir una “luz de privacidad” mucho más visible o un interruptor físico que garantice la desconexión total del micrófono y cámara.
3. Opción de “Opt-Out” Explícita: Se obligaría a Meta a preguntar claramente al usuario: “¿Deseas que humanos revisen tus videos para mejorar la IA?”, algo que la mayoría de los usuarios probablemente rechazaría, afectando el desarrollo de su tecnología.
SUGERENCIAS ANTE EL USO DE “WEARABLES” CON IA
Si eres usuario de esta tecnología (o planeas serlo), toma estas precauciones:
· Zonas Rojas: Desactiva o quítate las gafas en lugares sensibles (baños, hospitales, reuniones de negocios confidenciales).
· Gestión de Datos: Entra a la configuración de privacidad de la app (Meta View) y busca la opción de “No compartir datos para entrenamiento”.
· Conciencia Ambiental: Recuerda que no solo grabas tu vida, sino la de quienes te rodean sin su consentimiento expreso.
El escándalo de las Ray-Ban Meta en marzo de 2026 marca un punto de inflexión. Nos recuerda que “si el servicio es asombroso y barato, el precio es tu intimidad”. La IA necesita ojos para aprender, y parece que Meta decidió que los ojos de sus clientes eran los más económicos.
FUENTES
· Euronews Next. (2026). Meta enfrenta demanda por privacidad por sus gafas inteligentes.
· Ecosistema Startup. (2026). Meta demandada: Privacidad en Ray-Ban AI Glasses.
· Infobae. (2026). Demandan a Meta por publicidad engañosa con la privacidad de sus gafas.
· Yahoo Noticias. (2026). Meta enfrenta demanda por privacidad en gafas inteligentes.
· La Nación. (2026). Demanda contra Meta por gafas Ray-Ban: Lo que debes saber.
X @ghernandezs
Instagram @ghernandezsalgado www.ghernandezsalgado.com
¿Por qué no puedo parar? Patrones de diseño adictivos y tecnología que ‘engancha’
En las últimas semanas, dos jurados en Estados Unidos han declarado a grandes empresas tecnológicas responsables de negligencia por el diseño...
abril 15, 2026
El sonido más poderoso del mundo: nuestro nombre
Fernando Díez Ruiz Associate professor, Universidad de Deusto En cualquier interacción humana, desde una conversación informal hasta una reunión...
abril 14, 2026
El alto precio ambiental del ‘fracking’ en México
La política energética de México en 2026, orientada a expandir la extracción de gas natural como componente central de...
abril 10, 2026
¿Quién controla al que quiere controlar la IA?
En 2026, la pregunta no es si la IA es inteligente, sino quién controla al que controla la IA....
abril 9, 2026