La promesa de las gafas inteligentes Ray-Ban Meta era seductora: un dispositivo que te permite capturar momentos, obtener información y conectarte con el mundo de una manera completamente nueva. Pero detrás de la innovación y la comodidad, se esconde una realidad inquietante que ha sido revelada por una exhaustiva investigación del medio sueco Svenska Dagbladet. La investigación expone que Meta está utilizando una red de trabajadores humanos, ubicados en países de bajos ingresos, para revisar el flujo constante de datos personales capturados por las lentes, incluyendo fotos íntimas, videos explícitos, mensajes confidenciales y datos financieros.
El corazón del problema reside en el proceso de entrenamiento de la inteligencia artificial. Para que los algoritmos de IA funcionen correctamente, necesitan ser alimentados con grandes cantidades de datos etiquetados. Este proceso, conocido como 'data annotation', implica que personas reales revisen imágenes, videos y transcripciones para identificar objetos, acciones y contextos. Meta subcontrata este trabajo a empresas como Sama, con sede en Nairobi, Kenia, donde miles de empleados trabajan en condiciones a menudo precarias para entrenar los sistemas de IA de la compañía.
Los testimonios recogidos por Svenska Dagbladet son alarmantes. Los trabajadores de Sama afirman haber visto material extremadamente sensible capturado por las cámaras de los usuarios de las gafas Ray-Ban. Se describen escenas de la vida cotidiana grabadas de forma inadvertida: personas en baños, desnudas o en situaciones íntimas, sin saber que estaban siendo registradas. En algunos casos, también se observaron tarjetas bancarias, documentos de identidad y otra información personal confidencial. Lo más preocupante es que muchos de estos videos parecen haber sido grabados sin el conocimiento o consentimiento de las personas involucradas.

La función de estos 'data annotators' es etiquetar lo que aparece en las imágenes y videos: identificar personas, objetos, acciones y contextos. Esta información se utiliza para entrenar a la IA y mejorar su capacidad para reconocer y responder a las preguntas de los usuarios. Aunque Meta afirma que existen sistemas automatizados para anonimizar los datos, como difuminar rostros, los trabajadores aseguran que estos sistemas no siempre son efectivos y que a menudo tienen que intervenir manualmente para proteger la privacidad de las personas.
La investigación también revela una importante brecha entre las políticas de privacidad de Meta y la realidad del procesamiento de datos. Mientras que Meta afirma que el contenido generado por sus sistemas de IA se procesa de acuerdo con sus términos de servicio y políticas de privacidad, los vendedores de las gafas Ray-Ban a menudo informan a los clientes que los datos permanecen en el dispositivo o en la aplicación del usuario. Esto contradice la evidencia recopilada por Svenska Dagbladet, que demuestra que gran parte de los datos se procesa y analiza en servidores de Meta ubicados a miles de kilómetros de distancia.
Expertos en protección de datos advierten que muchos usuarios probablemente no comprenden hasta qué punto sus interacciones con las gafas de Meta u otros dispositivos similares pueden ser almacenadas y analizadas. Kleanthi Sardeli, abogada especializada en protección de datos de la organización None Of Your Business (NOYB), sostiene que el uso de datos para entrenar inteligencia artificial debería requerir un consentimiento claro y explícito. Una vez que la información entra en los modelos de IA, el control por parte del usuario se vuelve prácticamente imposible.
Este escándalo plantea serias preguntas sobre la ética de la inteligencia artificial y la responsabilidad de las empresas tecnológicas en la protección de la privacidad de sus usuarios. ¿Es aceptable sacrificar la privacidad en aras del progreso tecnológico? ¿Cómo podemos garantizar que los datos personales se utilicen de manera responsable y ética? ¿Qué medidas deben tomarse para proteger a los usuarios de la vigilancia y la explotación? La investigación de Svenska Dagbladet es un llamado de atención urgente para que Meta y otras empresas tecnológicas sean más transparentes sobre sus prácticas de recopilación y procesamiento de datos, y para que los usuarios sean más conscientes de los riesgos para su privacidad en la era de la inteligencia artificial. La situación exige una regulación más estricta y una mayor protección de los derechos de los usuarios. El futuro de la privacidad depende de ello.