Meta ha reconocido que está utilizando revisores humanos para analizar imágenes y videos que su sistema de inteligencia artificial ha identificado como potencialmente íntimos. La compañía ha implementado esta medida para cumplir con las leyes y regulaciones de protección de datos, específicamente en relación con el contenido explícito. El sistema de IA, diseñado para detectar contenido inapropiado, a veces identifica erróneamente imágenes que no son explícitas, lo que lleva a que sean revisadas por humanos.
Sin embargo, esta práctica ha generado controversia, con críticos argumentando que plantea serias preocupaciones sobre la privacidad y la vigilancia. Meta no ha proporcionado detalles completos sobre el alcance de la revisión humana, incluyendo el número de revisores involucrados y los criterios específicos que utilizan. La empresa afirma que está comprometida con la protección de la privacidad de los usuarios y que está trabajando para mejorar la precisión de su sistema de IA.