Una investigación publicada por los diarios suecos Svenska Dagbladet y Göteborgs-Posten reveló que las grabaciones realizadas con los anteojos inteligentes Ray-Ban desarrolladas por Meta son enviadas a trabajadores en Kenia para su revisión y etiquetado como parte del entrenamiento de modelos de inteligencia artificial.
Según el informe, el material es procesado por contratistas vinculados a la empresa Sama, dedicada al etiquetado de datos. La tarea consiste en visualizar y clasificar contenidos captados por los dispositivos, que integran cámara y micrófonos y permiten registrar imágenes y audio en primera persona.
De acuerdo con los testimonios recogidos por los medios suecos, entre el material analizado aparecen escenas grabadas en espacios privados como baños y dormitorios. Los trabajadores también mencionaron haber visto tarjetas bancarias, información médica visible y situaciones Ãntimas.
Las gafas inteligentes de Meta registraron un fuerte crecimiento en ventas en los últimos años. La investigación señala que en 2025 se comercializaron más de siete millones de unidades, frente a los dos millones vendidos en 2023 y 2024 combinados.
Cómo funciona el proceso de revisión
El etiquetado de datos es una etapa habitual en el desarrollo de sistemas de inteligencia artificial. Los revisores humanos observan imágenes o videos y los clasifican para que los modelos aprendan a reconocer patrones, objetos y contextos.
En los términos de uso de Meta se establece que la compañÃa puede revisar interacciones con sus sistemas de inteligencia artificial de manera automatizada o manual. También se advierte que los usuarios no deben compartir información que no deseen que sea utilizada y almacenada por la IA.
Sin embargo, los testimonios citados en la investigación indican que parte del contenido revisado corresponde a situaciones personales que los usuarios podrÃan no considerar como material destinado a procesos de entrenamiento.
Control de los datos y debate sobre privacidad
La abogada especializada en protección de datos Kleanthi Sardeli, de la organización None Of Your Business, señaló a los medios suecos que una vez que el material es incorporado a los modelos de inteligencia artificial, el usuario pierde en la práctica control sobre su utilización posterior.
Exempleados citados en la investigación también indicaron que los mecanismos de anonimización pueden no impedir la identificación de personas en determinadas condiciones.
El caso se suma al debate sobre el uso de contratistas en paÃses como Kenia para el entrenamiento de inteligencia artificial y sobre las implicancias de privacidad asociadas a dispositivos capaces de grabar en todo momento con solo presionar un botón.
Meta, según consignaron los diarios suecos, remitió a sus términos de servicio y polÃticas de privacidad al ser consultada por la investigación.
