Facebook quiere acceso a tus fotos privadas para entrenar a su inteligencia artificial

Meta, la empresa matriz de Facebook, comenzó a solicitar a sus usuarios acceso al carrete de fotos de sus teléfonos, incluyendo imágenes que nunca fueron compartidas en la plataforma. La nueva función, limitada por ahora a Estados Unidos y Canadá, permite procesar estas imágenes mediante inteligencia artificial para generar collages, resúmenes temáticos o sugerencias visuales personalizadas.


Aunque la herramienta se presenta como una mejora en la experiencia de usuario, su funcionamiento ha desatado un nuevo debate sobre los límites entre contenido privado y el procesamiento automatizado de datos personales.


Fotos no publicadas, analizadas por IA

Al momento de crear una nueva historia, algunos usuarios están recibiendo una ventana emergente que les solicita autorización para realizar un “procesamiento en la nube”. Esto implica que las fotos del carrete, aunque no hayan sido subidas a Facebook, pueden ser enviadas a los servidores de Meta y analizadas automáticamente. Según detalla la propia compañía, el análisis incluye metadatos como hora, ubicación, presencia de personas, objetos y rasgos faciales.


Al aceptar esta función, los usuarios dan su consentimiento a los Términos de IA de Meta, los cuales otorgan a la empresa amplios derechos para utilizar los medios procesados, aunque Meta afirma que estas imágenes no se usan para entrenar sus modelos de inteligencia artificial... por ahora.


Modificaciones automáticas y falta de control

Algunos usuarios ya reportaron comportamientos inesperados del sistema. En Reddit, un usuario comentó que sus fotos de boda habían sido automáticamente transformadas con estilo “estudio fotográfico”, sin haberlo solicitado. Otros han notado que la IA de Meta reorganizó sus imágenes o les aplicó filtros sin previo aviso.


"Este nivel de análisis entra en un territorio inexplorado", escribió India Today, al señalar que Meta está yendo más allá del contenido público y comenzando a procesar activamente medios privados no publicados.


Si bien la empresa asegura que las imágenes solo son visibles para sus propietarios y no se utilizarán con fines publicitarios, su política de privacidad –actualizada en 2024– permite el uso de publicaciones públicas, imágenes y descripciones desde 2007 para el entrenamiento de modelos de IA.


Meta dice que no usa este contenido para entrenar... por ahora

El Director de Producto de Meta, Chris Cox, intentó aclarar los límites de uso: “No entrenamos con cosas privadas, no entrenamos con cosas que la gente comparte con sus amigos. Sí entrenamos con cosas que son públicas.” Sin embargo, un portavoz reconoció que el contenido del carrete de cámara “puede utilizarse para mejorar sugerencias creativas”, aunque no forma parte del entrenamiento de modelos en esta etapa de prueba.


Esta distinción, aunque importante, no disipa completamente las dudas sobre cómo Meta podría usar esos datos en el futuro.


¿Hay forma de evitarlo?

Sí, pero con matices. Los usuarios pueden desactivar la función de procesamiento en la nube en la configuración de privacidad. Meta afirma que, si se revoca el permiso, las imágenes no publicadas serán eliminadas de sus servidores en un plazo de 30 días.


Las opciones de protección varían según la región. En la Unión Europea, el Reglamento General de Protección de Datos (RGPD) permite a los ciudadanos rechazar el uso de sus datos para entrenamiento de IA. En cambio, en países como Estados Unidos o Australia, los usuarios tienen menos control sobre cómo se emplea su contenido en estos sistemas.


Cambiar la audiencia de una publicación de “público” a un grupo más reducido también puede evitar que esa información sea incluida en los conjuntos de entrenamiento de IA.


La expansión de Meta hacia funciones cada vez más personalizadas y automatizadas con IA deja al descubierto una tensión creciente: la innovación tecnológica avanza más rápido que los marcos regulatorios y los límites de la privacidad. La decisión, en última instancia, recae en los usuarios, quienes deben elegir entre nuevas herramientas “creativas” y el control sobre su información más personal.

Artículo Anterior Artículo Siguiente