Este fin de semana se hizo tendencia pedirle a ChatGPT (o Gemini) que haga una caricatura de nosotros mismos en nuestro lugar de trabajo. Yo mismo lo hice, acá al costado está la imagen que me devolvió y que subí hace unos días.
A partir de entonces, las redes se llenaron de simpáticos dibujos de nuestros contactos como personajes al estilo Disney o Pixar, por ejemplo. Y muchos pusieron el grito en el cielo: "Ahora OpenAI (empresa detrás de ChatGPT), además de toda la información que recolecta con lo que le pedimos y contamos a diario, también tiene nuestra imagen". Es decir, la IA nos vio y sabe cómo somos. Y esto nos lleva a la siguiente pregunta: ¿qué implica? ¿Es peligroso que la inteligencia artificial tenga nuestras fotos? Veamos...
En principio, desde hace años el puñado de empresas que dominan internet (Alphabet/Google, Meta/Facebook/IG/WhatsApp, Microsoft, Apple, Amazon y desde hace poco ByteDance/TikTok) ya tiene todos nuestros datos. Y los obtuvieron de manera voluntaria: todos subimos de todo a la nube y confiamos en estas compañías (al menos la mayoría). ¿Cuál sería el problema, entonces, de darle una foto a una empresa más?
Pedirle a la IA que genere una caricatura o avatar personal combinando una foto tuya con información que le das puede parecer divertido, pero también implica riesgos reales de seguridad y privacidad.
Detrás de este juego, en apariencia inofensivo, aparece una pregunta que preocupa a especialistas en privacidad y seguridad digital: ¿qué pasa cuando, además de interactuar durante meses con una IA, las personas le entregan también su imagen real y datos personales asociados?
Cuando subís una foto tuya y le contás a la IA datos sobre quién sos o cómo trabajás, estás entregando datos personales que pueden ser explotados de formas no deseadas.
La foto de tu rostro y cualquier imagen tuya se convierten en datos biométricos únicos, es decir, características físicas que te identifican de manera inequívoca. Estos datos pueden ser almacenados y reutilizados por los proveedores de IA (según sus políticas de privacidad). Al subir la foto, la plataforma puede analizarla y en algunos casos usarla en sus procesos internos o incluso (en determinados planes o configuraciones) para entrenar modelos futuros.
Por otra parte, la combinación de tu imagen con información sobre tu trabajo, tus intereses o tu biografía puede permitir que el sistema genere un perfil personal más completo, facilitando inferencias sobre rasgos sensibles como edad, ocupación, creencias o estilo de vida. Esto va más allá de una simple imagen artística y entra en el terreno de la evaluación de atributos personales no explícitamente consentidos.
Qué implica subir una foto personal a una IA generativa
Organismos de protección de datos y expertos en privacidad coinciden en que, al subir una foto a una plataforma de inteligencia artificial, el usuario habilita su análisis, procesamiento y, según las condiciones del servicio, su posible almacenamiento. En algunos casos, esa imagen puede ser utilizada para mejorar el funcionamiento del sistema o para entrenar modelos futuros, salvo que el usuario configure explícitamente lo contrario.
El riesgo se amplifica cuando la foto se combina con información adicional que la propia persona proporciona. Contar a qué se dedica, en qué industria trabaja o qué tipo de actividades realiza permite construir un perfil mucho más completo. Ya no se trata solo de una imagen aislada, sino de un conjunto de datos que describen a un individuo concreto.
Los riesgos más importantes
Uno de los puntos más peligrosos es la pérdida de control sobre la imagen una vez subida. Muchas plataformas no ofrecen mecanismos claros para garantizar la eliminación total de los datos enviados. Esto implica que el usuario puede no saber durante cuánto tiempo se conserva su foto ni con qué fines futuros se utilizará. En concreto: si no hay un proceso claro para eliminar fotos o datos que ya fueron procesados, perdés la capacidad de borrarlos o controlarlos directamente.
Por otra parte, una vez que tu imagen está en manos de sistemas basados en IA, existe el riesgo de que pueda ser usada para crear deepfakes, imágenes o videos falsos pero extremadamente realistas. Ya ha habido casos documentados en que herramientas de IA generaron contenidos explícitos no consentidos de personas reales, lo que desencadenó investigaciones regulatorias (por ejemplo en Reino Unido sobre Grok AI).
La disponibilidad de tus datos faciales facilita a terceros crear perfiles falsos en redes sociales o servicios online que se hagan pasar por vos, lo que puede llevar a suplantación de identidad, estafas, phishing o fraude.
Incluso si el proveedor de IA promete no usar tus datos para entrenamiento, ningún sistema es 100% seguro. Si los servidores se vulneran o hay una filtración de datos, tus fotos, junto con cualquier texto que hayas compartido, pueden quedar expuestos y terminar en manos de cibercriminales o vendidos en mercados ilegales de la dark web. Las plataformas de IA también pueden ser objetivo de ataques adversariales que buscan extraer o reconstruir datos almacenados
Privacidad, inferencias y perfiles digitales
Incluso cuando una imagen no se reutiliza de forma maliciosa, la capacidad de la inteligencia artificial para inferir información es un riesgo en sí mismo. A partir de una foto y algunos datos contextuales, los sistemas pueden deducir edad aproximada, entorno profesional o hábitos. Este fenómeno, conocido como privacidad por inferencia, es uno de los desafíos más complejos en la era de la IA.
Por otra parte, según las políticas de muchos proveedores de IA, al subir tu foto y tus datos estás otorgando derechos amplios de uso para el procesamiento, la mejora del servicio e incluso el entrenamiento de modelos futuros. A veces estas cláusulas están en letras pequeñas y no queda claro para qué pueden usar tus datos realmente.
Entonces, ¿es peligroso sumarse a esta tendencia?
La recomendación no pasa por evitar por completo subirse a este tipo de tendencias, sino por entender qué datos se entregan, cómo pueden ser utilizados y qué controles ofrece cada plataforma. En la actualidad, la imagen personal ya es un insumo para sistemas cada vez más potentes, por lo que la cautela ante estos casos es una forma básica de autoprotección digital.