El uso de inteligencia artificial generativa en el ámbito laboral crece a un ritmo acelerado y, con él, emerge uno de los principales riesgos de ciberseguridad para las organizaciones: el ‘Shadow AI’. Se trata del uso no regulado de asistentes virtuales por parte de empleados para resolver tareas cotidianas, muchas veces subiendo información sensible a plataformas públicas sin control ni gobernanza.
Informes recientes de compañÃas como Google Workplace y Dell Technologies muestran que, a lo largo de 2025, se incrementó de forma sostenida el uso de asistentes de IA para redactar informes, analizar datos o preparar presentaciones ejecutivas. Esta adopción, si bien impulsa la productividad, expone a las empresas a un riesgo crÃtico de fuga de datos.
Una brecha preocupante en América Latina
En la región, los datos reflejan una brecha alarmante entre adopción y control. En Argentina, por ejemplo, más del 57% de los profesionales ya utiliza herramientas de inteligencia artificial en su trabajo diario, mientras que solo el 23% de las empresas cuenta con protocolos formales que regulen su uso.
Otro estudio reciente reveló que el 78% de los trabajadores implementa su propio chatbot en la oficina, una práctica que los analistas ya califican como una de las principales preocupaciones de los lÃderes en términos de privacidad y ciberseguridad.
“El problema no es la inteligencia artificial, sino la falta de polÃticas claras de gobernanza sobre la información que se intercambia”, explica Roberto Ricossa, vicepresidente para Latinoamérica de F5. “Muchas personas toman resultados financieros, proyecciones o datos confidenciales de la empresa y le piden a un chatbot que genere un análisis para una reunión de directorio. Eso es equivalente a subir un video privado a una plataforma pública: esa información deja de estar bajo control corporativo”, añade.
Datos privados en la nube: un riesgo irreversible
La inteligencia artificial aplicada a tareas internas es un catalizador de eficiencia. Sin embargo, cuando los modelos se alimentan con información sensible —como datos financieros, propiedad intelectual o información de clientes— el riesgo se vuelve exponencial.
Una vez que esos datos ingresan a modelos de acceso público, no existe forma de recuperarlos ni de garantizar su uso futuro.
Este escenario es especialmente atractivo para la ciberdelincuencia, una industria que opera sin fronteras y que hoy se posiciona entre las más rentables del mundo. Los atacantes utilizan tecnologÃa avanzada para identificar vulnerabilidades y obtener recomendaciones de ataque cada vez más sofisticadas.
Prohibir la IA no es la solución
Ante el temor a una fuga de información, muchas organizaciones optan por prohibir el uso de herramientas de IA generativa.
“Bloquear la inteligencia artificial es una decisión estratégica equivocada”, sostiene Ricossa. Luego explica: “Prohibir su uso equivale a renunciar a la ventaja competitiva. Una empresa que decide no adoptar IA puede comprometer seriamente su viabilidad en los próximos cinco años. El problema no se resuelve prohibiendo, sino gestionando”.
Seguridad como puerta de enlace
Para F5 la solución podrÃa ser implementar un modelo de gobernanza activa, donde la seguridad actúe como una puerta de enlace entre la organización y los modelos de inteligencia artificial.
Este enfoque permite que todo el tráfico hacia y desde los asistentes virtuales pase por los filtros de la empresa, definiendo accesos por roles y limitando qué información puede compartirse a través de lÃmites preestablecidos de que se puede y que no se puede compartir.
“El objetivo es proteger a los empleados de ellos mismos”, explica Ricossa. Para el VP de F5 esto significa que si se intenta subir información confidencial a un asistente público, el sistema lo detiene. “Es el equivalente a los guardias en la puerta de un local: no están para frenar el negocio, sino para cuidarlo”, subraya.
Este tipo de controles evita que datos sensibles de áreas como Recursos Humanos, Finanzas o Legal queden expuestos a través de motores de IA y, al mismo tiempo, permite aprovechar los beneficios de la automatización y el análisis avanzado.
Gobernar la aceleración
La inteligencia artificial no es una tendencia pasajera, sino un motor de cambio exponencial que está redefiniendo la competencia en todos los sectores. Pero se advierte que su adopción sin una gobernanza adecuada abre una brecha de riesgos que puede ser catastrófica para los negocios.
“El desafÃo para los lÃderes no es elegir entre innovación o seguridad. El verdadero reto es entender que la IA necesita lÃmites humanos para generar valor sostenible”, concluye Ricossa.
