Con motivo del Día de la Internet Segura, que se celebra este martes 10 de febrero, especialistas en ciberseguridad y protección de datos advirtieron sobre los riesgos asociados al uso de inteligencia artificial en entornos digitales donde la privacidad queda expuesta.
Casos recientes dejaron en evidencia la fragilidad de la privacidad en redes sociales de gran escala. Chatbots integrados a estas plataformas quedaron bajo la lupa por facilitar la creación de imágenes íntimas no consentidas mediante comandos que permiten alterar fotografías, incluso de menores de edad. Más allá del aspecto técnico, el foco se desplaza hacia la ética en el diseño de sistemas de IA y la responsabilidad de quienes los desarrollan y operan.
La pregunta de fondo es clara: ¿puede un chatbot responder a ese tipo de solicitudes sin asumir las consecuencias de vulnerar la intimidad o de generar contenidos hiperrealistas que diluyen la frontera entre realidad y ficción? La inteligencia artificial no actúa de forma autónoma. Se entrena y funciona a partir de datos, reglas y decisiones humanas, lo que vuelve inevitable el debate sobre responsabilidades.
El problema estructural detrás de la privacidad
El eje del problema no se limita a los abusos visibles. La reutilización de datos compartidos voluntariamente por los usuarios permite que los modelos de lenguaje los procesen para fines ajenos a los originales, incluidos usos maliciosos. La falta de consentimiento explícito y de trazabilidad en el entrenamiento de estos sistemas deja expuesta la identidad digital.
“El problema no es la herramienta. Es el entrenamiento de estos modelos con datos públicos sin consentimiento explícito”, señalan especialistas en protección de datos.
Este escenario refuerza la necesidad de incorporar mecanismos más estrictos de control y verificación en las infraestructuras que sostienen internet, desde las APIs hasta las nubes de datos, con foco en el acceso, la autenticación y el monitoreo del comportamiento automatizado.
Los puntos críticos para una Internet segura en 2026
Desde una mirada técnica, los especialistas identifican tres áreas donde hoy se concentran los principales riesgos.
La exposición de APIs y datos personales ocupa el primer lugar. Estas interfaces permiten el intercambio de información entre aplicaciones. Cuando carecen de protección adecuada, facilitan la recolección masiva de datos para entrenar sistemas de IA o ejecutar ataques de ingeniería social.
La desinformación sintética representa otro frente crítico. En Argentina, durante las elecciones de 2025, circuló un video falso generado con IA en el que un dirigente político anunciaba la baja de su candidatura. Este tipo de contenidos debilita la confianza digital y complica la verificación de información confiable.
La seguridad digital tampoco se limita a proteger credenciales. También implica garantizar que los contenidos que circulan en línea no se utilicen para acoso, extorsión o fraude.
En este contexto, Roberto Ricossa, vicepresidente de F5 para Latinoamérica, planteó: “El escenario actual es el de una batalla de inteligencia artificial buena contra una inteligencia artificial mala, entre quienes lanzan aplicaciones y quienes las hackean”.
El tercer punto crítico se relaciona con el desplazamiento del ataque hacia el usuario final. El código malicioso que se ejecuta en navegadores o aplicaciones móviles puede interceptar información sensible antes de que llegue a servidores protegidos, lo que facilita el robo de identidad.
Recomendaciones para proteger la soberanía digital
Las organizaciones cumplen un rol central en este escenario. La implementación de estrategias de seguridad para aplicaciones y APIs permite detectar comportamientos automatizados anómalos, bots y herramientas de IA orientadas a la extracción o manipulación de datos.
“Las empresas necesitan asegurarse de que, mientras equilibran las cargas de procesamiento, la información confidencial permanezca bajo un control estricto”, explicó Federico Aragona, director de ventas regional de F5 para Latinoamérica.
Para los usuarios, la recomendación pasa por revisar en detalle las configuraciones de privacidad de las redes sociales y limitar el uso de datos personales y fotografías en el entrenamiento de modelos de IA. La higiene digital hoy exige decisiones conscientes sobre qué se publica y dónde.
“La seguridad depende de nuestras propias acciones y de hasta dónde permitimos el involucramiento de la tecnología en nuestras vidas”, concluyó Aragona.
Por qué y cuándo se celebra el Día de la Internet Segura
El Día de la Internet Segura se celebra todos los años el segundo martes de febrero. La fecha forma parte de una iniciativa internacional impulsada por la red Insafe y apoyada por la Comisión Europea, con el objetivo de promover un uso más seguro, responsable y consciente de internet, en especial entre niños, niñas y adolescentes.
La jornada no se limita a la prevención de delitos informáticos. También busca visibilizar problemáticas vinculadas con la privacidad, la protección de datos personales, la identidad digital, la desinformación y el impacto de las nuevas tecnologías en la vida cotidiana. En los últimos años, la expansión de la inteligencia artificial sumó una capa adicional de complejidad al debate, al introducir riesgos asociados a la automatización, el uso masivo de datos y la generación de contenidos sintéticos.
