ChatGPT se convirtió en un aliado cotidiano para estudiantes, periodistas y empresas: redacta textos en segundos, sugiere ideas originales y hasta resuelve tareas repetitivas que antes llevaban horas. Pero la misma herramienta que desbloquea la creatividad también puede transformarse en un recurso poderoso para la ciberdelincuencia.
La otra cara de la inteligencia artificial aparece cuando se la utiliza para automatizar estafas, campañas de phishing o anuncios fraudulentos. Y aunque el propio sistema integra filtros para bloquear estos intentos, los expertos aseguran que no es invulnerable.
Cómo se saltean las barreras
Los modelos de lenguaje como ChatGPT incorporan limitaciones para evitar que generen contenido dañino. Si alguien le pregunta cómo crear un virus, la respuesta es un “no” rotundo. Sin embargo, existen métodos como el prompt injection, que consiste en esconder instrucciones maliciosas dentro de un texto aparentemente inocente.
“Estas herramientas no detectan el malware en sÃ. Lo que sà pueden hacer es analizar cómo está escrito un anuncio y dar pistas sobre si puede ser fraudulento. Para lo demás, hay que apoyarse en soluciones de ciberseguridad especÃficas”, explica Hervé Lambert, Global Consumer Operation Manager de Panda Security.
El poder del phishing automático
El riesgo más evidente es la automatización de campañas de fraude digital. Un ciberdelincuente podrÃa generar correos electrónicos que imiten la comunicación oficial de un banco, variar infinitamente el texto para esquivar filtros antispam y hasta crear páginas falsas con un diseño convincente.
La IA suma algo nuevo: la posibilidad de personalizar cada mensaje según la cultura, el idioma o el perfil de la vÃctima. AsÃ, los anuncios fraudulentos se vuelven mucho más difÃciles de detectar.
“Un sistema como ChatGPT podrÃa redactar miles de anuncios en segundos, aumentando las chances de que alguno atraviese los filtros automáticos de las plataformas publicitarias”, advierte Lambert.
Casos que encendieron las alarmas
OpenAI ya bloqueó cuentas que intentaban manipular audiencias con contenido polÃtico falso. También se descubrieron botnets que usaban ChatGPT para promocionar criptomonedas y sitios dudosos, como la red Fox8, compuesta por más de mil cuentas falsas.
En 2023, una extensión de navegador se hizo pasar por una herramienta oficial del chatbot. En realidad estaba infectada con malware y filtró datos de miles de usuarios.
Además, investigaciones periodÃsticas revelaron que la función de búsqueda integrada podrÃa ser manipulada con contenido oculto en páginas web, generando reseñas falsas o entregando fragmentos de código malicioso.
La industria del “ChatGPT malicioso”
Mientras las empresas tecnológicas refuerzan medidas de seguridad, en foros clandestinos ya circula su versión perversa: WormGPT. Se trata de un chatbot entrenado sin lÃmites éticos ni legales, pensado directamente para generar código dañino, diseñar campañas de phishing y producir contenido criminal.
Basado en un modelo abierto (GPT-J), WormGPT se alquila por entre 60 y 100 euros al mes. Es, en palabras de los expertos, la antÃtesis de ChatGPT: un asistente sin filtros creado para el delito.
La delgada lÃnea entre innovación y riesgo
La inteligencia artificial tiene la capacidad de democratizar habilidades: cualquiera puede convertirse en un redactor persuasivo o un programador eficiente con solo unas instrucciones. Pero esa misma accesibilidad es lo que preocupa: el salto de la creatividad legÃtima al fraude digital es cada vez más corto.
La clave, coinciden los especialistas, está en endurecer los filtros, monitorear los abusos y trabajar en cooperación internacional para perseguir a quienes utilicen la IA con fines ilÃcitos.
Porque la tecnologÃa no es buena ni mala por sà misma. Todo depende de quién —y para qué— la utilice.