La inteligencia artificial prometió cambiar la forma en que nos informamos. Pero detrás de las respuestas rápidas y las frases bien construidas, los chatbots esconden un problema que preocupa a los expertos: la dificultad para distinguir entre lo cierto y lo inventado.
Una investigación reciente, impulsada por la Unión Europea de Radiodifusión (UER) junto con la BBC, puso en evidencia lo que muchos periodistas ya sospechaban: los sistemas de IA fallan con frecuencia cuando se trata de ofrecer información verificada. El estudio analizó miles de respuestas generadas por los principales modelos, entre ellos ChatGPT, Copilot, Gemini y Perplexity, y descubrió que casi la mitad contenía errores importantes o datos sin sustento real.
El espejismo de la precisión
Los chatbots funcionan proyectando probabilidades: predicen cuál será la siguiente palabra según patrones aprendidos. Esa lógica estadística, tan útil para escribir con fluidez, no garantiza que los hechos detrás del texto sean verdaderos. Por eso, los sistemas pueden afirmar con total seguridad algo completamente falso, un fenómeno conocido como “alucinación”.
Los investigadores encontraron ejemplos llamativos: respuestas con leyes inexistentes, declaraciones atribuidas a fuentes que nunca hablaron o datos desactualizados presentados como actuales. En algunos casos, los errores no eran evidentes a simple vista, lo que hace aún más complejo detectar cuándo la IA se equivoca.
Una herramienta poderosa, pero no un periodista
El informe subraya algo esencial: los modelos generativos no entienden la verdad, solo reproducen patrones. Por eso, su relación con el periodismo es ambivalente. Pueden servir para organizar información o resumir contenido, pero no reemplazan la verificación ni el contexto que aporta un profesional humano.
Compañías como OpenAI, Microsoft y Google reconocen el problema y trabajan en mecanismos para reducirlo. Sin embargo, los avances técnicos todavía no resuelven la raíz del asunto: los chatbots carecen de un sistema de validación independiente que garantice que lo que dicen sea comprobable.
Desinformación 2.0
El auge de estas herramientas marca un cambio profundo en el consumo de noticias. Cada vez más personas preguntan primero a la IA antes de consultar medios periodísticos, lo que plantea un dilema: ¿qué pasa cuando la respuesta es incorrecta, pero suena convincente?
Para los expertos, este escenario puede erosionar la confianza pública en la información. La precisión, un valor central del periodismo, se diluye en un mar de textos perfectamente escritos, pero potencialmente falsos.
El nuevo alfabetismo digital
Más allá de los errores técnicos, la investigación propone una conclusión clara: la responsabilidad también recae en los usuarios. Verificar, comparar fuentes y mantener una mirada crítica son hábitos que deben fortalecerse en la era de la automatización.
La inteligencia artificial puede ser un gran apoyo para aprender y trabajar, pero todavía no está lista para convertirse en árbitro de la verdad. En tiempos donde la velocidad importa más que la certeza, ese recordatorio es más necesario que nunca.
