Un experto reveló el verdadero riesgo y los peligros de la inteligencia artificial

Mientras el debate público sobre la inteligencia artificial se enfoca en la pérdida de empleos y los escenarios apocalípticos, Arthur Mensch, CEO de la startup francesa Mistral AI, plantea una preocupación más sutil pero igual de profunda: el riesgo de que las personas se vuelvan cada vez más perezosas intelectualmente. Para el joven empresario, exinvestigador de Google DeepMind, el verdadero peligro de la IA no está en que nos reemplace, sino en que nos descalifique.


Durante su intervención en la conferencia tecnológica VivaTech, celebrada en París, Mensch desestimó las advertencias más catastrofistas que circulan en la industria. En particular, criticó la reciente declaración de Dario Amodei, CEO de Anthropic, quien predijo que la IA podría eliminar la mitad de los empleos administrativos en cinco años. “Una gran exageración”, calificó Mensch, y agregó que ese tipo de mensajes alarmistas responden más a estrategias de marketing que a proyecciones realistas.


En lugar de pensar en términos de reemplazo, el CEO de Mistral propone un enfoque basado en la transformación del trabajo. En su visión, las máquinas asumirán tareas rutinarias, liberando a las personas para enfocarse en aspectos más relacionales, creativos y humanos. Sin embargo, esta transición no está exenta de riesgos.


Del asistente útil al sustituto del pensamiento

La preocupación central de Mensch radica en lo que denomina “descalificación intelectual”: la posibilidad de que, al delegar demasiado en los sistemas de inteligencia artificial, perdamos habilidades cognitivas esenciales como sintetizar información, evaluar argumentos o cuestionar fuentes. “Ser capaz de criticar y procesar información es un componente esencial del aprendizaje”, advirtió. Y ese proceso se debilita si los usuarios aceptan sin cuestionar las respuestas generadas por la IA.


Esta advertencia se alinea con estudios recientes sobre el impacto cognitivo del uso frecuente de herramientas como los chatbots. Aunque la IA puede facilitar la productividad y ampliar el acceso a la información, también puede promover una peligrosa dependencia si no se diseña con mecanismos que incentiven la participación activa del usuario. Mensch aboga por sistemas reflexivos, que mantengan a los humanos involucrados en el proceso, en lugar de convertirlos en simples receptores de respuestas automatizadas.


Centauros, ciborgs y el futuro del trabajo humano

Para abordar este desafío, los investigadores y desarrolladores exploran distintos modelos de colaboración entre humanos e IA. Estos modelos se ubican en un espectro según el nivel de control humano: desde la automatización (en la que la IA asume tareas con mínima supervisión), pasando por la aumentación (que potencia las habilidades humanas sin reemplazarlas), hasta el modelo de diálogo, en el que humanos e IA interactúan de forma iterativa y constructiva.


En la práctica, estos enfoques se traducen en configuraciones como los “centauros” —personas que delegan tareas específicas a la IA, pero conservan el control general— o los “ciborgs”, donde hay una integración más estrecha entre el pensamiento humano y la inteligencia artificial. Los ejemplos abundan: diagnósticos médicos asistidos por IA, robots industriales controlados por humanos, o sistemas de recomendación editorial que sugieren pero no deciden.


Para Mensch, lo importante es que el diseño de estas interacciones no nos convierta en operadores pasivos. “Debemos asegurarnos de que los humanos sigan tomando decisiones y mantengan el control intelectual”, señaló. Esa es, a su juicio, la única manera de que la inteligencia artificial sea una herramienta de empoderamiento, y no un atajo hacia la descalificación cognitiva.


Conclusión: pensar sigue siendo esencial

La inteligencia artificial no tiene por qué condenarnos a la pasividad, pero sí podría hacerlo si no aprendemos a usarla con criterio. El mensaje de Arthur Mensch es claro: no basta con regular los riesgos técnicos o laborales de la IA, también debemos prestar atención a los efectos culturales y mentales que genera. En la era de los asistentes virtuales, pensar sigue siendo una habilidad insustituible. Y protegerla, una responsabilidad compartida entre diseñadores, usuarios y toda la sociedad.

Artículo Anterior Artículo Siguiente