Meta presentó un modelo de inteligencia artificial con una ambición poco habitual incluso para los estándares de la industria: imitar cómo responde el cerebro humano frente a videos, textos y sonidos.
TRIBE v2 (TRImodal Brain Encoder), es el nombre de la herramienta que, según la empresa de Mark Zuckerberg, servirá para investigación en neurociencia por su capacidad de anticipar patrones de actividad cerebral a partir de distintos estímulos y de construir una representación digital de esa respuesta sin depender de un nuevo escaneo para cada persona.
El desarrollo fue entrenado con registros de resonancia magnética funcional obtenidos de cientos de participantes mientras consumían películas, podcasts, audiolibros y otras tareas experimentales. A partir de ese material, Meta sostiene que TRIBE v2 puede predecir qué zonas del cerebro se activarían ante nuevos contenidos. La propuesta, en otras palabras, no apunta solo a analizar datos neuronales ya registrados: busca reproducir de manera computacional el funcionamiento cerebral frente a estímulos del mundo real.
La novedad coloca a Meta en un terreno especialmente sensible. No se trata de una IA generativa más ni de una mejora incremental para recomendar contenido. Se trata de un sistema pensado para aproximarse a la lógica con la que el cerebro procesa lenguaje, audio e imagen, y convertir esa dinámica en un modelo predictivo. Por eso, junto con el interés científico, también aparecen preguntas sobre privacidad mental, manipulación y uso corporativo de una tecnología que intenta parecerse cada vez más al cerebro que observa.
Cómo funciona la IA con la que Meta busca replicar la respuesta cerebral
TRIBE v2 fue desarrollado por el equipo FAIR de Meta como un modelo trimodal. Eso significa que combina tres tipos de procesamiento: uno para texto, otro para audio y otro para video o imagen. Cada uno transforma los estímulos en representaciones matemáticas que luego son integradas por una red capaz de traducir esa información en mapas de actividad cerebral de alta resolución.
La meta del sistema es construir una especie de gemelo digital del cerebro humano. No uno idéntico ni individual en sentido estricto, pero sí una base predictiva suficientemente robusta como para anticipar qué regiones neuronales participarían ante una experiencia concreta. Según la información difundida, el modelo puede generalizar esas predicciones a nuevos sujetos, idiomas y tareas, y también mejorar su precisión cuando se lo ajusta con una pequeña cantidad de datos adicionales de una persona determinada.
Ese punto es central porque muestra que la IA no solo identifica correlaciones entre contenido y activación cerebral. También intenta capturar una organización funcional más amplia del cerebro, integrando distintos tipos de tareas y estímulos en un mismo marco. En los experimentos mencionados en la noticia, el sistema logra reproducir mapas cerebrales asociados a caras, lugares, cuerpos, palabras y contrastes de lenguaje, con resultados que los autores consideran comparables o superiores a métodos de referencia.
De la neurociencia al negocio de la atención
La presentación de TRIBE v2 puede leerse como un avance relevante para la neurociencia. Un modelo así permitiría simular experimentos, seleccionar mejores estímulos antes de pasar por el escáner y explorar con más rapidez cómo se organizan distintas funciones cognitivas en el cerebro humano. También podría reducir tiempo y costos en contextos clínicos o de investigación, sobre todo cuando los estudios por resonancia son limitados o costosos.
Pero en el caso de Meta esa lectura convive con otra. La empresa no opera en el vacío académico. Controla plataformas diseñadas para captar atención, ordenar contenidos y optimizar interacciones a escala global. Por eso, una tecnología que intenta imitar la respuesta cerebral no queda confinada al laboratorio: también puede ser vista como una herramienta con valor estratégico para entender de forma más profunda qué activa emociones, qué retiene la mirada y qué tipo de estímulos refuerzan determinadas conductas.
La diferencia no es menor. Hasta ahora, el negocio de las redes sociales se apoyó sobre métricas externas: clics, tiempo de permanencia, comentarios, compartidos. Un modelo como TRIBE v2 introduce otra capa. Ya no se trataría solo de medir qué hizo una audiencia frente a un contenido, sino de desarrollar sistemas que intenten anticipar cómo podría procesarlo el cerebro antes incluso de exponerlo a gran escala.
Las alertas que abre una IA que intenta parecerse al cerebro
La noticia también expone los límites y riesgos del proyecto. El primero es técnico. La resonancia magnética funcional no captura la actividad cerebral con precisión de milisegundos y el modelo todavía no representa al cerebro como un agente activo que decide y actúa, sino como un observador de estímulos. Eso impone una distancia clara entre la promesa de “imitar el cerebro” y la capacidad real de reproducir toda su complejidad.
El segundo límite es ético. Cuanto más se acerque una IA a modelar la respuesta mental humana, más delicada se vuelve la frontera entre investigación científica y explotación comercial. En este caso, la preocupación no pasa solo por el uso de datos, sino por la posibilidad de inferir estados internos, sesgos o vulnerabilidades cognitivas a partir de patrones de consumo digital.
El tercero tiene que ver con el poder. Meta liberó el modelo para usos no comerciales, pero retiene el control sobre una eventual explotación masiva. En una compañía que ya domina infraestructuras de distribución de contenido, publicidad segmentada y sistemas de recomendación, una IA orientada a replicar la respuesta cerebral adquiere un significado distinto. La discusión, entonces, ya no es solo qué puede hacer la neurociencia con esta herramienta, sino qué podría hacer una plataforma global con una tecnología entrenada para parecerse cada vez más al cerebro humano.
