Usuarios de Pokémon GO ayudaron a entrenar una IA, sin saberlo, mientras jugaban por las calles del mundo



Cuando Pokémon GO llegó a los teléfonos en 2016, millones de personas salieron a caminar por ciudades, plazas y monumentos para capturar criaturas virtuales superpuestas sobre el mundo real. Lo que parecía una simple mecánica de realidad aumentada terminó generando algo mucho más ambicioso: una enorme base de datos visual del planeta que hoy se utiliza para entrenar sistemas de inteligencia artificial.


Niantic, la empresa detrás del juego, confirmó que las imágenes y escaneos recopilados a través de sus aplicaciones forman parte de un conjunto de datos que supera los 30.000 millones de imágenes georreferenciadas. Esa información alimenta ahora modelos de inteligencia artificial diseñados para comprender el entorno físico y permitir que máquinas y robots se orienten en el mundo real.


El resultado es un mapa visual extremadamente detallado construido durante años con la participación indirecta de millones de jugadores.


Un fenómeno global que generó datos del mundo físico

Pokémon GO se convirtió rápidamente en uno de los fenómenos tecnológicos más grandes de la última década. En sus primeros meses superó cientos de millones de descargas y transformó el uso de la realidad aumentada en dispositivos móviles.


La mecánica del juego obligaba a moverse por el entorno real. Para capturar criaturas virtuales o visitar PokéStops y gimnasios, los jugadores debían desplazarse físicamente a ubicaciones específicas como parques, monumentos, esculturas o edificios emblemáticos.


Con el tiempo, Niantic incorporó nuevas funciones de realidad aumentada que ampliaron ese vínculo entre juego y entorno físico. Una de las más relevantes fue AR Mapping, introducida en 2020, que permitía a los usuarios escanear lugares con la cámara del teléfono caminando alrededor de ellos.


Esos escaneos se presentaban dentro del juego como tareas de investigación o misiones especiales. Al completarlas, los jugadores recibían recompensas virtuales.


Detrás de esa mecánica se encontraba una fuente de datos extremadamente valiosa.


Cada escaneo capturaba imágenes desde distintos ángulos y condiciones, incluyendo información sobre posición, orientación del dispositivo y contexto visual. Al combinar miles de capturas de un mismo lugar, es posible reconstruir modelos tridimensionales mediante técnicas de fotogrametría.


Un mapa visual construido por millones de personas

El valor del sistema radica en su escala. Mientras que empresas de cartografía dependen de flotas de vehículos equipados con cámaras, los juegos de Niantic lograron recopilar información visual a partir de millones de usuarios repartidos por todo el planeta.


Los jugadores fotografiaron monumentos, fachadas de edificios, parques, plazas, calles, esquinas y espacios públicos de alta circulación. Y además de mostrar lugares, brindaron las condiciones en las que fueron capturadas: distintas horas del día, cambios de iluminación, clima variable y diferentes perspectivas. Ese volumen de datos resulta difícil de replicar con métodos tradicionales.


Niantic recopiló esta información de forma progresiva durante años a través de Pokémon GO y también de Ingress, el juego de realidad aumentada que lanzó en 2012 y que utilizaba ubicaciones del mundo real como parte de su mecánica.


De videojuego a modelo geoespacial de inteligencia artificial

La empresa utiliza ahora ese material para desarrollar lo que denomina Large Geospatial Model, un modelo de inteligencia artificial orientado a comprender espacios físicos.


A diferencia de los modelos de lenguaje que analizan texto, estos sistemas aprenden a interpretar escenas del mundo real: calles, edificios, árboles, monumentos o superficies.


Uno de los componentes centrales de esta tecnología es el Visual Positioning System (VPS), un sistema capaz de determinar la posición exacta de un dispositivo comparando lo que ve su cámara con la base de datos visual existente.


Este tipo de posicionamiento puede alcanzar una precisión de centímetros, incluso en lugares donde el GPS resulta impreciso.


La tecnología tiene aplicaciones potenciales en múltiples áreas, entre ellas, robótica autónoma, navegación en realidad aumentada, logística urbana, vehículos autónomos y servicios basados en geolocalización.


Robots que se orientan con imágenes de Pokémon GO

Una de las primeras aplicaciones comerciales de esta tecnología aparece en la robótica de reparto. Niantic Spatial, la división dedicada a estas soluciones, anunció acuerdos para integrar su sistema de posicionamiento visual en robots de entrega urbana. Estos vehículos utilizan cámaras para observar su entorno y compararlo con la base de datos de imágenes recopiladas por los jugadores.


De esa forma pueden ubicarse con precisión en calles y aceras, incluso en entornos urbanos complejos donde las señales GPS pueden desviarse varios metros debido a los edificios. Para un robot que debe llegar exactamente a la puerta de un domicilio, ese margen de error resulta crítico. El sistema permite que el robot identifique elementos del entorno, contraste lo que ve con el mapa visual y determine su posición real.


El origen del proyecto: mapas y geolocalización

La estrategia de Niantic no surgió de manera casual. La empresa tiene una historia profundamente vinculada con la cartografía digital. Su fundador, John Hanke, dirigió durante años el área de geolocalización de Google y participó en el desarrollo de tecnologías que terminaron formando parte de Google Earth y Google Maps.


Niantic nació dentro de Google como un proyecto experimental centrado en juegos basados en ubicación antes de convertirse en una empresa independiente. Desde ese inicio, su propuesta combinaba entretenimiento, mapas y datos del mundo real.


Lo que los jugadores aceptaron al usar el juego

El uso de estos datos también está contemplado en las condiciones del servicio de la empresa. Cuando los usuarios cargan imágenes o escaneos a través de funciones de realidad aumentada, otorgan a la compañía derechos amplios para utilizarlos. Esto incluye su procesamiento, almacenamiento y eventual uso en otros servicios o productos. Según las políticas de privacidad de Niantic, las imágenes se procesan de manera anonimizada y no se tratan como información personal identificable. 


Pero aunque las funciones de escaneo y realidad aumentada forman parte de las condiciones de uso del juego, muchos jugadores no eran plenamente conscientes del valor que podían tener esas imágenes fuera del propio videojuego. 


En la práctica, millones de personas contribuyeron a construir una base de datos visual del mundo físico mientras participaban en actividades presentadas como simples misiones dentro del juego. Sin embargo, una vez que esos datos forman parte del sistema, no siempre es posible retirarlos del conjunto de entrenamiento utilizado para desarrollar modelos.


Un ejemplo del nuevo tipo de datos que alimenta la inteligencia artificial

El caso de Pokémon GO ilustra un fenómeno cada vez más frecuente en el desarrollo de inteligencia artificial. Los conjuntos de datos que entrenan estos sistemas no siempre se generan en laboratorios o centros de datos. En muchos casos surgen de actividades cotidianas realizadas por millones de personas en aplicaciones digitales.


En este caso, un videojuego que invitaba a recorrer la ciudad con el teléfono terminó creando uno de los mayores archivos visuales georreferenciados del planeta.


Ese mapa invisible del mundo físico, construido durante años por jugadores que buscaban criaturas virtuales, hoy sirve para entrenar máquinas capaces de entender el entorno real.

Artículo Anterior Artículo Siguiente