Compartir
Reading Time: 5 minutes

En la era del big data, en la que compañías, gobiernos e instituciones compiten a contrarreloj por no perderse los frutos informativos que se esconden entre los datos masivos, es necesario encontrar herramientas que permitan sacarles todo el jugo posible. La comprensión de estos grandes volúmenes de datos supone todo un reto para el cerebro humano, que no está preparado para asimilar tales cantidades de información de forma eficiente. Una máquina de experiencia virtual que se está gestando en los laboratorios de la Universidad Pompeu Fabra de Barcelona (España), podría ser una de las herramientas que permita exprimir al máximo las posibilidades del big data.

“El problema es que el cerebro no está diseñado para recibir estas cantidades de información”, explica el psicólogo y director científico del proyecto, Paul Verschure. Para evitarlo, su equipo trabaja en eXperience Induction Machine (XIM, del inglés, máquina de inducción de experiencias), una máquina interactiva que guía al individuo en la exploración y análisis de grandes bases de datos en función de la respuesta que el usuario emita frente a la información que tiene delante.

Mientras la persona procesa las imágenes, textos y sonidos que le proporciona el sistema a través de diversos dispositivos, éste registra en tiempo real cómo la persona reacciona ante los estímulos que recibe. Gracias a ese feedback fisiológico, la máquina ajusta la presentación de los datos constantemente para evitar la sobrecarga del cerebro y hacer los datos más accesibles.

En una de las primeras aplicaciones de esta tecnología enmarcada dentro de la iniciativa CEEDs y financiada por el Séptimo Programa Marco de la Unión Europea, los investigadores han introducido datos del propio cerebro humano dentro de XIM. Así, ha nacido BrainX3, un explorador virtual del mapa de conexiones cerebrales (conocido como conectoma). No obstante, XIM podría aplicarse a la visualización de cualquier tipo de paquetes de big data que estén organizados como una red: datos de Facebook y del genoma humano, por ejemplo.

El sistema constituye una sala de realidad mixta en la que el usuario se sitúa como centro receptor de la información, pero también emisor. Unas pantallas de imagen 3D proyectan los datos para que el individuo los reciba y un dispositivo de realidad aumentada recoge información fisiológica generada por el individuo y la transmite a la máquina.

A través de un guante, unos monitores para los ojos y un chaqueta, el sistema se nutre de los marcadores de la persona, como la dirección de la mirada, el tamaño de la pupila, las pulsaciones y el ritmo de la respiración, para registrar sus reacciones inconscientes a la hora de procesar la información.

Este diálogo hombre-máquina permite al sistema identificar estrés, fatiga e interés en el individuo y en función de esto le guía hacia la información que puede resultarle más útil y manejable, dentro del aluvión de datos que de otra forma sería imposible de digerir a tiempo real. Así, XIM puede reducir la cantidad de información visible en cada momento y guiar mediante flechas la mirada de la persona hacia los datos más relevantes.

Guía cerebral

A lo largo de miles de años, la evolución ha preparado al cerebro para tomar decisiones de manera rápida y eficiente sin apenas darse cuenta de ello. Es decir, sin reparar de forma consciente en el proceso de cribado por el cual se discrimina continuamente qué información es relevante en el entorno. Pero “las gigantes bases de datos no son el entorno natural del ser humano”, recuerda Verschure. Por ello, “dar sentido a estos procesos inconscientes del cerebro puede ayudar a mejorar las capacidades para asumir tales cantidades de información”, añade.

Para llevar registro de estos “procesos inconscientes” en forma de feedback, esta cámara de sumersión 3D contiene un arsenal de dispositivos. En primer lugar, los sensores de movimiento registran las posturas y gestos del cuerpo a través de la interfaz Kinect, (diseñada en origen para el mundo de los videojuegos), y permiten al usuario interactuar con los datos con sus gestos naturales, arrastrando o alejando datos como haría Tom Cruise en Minority Report (Steven Spielberg, 2002).

Otro dispositivo rastrea los movimientos oculares para ver dónde se concentra la mirada, y comprueba la dilatación de las pupilas en busca de signos que indiquen que  “la carga cognitiva que recibe es excesiva”, explica el estudiante de doctorado Alberto Betella, quien también trabaja el proyecto.

Un guante procesa los movimientos de la mano y registra las respuestas de la piel, como la sudoración para medir el estrés. Las cámaras analizan las expresiones faciales y un equipo de voz detecta los rasgos emocionales en el discurso de la persona y su pronunciación. Finalmente, una chaqueta diseñada especialmente sirve para monitorizar las pulsaciones del corazón y los patrones de respiración de forma no invasiva.

Toda esta información es interpretada por la máquina en tiempo real para modular la presentación de datos en las pantallas a partir de una serie de parámetros establecidos en experimentos previos. “Si por ejemplo, el sistema registra que la carga cognitiva es excesiva, podrá reducir la cantidad de información en el campo de visión, o si detecta que el usuario muestra una especial atención por cierta área, podrá ampliarla o guiarle mediante flechas parpadeantes que no son perceptibles de forma consciente”, explica Betella.

Para probar la eficacia del sistema a la hora de guiar la exploración de los datos, los investigadores planean hacer demostraciones con un grupo de neurocientíficos mientras navegan por un mapa del conectoma humano en BrainX3. Las pruebas preliminares sugieren que el sistema de visualización inmersivo en XIM ayuda a descubrir “nuevos patrones y nuevas asociaciones interesantes” comparado con sistemas que visualizaban la misma información en un ordenador de mesa, según explica el ingeniero informático y director técnico del proyecto, Pedro Omedas. Aunque todavía no se han cuantificado resultados concluyentes.

Un aspecto importante del sistema es su capacidad de aprendizaje colectivo. El programa procesa las respuestas implícitas de todos los usuarios que lo usan a tiempo real, y se basa en esta información para sugerir posibles sendas a los nuevos usuarios. “Si cinco neurocientíficos han prestado especial atención a un núcleo de conexiones en el área occipital, cuando llegue un sexto neurocientífico y explore la misma zona, el sistema podrá animarle de manera sutil a prestar atención a ese conjunto de datos en concreto”, explica Betella.

Las aplicaciones de la tecnología son muy amplias. Podría servir, según Verschure, para fomentar el hallazgo de nuevos descubrimientos y la generación de nuevas ideas en cualquier labor que exija el análisis de grandes bases de datos complejos, “con una mayor eficiencia”. Pero además de la motivación científica, sería una buena herramienta para proyectar grandes cantidades de información con fines ilustrativos y didácticos. Los investigadores ya están en contacto con algunos museos para desarrollar recreaciones de escenarios en los que los visitantes pudieran adentrarse para explorarlos de manera virtual. Es posible que el paisaje futurístico de Minority Report no quede tan lejos, y que en un futuro próximo las personas puedan dialogar con el big data imitando los gestos de Tom Cruise.

Comentarios

comentarios