En el siglo XX, se produjo el surgimiento gradual de las tecnologías de la información y comunicación (TIC). Así, a lo largo de un siglo hicieron su aparición, la radio (1920), el cine (1940), la televisión (1950/1960), internet (1990).
Aunque cada una de ellas constituyó un avance en la forma de difundir la información y el entretenimiento, todas ellas presentan una limitación en común, la transmisión solo estimula dos sentidos del interlocutor, el audio y la vista.
En nuestro presente y futuro cercano esto está por terminar.
En la década pasada, dos científicos españoles diseñaron “Brain Polyphony”, una interfaz cerebro computadora (ICC) que consiste en un casco neural (Hardware) y un programa asistido por IA (Software) que lee las ondas cerebrales y puede traducirlas en música.
A partir de ahora, las emociones y los sentimientos que generamos los seres humanos ya se pueden traducir en sonidos audibles y conformar melodías basados en los estados de anímicos.
El sistema también puede funcionar de manera inversa, es decir, puede escucharse música no acústica o auditiva, sino mediante estimulación cerebral. Esto genera un nuevo estándar en sonido, con máxima fidelidad, ya que el ruido ambiental desaparece, las melodías son reproducidas a través de impulsos eléctricos y decodificados por el área del cerebro destinado al audio.
El 7 de marzo de 2023, la Universidad de Osaka, hizo público sus avances en neurotecnología que permitirían leer los impulsos cerebrales que forman el pensamiento y convertirlos en imágenes.
Los estudios destinados a convertir los impulsos cerebrales u ondas cerebrales (alfa, beta, delta, theta y gamma) en imágenes, ya habían comenzado en el año 2011 por parte de los experimentos llevados a cabo por el equipo de investigadores de la Universidad de California Berkley, Estados Unidos de América; cuando en el año 2011, los científicos habían logrado captar la actividad visual del cerebro humano mediante la lectura de ondas cerebrales y reconstruirlas como videoclips digitales. Sin embargo, su nivel de definición era muy baja.
Para lograr estos resultados sorprendentes que superan a los estándares alcanzados por la Universidad estadounidense, el equipo de investigación nipón, ha fusionado o en realidad hecho converger la resonancia magnética funcional (fMRI); -Cognotecnología- con la herramienta Stable Diffusion asistida por inteligencia artificial -Infotecnología- .
Este tipo de neurotecnología asistida por IA, muy probablemente constituirá el futuro del sonido y de las imágenes redefiniendo y reinventando el campo audiovisual al poder eliminarse el componente vibratorio de la luz y el sonido, obteniendo imágenes y sonidos de alta definición y fidelidad.
Las imágenes se reproducirán directamente en nuestra mente con un nivel de realismo equivalente a una experiencia sensorial visual vivenciada a través de nuestros ojos y cerebro.
Las experiencias inmersivas por medio de dispositivos de interfaz cerebro-computadoras (ICC), permiten ampliar el campo de experimentación sensorial, más allá de la vista y el sonido.
Los dispositivos ICC permiten involucrar la activación a nivel neurológico de los sentidos no solo de la vista y el audio, sino también del tacto, gusto y olfato.
La empresa neurotecnologica, Neurosky, ya ha dado inicio a estos programas mediante el programa ZenZone.
El sistema ZenZone emplea un dispositivo de interfaz cerebro-computadora (ICC) que posee una audioguía para su uso, permitiendo a su usuario: 1.- Redurcir el estrés en forma rápida y adquiriendo una profunda relajación; 2.- Mindfulness. Entrena al cerebro para adquirir fácil y velozmente estados de relajación, calma y atención enfocada.; 3.- Actitud positiva. Brinda técnicas para desarrollar un optimismo inquebrantable; 4.- Autodisciplina. Permite el desarrollo de una fuerza de voluntad sin precedentes.
Lo más sorprendente es que el dispositivo ICC permite activar las áreas del cerebro destinado al tacto, olfato y gusto, con lo cual puede vivirse una experiencia sensorial completa, sin necesidad de dispositivos adicionales como guantes o chalecos hápticos, para emular el tacto.
La entrada El futuro del entretenimiento no es audiovisual, es neural se publicó primero en Revista Mercado.

