Un grupo de investigadores ha utilizado la IA para generar imágenes a partir de la lectura de la actividad cerebral.
Parece ser que los límites de la Inteligencia Artificial están donde las leyes y la ética permitan, ya que a nivel técnico las posibilidades son prácticamente infinitas. El reciente lanzamiento de ChatGPT-4 y de otros chatbots muy avanzados como you.com reavivan la polémica sobre dónde trazar esas líneas rojas que no se deben cruzar. Quizá, como se lleva analizando desde hace tiempo, se tenga que establecer un marco jurídico específico que regule la Inteligencia Artificial.
Si bien es cierto que se podrían utilizar estas tecnologías para llevar a error o cometer fraudes, también se están desarrollando soluciones basadas en IA a problemas de salud y de seguridad, así como importantes mejoras para el bienestar cotidiano y otras innovaciones a las que la sociedad no tendría por qué renunciar. Una de ellas, todavía incipiente, permitiría controlar el funcionamiento de los electrodomésticos con el pensamiento.
Con ese mismo fundamento, la lectura de la actividad cerebral, investigadores de la Universidad de Osaka (Japón) han logrado representar gráficamente los pensamientos. Yu Takagi y Shinji Nishimoto, autores del proyecto, pudieron reconstruir imágenes visuales a partir de señales funcionales de fMRI (Resonancia Magnética Funcional). Para ello se sirvieron de Stable Diffusion, una herramienta de Inteligencia Artificial generativa que crea imágenes digitales de alta calidad a partir de descripciones en lenguaje natural o de la interpretación de experiencias visuales mediante la lectura de la actividad cerebral.
Como afirman Tagaki y Nishimoto, “Demostramos que nuestro marco simple puede reconstruir imágenes de alta resolución a partir de la actividad cerebral con alta fidelidad semántica, sin necesidad de entrenamiento o ajuste de modelos generativos profundos complejos”.
En general, nuestro estudio propone un método prometedor para reconstruir imágenes de la actividad del cerebro humano y proporciona un nuevo marco para comprender los Modelos de Difusión
Yu Takagi y Shinji Nishimoto, autores del proyecto
Para llevar a cabo las pruebas de este singular proyecto, mostraron una serie de fotografías a un grupo de personas con el fin de obtener una experiencia visual reciente y concreta. Mientras observaban con atención esas imágenes, se realizaba una resonancia magnética funcional de sus cerebros. Utilizando un decodificador semántico se generaba una imagen que luego se perfeccionó gracias a los Modelos de Difusión (MD) aplicados por Stable Diffusion.
La técnica utilizada por los investigadores de Osaka no es nueva pero sí mucho menos compleja que otras iniciativas anteriores: “En general, nuestro estudio propone un método prometedor para reconstruir imágenes de la actividad del cerebro humano y proporciona un nuevo marco para comprender las DM”. Y es que Tagaki y Nishimoto se sirvieron de la llamada “representación latente”, un modelo de los datos fMRI obtenidos a partir del cortex visual superior que luego procesaron y decodificaron para producir la imagen final. Así lo explicaban en sus conclusiones: “Interpretamos cuantitativamente cada componente de un modelo de difusión latente (LDM) desde una perspectiva neurocientífica, asignando componentes específicos a las regiones del cerebro. También presentamos una interpretación objetiva de cómo el proceso de conversión de texto a imagen implementado por un LDM incorpora la información semántica expresada por el texto condicional, mientras que al mismo tiempo mantiene la apariencia de la imagen original”.
Blog ÓN
Comité de contenidos