Desde hace miles de años, el ser humano ha utilizado los elementos de su entorno para inventar máquinas. A medida que éstas se volvían cada vez más sofisticadas, la manera de interactuar con ellas también se ha hecho más compleja. Y desde la llegada de la tecnología y los primeros ordenadores, la evolución de la relación hombre-máquina cada vez ha sido más rápida, siendo ya realidad soluciones que, hace unos años, parecían propias de “Minority Report”.
Allá por 1822, un ordenador mecánico creado por Charles Babbage utilizaba un sistema de tarjetas perforadas para el flujo de datos. Y, aunque este dispositivo no se llegó a fabricar por falta de medios, abrió las puertas al uso de esas tarjetas. En los años 50, la tecnología de las tarjetas perforadas con códigos binarios se convirtió en el modo habitual y único de automatizar tareas en las computadoras de la época. Era el primer instrumento para comunicarse con ellas mediante el lenguaje de máquina. Con la llegada de los soportes magnéticos, las tarjetas cayeron en desuso, aunque el código binario a base de ceros y unos sigue siendo el idioma fundamental para entendernos con los dispositivos.
Las máquinas desarrollan tareas cada vez más complejas que requieren instrucciones concretas y respuestas específicas, por lo que el lenguaje debe ser lo más natural posible. Aquí es donde los ingenieros vienen concentrando sus esfuerzos desde hace décadas, en poder hablar con nuestros dispositivos de una manera fluida y eficaz. En cierto modo, la interfaz de línea de comandos (CLI) inicia esta carrera de fondo. Supuso un punto de inflexión al poder utilizar un teclado para escribir las órdenes que debía ejecutar el ordenador. Después llegó la interfaz gráfica de usuario (GUI), que introducía imágenes para representar acciones disponibles. El ratón era el nuevo nexo entre el hombre y la máquina para comunicarse.
En 2007, el primer iPhone trajo consigo la primera pantalla táctil de gran consumo, puesto que había precedentes anteriores en unas pantallas que se utilizaban para el control del tráfico aéreo. Con la pantalla táctil desaparecía la necesidad de tener un teclado o botones capacitivos y llegaban los gestos: deslizar los dedos por un cristal nos abría un universo de posibilidades y ahorraba mucho tiempo. Si bien esto ya representa al mundo actual, no es en absoluto el final del camino.
Hoy en día, son varias las vías abiertas para seguir avanzando en nuestra manera de comunicarnos con las máquinas. Tecnologías tienen pros y contras, defensores y detractores, pero también comparten un objetivo común: facilitarnos una vida cada vez más tecnológica.
La voz, a partir de la llegada masiva al mercado de asistentes como el asistente de Google, Siri o Alexa, ha demostrado en estos últimos años su valor para facilitar la interacción con los dispositivos. Con órdenes directas, en un lenguaje que poco a poco va siendo más natural, los altavoces escuchan, interpretan y ejecutan las órdenes de los usuarios. La conversación con las máquinas había empezado antes, con la llegada de los chatbots, que permitían que, por primera vez, escribiéramos a un sistema informático como lo haríamos con una persona del entorno real. Sistemas que tienen sus limitaciones, pero que, ante el despegue de la IA generativa y su implementación en estos chats, se encuentran ante un desafiante futuro hacia una conversación mucho más natural.
Los gestos son elementos fundamentales en la interacción entre los humanos y la tecnología, a partir del movimiento del cuerpo, de los brazos o incluso de los dedos. En wereables como el Apple Watch, la configuración permite asignar funciones a gestos como apretar el puño una o dos veces. En determinados vehículos, sin necesidad de tocar la pantalla del sistema de entretenimiento: aceptar o rechazar llamadas, reanudar la navegación guiada por GPS, cambiar de emisora de radio, regular el volumen… Y, si hablamos del futuro de los smartphones, una de las últimas y más llamativas novedades ha sido la presentación del prototipo de teléfono inteligente sin pantalla, que proyectará la información en la palma de la mano del usuario.
Entre los últimos avances, las gafas de realidad mixta de Apple han dado mucho que hablar sobre el futuro de la interacción entre los humanos, los dispositivos e incluso el mundo real y el virtual. La solución que plantean los de Cupertino es, de momento, la que parece más acertada para llevarnos no a una realidad virtual ni al metaverso, sino a una realidad mixta, en la que los objetos reales siguen alrededor del usuario y desempeñan una función. Con solo mirar el objeto, gracias al seguimiento ocular, podría ser suficiente para interactuar con el elemento que aparecerá en las gafas.
Mucho más allá irá el futuro que persiguen los implantes cerebrales: pequeños chips que, “instalados” en el cerebro, permitirán interpretar órdenes y ejecutar acciones como mover los brazos, la mano o comunicarse a través de dispositivos digitales. Para ello, solo será necesario pensar en la acción deseada, y el implante se encargaría de su ejecución.
© Imágenes: Shutterstock
Mutua Madrileña no se hace responsable del producto objeto de la presente entrada ni de las consecuencias de cualquier acción realizada en base a la información proporcionada. Esta información, obtenida de fuentes públicas, no supone, en absoluto, una recomendación de compra ni garantiza la calidad, disponibilidad y/o accesibilidad de los productos indicados.
Blog ÓN
Comité de contenidos