La Realidad Aumentada y Virtual en la fabricación: de la Inteligencia Artificial a los sistemas BCI

Ibermática Digital, Inteligencia Artificial

Una hora de proceso en una planta real se puede simular en microsegundos en un entorno virtual

Vivimos tiempos apasionantes, y difíciles. Apasionantes, porque estamos en el centro de una transformación digital que ha cambiado la forma de interactuar con nuestro mundo: hemos incorporado con mucha rapidez y aparente normalidad dos realidades: la física y la virtual. Y difíciles, porque en la actual situación pandémica global, el uso de la tecnología digital está acelerándose exponencialmente: ocupamos más horas conectados virtualmente que físicamente. Podríamos hablar de una realidad virtual de teleconferencias.

Aitor Moreno, responsable de Inteligencia Artificial en Ibermática.

Hace apenas un año y medio, tecnologías punteras como la Realidad Aumentada y Virtual en la Industria eran “glamurosas”, pero no imprescindibles. Lo primero y más importante era la vorágine del día a día productivo, que no era poco. Costaba menos mandar un experto en automatismos y control a la otra punta del mundo que mantuviera, solucionase o implantase sistemas críticos, que desplegar un sistema de realidad aumentada de telesoporte a los mantenimientos. Era más efectivo montar un “workshop” de formación presencial en un lujoso hotel, dónde ingenieros de distintas plantas fueran formados en las últimas novedades con respecto a los procesos operativos, que disponer de una plataforma de realidad virtual en la que los técnicos pudieran entrenarse. El control remoto de los sistemas era presencial.

Pero todo ha cambiado. Aquellos que apostaron por la teleasistencia basada en realidad aumentada, formación y entrenamiento de los técnicos en base a plataformas virtuales, los que se aventuraron a innovar en sistemas de generación de guías de mantenimiento embebidas en chatbots de asistencia virtual o sistemas móviles, o quienes buscaron la generación de gemelos digitales para las pruebas de conceptos de prototipos, instalaciones o detección de fallos de diseño, acertaron de lleno. Un ejemplo de éxito en todas estas funcionalidades es la plataforma “Next Olanet”, buena muestra de innovación aplicada.

Esta evolución tiene una causa y un acelerador oculto: la Inteligencia Artificial. Como en tantos otros contextos, el avance de la IA, especialmente en estos tres últimos años, está permitiendo, de forma muy “sutil”, acelerar la extensión de los casos de uso de la RA/RV en la industria 4.0. Ejemplos que conocemos todos: identificar y “cuadrar” los objetos de forma automática en la parte de visión artificial dentro de las gafas de RA, simular el comportamiento de las piezas, prototipos, máquinas y gemelos digitales, no sólo en base a un modelado basado en sistemas automáticos de control, sino en base a modelos nacidos de sistemas de aprendizaje automáticos, (un gran salto para muchos ingenieros, “simulink” incluye “machine learning” para modelizar sistemas basados en funciones de transferencia, un hito, tristemente, poco celebrado). Particularizar dichos comportamientos en base a históricos de los procesos de nuestra planta, o generar “rutas y guías de mantenimientos correctivos”, en base a las acciones registradas históricamente por nuestros expertos, en base a los últimos avances en tratamiento de lenguaje natural, son ya una realidad.

Sin embargo, existe una vertiente aún menos conocida por el público en general, la transformada inversa: cómo la RA/RV está afectando a la Inteligencia Artificial y, por consiguiente, a una transformación profunda en los próximos años en los procesos y roles industriales. Y aquí es dónde podemos empezar a hablar de dos conceptos novedosos: la Robotización Inteligente y las nuevas Interfaces Humano-Máquina.

En paralelo al avance de la Realidad Aumentada y a la Realidad Virtual, la Inteligencia Artificial ha vivido, muy recientemente, una revolución nacida de las nuevas formas de entrenar a sistemas autónomos: el aprendizaje profundo y el aprendizaje por refuerzo. Lejos de establecerse como una disciplina ya madura, seguimos avanzando en conceptos tan extraños como “online learning”, “edge computing” y otras técnicas mucho más efectivas que las técnicas clásicas de aprendizaje. Y todo por una única razón: tenemos la tecnología necesaria para que los sistemas aprendan del pasado, respondan muy bien a nuestras preguntas y las infieran a un escenario futuro. El problema es que tenemos pasados muy oscuros.

Necesitamos históricos con muchos datos y, además, con muy buena calidad y, por si fuera poco, muy bien etiquetados. Pero la realidad es muy diferente: los datos muchas veces no son válidos, al menos, en la cadencia en la que los necesitamos, no están bien registrados o existen aún ciertas partes de los procesos pendientes de digitalizar.

Sólo podemos programar robots que realicen operaciones muy precisas con una codificación muy particular y muy costosa. Pero, ¿y si dejamos que un sistema de IA aprenda en base a éxitos y fracasos dentro de un sistema virtual de forma autónoma? ¿Sería posible trasladar este aprendizaje posteriormente a líneas de producción físicas reales? Un gran ejemplo de “transfer learning”, otro gran “topic” de IA. Pensemos que, si así fuera, los ciclos de entrenamiento en un entorno virtual se podrían acelerar, y una hora de proceso en una planta real se puede simular en microsegundos en un entorno virtual. Además, utilizando las ventajas de la paralelización (uso de GPUs de proceso), o de la distribución (usando, como no, plataformas Big Data), podemos lanzar el mismo escenario virtual duplicado cientos de veces, como si fueran fábricas en paralelo trabajando para nosotros, pero sin riesgo de pérdidas millonarias. Sólo tenemos que modelizarla en base a sus ecuaciones diferenciales físicas y, para eso, tenemos buenas herramientas de simulación a nuestra disposición. Nada novedoso, pero muy efectivo.

Si pudiéramos combinar la potencialidad de la modelización de los procesos reales en un entorno virtual, con sus masas, estructuras y física “linealizada” en ecuaciones, e incluir en dichos entornos sistemas automáticos de aprendizaje que, desde cero, fueran entrenándose en la consecución de un objetivo podríamos obviar la necesidad de datos históricos. Quiero aclarar que esto sólo sería posible en aquellos sistemas de modelados prescriptivos, que son aquellos que incluyen operaciones y recomendaciones. Si, además, pudiésemos añadir en dichos entornos perturbaciones a los procesos, e incluso plantear situaciones comprometidas, conseguiríamos un aprendizaje muy efectivo con un coste muy reducido. Sin datos. Una revolución y una nueva IA.

Cuando hace ya 6 años, AlphaGo venció a los mejores expertos del juego, éste fue entrenado en un entorno virtual jugando contra sí mismo. La industria de los videojuegos está muy acostumbrada a este paradigma, y nuestros hijos lo conocen mejor que nosotros. Lo que ellos llaman jugadores “bots” son agentes inteligentes que aprenden dentro de su espacio virtual, el propio juego, a mejorar sus estrategias, y se adaptan al comportamiento particular de cada jugador, en cada partida. Así que es una realidad en otras industrias. Sólo nos queda aplicarlo a nuestros entornos productivos, de cara a acelerar y mejorar la robotización de nuestras plantas de fabricación, sin necesidad, “a priori”, de históricos sobre ellos. Sólo necesitamos un gemelo digital que los simule en un entorno digital en donde incrustemos nuestros robots. Este cambio es importante, porque, al igual que la Inteligencia Artificial fue disruptiva en cuanto a la programación clásica en muy poco tiempo (dejamos de codificar sistemas condicionales intentando abarcar todas las posibles situaciones imaginadas para entrenar a los sistemas con datos, para que sean los propios sistemas los que generen sus propias reglas), dejaremos de programar robots para tareas muy específicas, dejando que éstos aprendan de forma autónoma en realidades virtuales en las que podamos generar múltiples escenarios de actuación. Y esto afecta a los nuevos roles y especialidades profesionales.

Lo que hoy es una ventaja competitiva: ser especialista en la parametrización y programación de un sistema de control muy concreto, y muy verticalizado, mañana será una tarea de poco valor añadido. Se demandará en la industria un nuevo rol: el experto en la generación de entornos de entrenamiento de sistemas de aprendizaje automáticos. Y ya está ocurriendo: nuevos perfiles como los “entrenadores de IA” se comienzan a demandar cada vez más. Quizás sea el comienzo del declive de los “científicos de datos”, pero no quiero alarmar a nadie.

¿Y dónde quedan los ingenieros, maestros de líneas y técnicos en este ecosistema? La realidad aumentada y virtual permiten la utilización de plataformas simuladas en los que los operadores humanos interactúan con un sistema digital que les permite experimentar y explorar formas de colaboración y formación sin dañar objetos ni a personas reales, y que, al mismo tiempo, les entrena para el despliegue en los entornos reales. Y, de nuevo, este paradigma vuelve a cambiar todo lo que conocemos. No podemos interactuar con los sistemas con el teclado, cuando estamos ocupados manipulando operadores, ni por voz, cuando hay ruido ambiental: además es lento y poco efectivo. Y es por ello que en los últimos años ha madurado una nueva tecnología que va a ser un cambio de paradigma total en nuestra forma de comunicación: la neurocomputación, también denominada BCI (interfaces cerebro-computador en inglés).

Una vez más, la Inteligencia Artificial está detrás de este nuevo logro. Ya hace años que en entornos militares y sanitarios se utiliza para el manejo mental de brazos robóticos y en aplicaciones terapéuticas para restaurar lesiones. Pero, a pesar de que parece ciencia ficción, existen múltiples plataformas de programación que permiten tratar las señales cerebrales con librerías especializadas muy maduras. Por supuesto, con una base de IA importante. La realidad actual es que centenares de compañías venden “diademas” y “cascos” cerebrales muy potentes, efectivos y cómodos, en forma de periféricos “plug-and-play”, igual que auriculares. Bitbrain es un ejemplo muy cercano. Muchos de los dispositivos de monitorización cerebral de bajo coste que han aparecido en los últimos años son consecuencia de la inversión realizada por la industria del entretenimiento llegando a tener precios muy competitivos. Pero lo importante: somos capaces de interpretar los pensamientos humanos y codificarlos en diferentes intencionalidades de acciones, en unos casos, y en eventos subjetivos, en otros. El sustitutivo perfecto de los comandos por voz, o del teclado. Su utilización se está expandiendo rápidamente en ambientes de neuromárketing, nutrición y extracción de opiniones subjetivas. Los test de valoraciones mienten, nuestro cerebro no. ¿Por qué no llevarlo a entornos industriales? Ya hemos validado con éxito las primeras experiencias de manejo de robots por medio de BCI, el manejo de exoesqueletos que predicen la intencionalidad del usuario y que son capaces de amoldar sus movimientos mecánicos en función de dichas codificaciones. Podemos conseguir, mediante estos dispositivos, la detección temprana de estrés y de situaciones anómalas en entornos de cadenas de producción críticas, pudiendo ralentizar las cadenas de producción si fuera necesario. Veremos cómo, en poco tiempo, podremos interactuar con los ordenadores/plcs/sistemas en base a estas diademas: una vez más, cambiaremos radicalmente nuestra forma de comunicación. La única forma de poder entrenar estos sistemas de interacción es en base a la utilización de entornos virtuales como gimnasios y captadores de datos en entornos simulados, de cara a realizar una transferencia a entornos reales. Y de forma inversa, los robots podrán conocer las intencionalidades, presión y carga de trabajo y estado situacional de los operadores, en una nueva robótica colaborativa inteligente. Revolución tras revolución.

Vivimos tiempos apasionantes, en dónde la frontera entre entornos reales y virtuales cada vez es más difusa. Especialmente en la Industria. La digitalización y la robotización es una realidad, pero necesitamos entornos de entrenamiento para los nuevos agentes industriales: los sistemas de autoaprendizaje en un entorno colaborativo multitarea, en el que nuestras iteraciones con los procesos serán cada vez más directas.

En Ibermática y, principalmente, i3b (Instituto Ibermática de Innovación), ya estamos desarrollando proyectos en ambos mundos. Y con resultados sorprendentes.

- TAMBIÉN TE PUEDE INTERESAR -

Ir a IberCloud actualiza su infraestructura a un centro de datos definido por soft...

IberCloud actualiza su infraestructura a un centro de datos definido por software, de la mano de VMware

19 octubre, 2021

Ibermática ha evolucionado la infraestructura que soporta su solución en la nube, IberCloud, hacia un formato de centro de datos ...

Ir a Ibermática digitaliza la gestión de sus gastos de viaje con SAP Concur, para ...

Ibermática digitaliza la gestión de sus gastos de viaje con SAP Concur, para simplificar el proceso

28 septiembre, 2021

Dentro del plan de transformación digital impulsado por Ibermática, la empresa tecnológica ha puesto en marcha un nuevo sistema de ...