En este artículo se ven dos casos de uso en los que la IA, combinada con otras tecnologías, permite llevar a cabo proyectos cimentados sobre el actual estado del arte tecnológico
Hablar de inteligencia artificial es, hoy en día, hablar del vector de innovación con palabras mayores. Es nexo de unión de infinidad de aplicaciones que vemos materializadas en multitud de casos de uso que abarcan la manutención industrial, el control de pro esos, la seguridad industrial el control de calidad, el mantenimiento, etc.
A nivel tecnológico, la IA actúa como aglutinador de tecnologías que antaño solamente se entendían de forma individual y aisladas del resto: drones, visión artificial, realidad virtual/aumentada, ciberseguridad, etc. Cada una de ellas, sin ser tecnologías precisamente nuevas, están viviendo una segunda juventud y su despegue definitivo. Pero, ¿por qué ahora y no antes? La imparable capacidad de cálculo de las actuales computadoras y, sobre todo, la ingente cantidad de información recabada por los sistemas a lo largo de los años, ha hecho que la explotación de esa información de forma inteligente pueda servir para llegar ahora donde antes nunca antes se había llegado. Términos como de BigData, Datalakes, IA, Machine Learning van habitualmente de la mano porque tienen todos esos elementos comunes: grandes volúmenes de información que pueden servir para analizar, predecir y prescribir la forma de actuar en base a la experiencia del dato.
A continuación vemos dos casos de uso en los que la IA, combinada con otras tecnologías, permite llevar a cabo proyectos cimentados sobre el actual estado del arte tecnológico.

Xavier Tejero, Digital Operations Manager en Ibermática.
VISIÓN ARTIFICIAL PARA EL CONTROL DE VERTIDOS EN EL MAR
Las mareas negras producidas por accidentes en buques petroleros, y el vertido resultante de las operaciones rutinarias de buques y de actividades ilegales, como arrojar al mar los residuos oleosos de las sentinas o los restos de crudo del lavado de tanques, son fuentes importantes de la contaminación por hidrocarburos de los océanos. La falta de adecuadas instalaciones de recepción en puertos para recibir estos residuos, la gran cantidad de buques viejos y con sistemas deficientes para el tratamiento a bordo de estos productos o su mantenimiento hasta depositarlos en un punto de recepción, la falta de sistemas de vigilancia, la débil legislación y la carencia de escrúpulos de algunas personas y empresas, provocan que cada año se viertan al mar millones de toneladas de hidrocarburos. No existen estimaciones fiables sobre la generación y vertido de hidrocarburos y aguas oleosas, ya que en muchos de los casos el vertido se detecta tardíamente, cuando este impacta contra la costa, dificultando la identificación del infractor.
Ante esta situación, la tecnología puede aportar una valiosa ayuda, mediante herramientas que permitan alertar de forma temprana a los técnicos. Esto se traduce en la generación de acciones reactivas inmediatas sobre los estados iniciales de los vertidos en los buques, o de prácticas ilícitas de limpieza que estén generando vertidos alrededor del puerto mediante la conjunción de diversos sistemas de predicción de corrientes marítimas, vigilancia online y proactiva de vertidos en base a imágenes aéreas tratadas con técnicas de visión artificial (Figura 1).
Un reto de estas características supone superar las limitaciones existentes en ámbitos como:
- La recuperación multimedia en visión e imágenes. Las imágenes multimedia se caracterizan fundamentalmente por la dificultad que existe a la hora de generar información válida para ser procesada. Poseen gran cantidad de ruido y una enorme variabilidad en sus propiedades. Por ello, existen problemas en la extracción de las áreas de interés en una imagen, aún sin resolver, como lo son la escalabilidad, el movimiento y la luminosidad. Estos problemas pueden tener un efecto relativo cuando se usan cámaras fijas, pero los drones (o cámaras en vehículos terrestres) están en movimiento continuo y se ven afectadas directamente por ellos.
- El procesamiento de imágenes de vídeo en tiempo real. Incluye un conjunto de técnicas que operan sobre la representación digital de una imagen, a objeto de destacar algunos de los elementos que conforman la escena para facilitar su posterior análisis, bien sea por parte de un usuario (humano) o un sistema de visión artificial. Este procesamiento incluye la representación, la normalización, la selección de algoritmos de segmentación, la extracción de características (Figura 2) y los métodos de clasificación. Dentro de estos últimos, los paradigmas como las redes neuronales, algoritmos genéticos, y los métodos neuro-fuzzy han adquirido una importancia creciente. El campo del análisis de imágenes naturales, como puedan ser las ortofotos adquiridas por los drones, se ha revolucionado con la llegada efectiva de las técnicas de Deep Learning. Estas técnicas permiten aprender de forma no supervisada características visuales de la imagen, y también permiten entrenar nuevos sistemas de clasificación de forma autónoma. A pesar de que esta es su potencialidad, estas técnicas basadas en redes neuronales existen desde los años 80, pero no ha sido hasta los últimos años cuando realmente han conseguido dar resultados positivos y útiles en el campo de la visión artificial. Existen dos motivos principales para que sea ahora y no antes cuando las técnicas de Redes Neuronales hayan funcionado: 1) nuevos algoritmos (conocidos como Deep Learning) más eficientes en el aprendizaje y 2) bases de datos de imágenes lo suficientemente grandes como para realizar un aprendizaje efectivo.
- Sistemas de interpolación del origen de los vertidos. En la actualidad existen pocos modelos capaces de simular la complejidad de la dispersión de un contaminante evolutivo, es decir, cuyas propiedades varían a lo largo del tiempo. En el caso de producirse un vertido de petróleo o de un hidrocarburo genérico en una zona costera, los procesos predominantes son los procesos de advección o arrastre de la superficie de la mancha debidos al empuje por corrientes, mareas, viento y oleaje. En el análisis de la información sobre el movimiento de vertidos, usualmente se utilizan bases de datos públicas, referentes a: (1) Datos del oleaje y corrientes, (2) datos meteorológicos, (3) datos de rutas de los mercantes, (4) modelos con código Cormix.
- Sistemas de vigilancia en base a AUV e imágenes satelitales En los últimos años las plataformas de vuelo no tripuladas están siendo unos elementos tecnológicos de gran desarrollo. Las diferentes denominaciones utilizadas para hacer referencia a ellas como UAVs, Drones o RPAS. determinan la capacidad de realizar operaciones de manera autónoma, aunque, por normativa, siempre han de estar en disposición de ser controladas por un piloto. Esta herramienta, los UAV, cobra inteligencia en el momento en que se le integra un sensor específico, que es el que le da la posibilidad de aplicaciones concretas. Complementando esta combinación de UAV y sensor, hay que tener definido un procedimiento de captura en función del escenario de trabajo, es decir, posiblemente el UAV, y procedimiento de la operación para la toma de datos, sean diferentes en los distintos puertos y, por supuesto, en mar abierto. Adicionalmente a los UAVs y de manera complementaria, se puede complementar la información con la proporcionada por satélites de observación de la Tierra que ofrecen diferentes formatos y espectros.
- Big Data aplicado al análisis de datos en tiempo real en streaming La evolución actual de los sistemas es un hecho, principalmente en la utilización de los ecosistemas de Hadoop y Spark, como frameworks de código abierto para el desarrollo y ejecución de programas que pueden almacenar, procesar y analizar grandes volúmenes de datos (multiformato-petabyte) en paralelo y de forma distribuida en dúster.
- Big Analysis sobre anotaciones 2d, 3d, datos geoposicionados y datos agregados, y metodología El área del Análisis de Big Data es todavía una disciplina incipiente que cuenta con el soporte de tecnologías maduras para el procesamiento y conocimiento científico-tecnológico previo de análisis de datos, reconocimiento de patrones, principalmente en la gestión de datos visuales, y enlaces a anotaciones semánticas, desde un punto de vista cuantitativamente menor y más homogéneo. Big Analysis realiza muchas tareas de cálculo, las cuales están directamente involucradas en el análisis (búsqueda de patrones de datos, recuperación de datos en base a su distribución, organización de los datos mediante un sistema de clasificación…). El análisis de los datos implica extraer conclusiones basado en la revisión de los conjuntos de datos, en este caso multiformato y gestión de la fusión de conclusiones multimódulos. Estas tareas pueden ser divididas en análisis estadístico y modelización La implantación de estos modelos se realiza con una metodología bien definida y probada (CRJSP-DM).
GEMELOS DIGITALES EN LA INDUSTRIA 4.0
La industria 4.0 afecta a toda la cadena de valor industrial, es una versión digital de la fábrica en la que todos sus procesos se encuentran conectados e interactúan de manera inteligente entre sí. El desafío para esta nueva revolución industrial reside en el desarrollo sistemas de análisis masivo de datos y su almacenamiento, la incorporación de sensores y electrónica a los elementos que interactúan en los procesos productivos y en los productos derivados de ellos, la convivencia entre hombre-procesos y máquina o infraestructuras, y la disponibilidad de información enriquecida para una mejor y más acertada toma de decisiones.
El nuevo paradigma que se ha creado es conseguir la conexión permanente entre ambos mundos como clave de eficiencia y competitividad en el futuro. Con este propósito nace el denominado «gemelo digital», el modelo virtual de un proceso o producto que reproduce digitalmente el comportamiento y rendimiento de su versión real a la que se empareja con la máxima fidelidad. Con la información en directo de planta, el histórico de operaciones y mantenimiento, así como la aplicación de técnicas de Machine Learning, es posible desconectar los sistemas de supervisión y análisis de los sistemas físicos y trabajar exclusivamente con los gemelos digitales. Pero el concepto de gemelos digitales aún presenta barreras tecnológicas para su completo desarrollo, y por lo tanto no permiten su adopción con plenitud en el tejido industrial (Figura 3).
Por un lado, existe la dificultad técnica para monitorizar masivamente y digitalizar procesos en la industria, con gran variedad de equipos, sistemas legacy aislados, buses de campo, protocolos propietarios, así como una estricta arquitectura de integración y automatización industrial. Por otro lado, los sistemas usados actualmente en la industria son incapaces de almacenar y tratar los volúmenes de datos necesarios para crear y evolucionar los gemelos digitales (Figura 4), que realmente representen el comportamiento de los elementos físicos, y no solo sus características y su estado. Finalmente, las técnicas de Machine Learning se basan en tener el mayor número de datos posibles para ser fiables, y normalmente requieren de implantación de sistemas de monitorización de operaciones previo para disponer de los suficientes datos.
La realidad de una planta es que normalmente, si bien se tiene acceso a datos reales de fabricación, operación, sensores, estos no cuentan con la calidad/frecuencia necesaria, o, simplemente, no es un volumen suficiente para poder empezar a aplicar técnicas de corrección, prevención y predicción. Incluso teniendo esos datos, no son suficientes dependiendo de qué KPI a abordar. El modelo digital permite simular a futuro en offline y plantear posibles escenarios, así como sus actuaciones, antes de que ocurran. Es un módulo fundamental para realizar técnicas de control predictivo, optimización y control óptimo.
Para obtener un buen modelo digital es necesario salvar varios retos tecnológicos:
- Disponer de un sistema con la flexibilidad suficiente como para abordar todas las posibles casuísticas que se presenten. En las fábricas del siglo XXI existen gran variedad de procesos industriales y posibles rutas de fabricación. Cada planta es un pequeño mundo, único y diferente del resto de plantas. Incluso empresas que producen un mismo bien o equipo disponen de procesos productivos completamente diferentes. El primer paso es generar una infraestructura capaz de modelar todos los nodos de fabricación, con sus diferentes parámetros de simulación, así como la interrelación entre los nodos, incluyendo las diferentes restricciones y reglas de comportamiento, tanto a nivel interno del nodo como de relación común.
- Generar un modelo con el suficiente detalle como para que el resultado de la simulación sea válido en términos de precisión, pero que no sea tan preciso que su computación se vuelva imposible de manejar. A medida que aumenta el número de procesos implicados y las posibilidades de interconexión entre los diferentes sistemas, el nivel de complicación del modelo digital aumenta exponencialmente y, por este motivo, es muy importante realizar un buen diseño del mismo.
- Generar resultados de simulación orientados a mejorar lo que llamamos indicadores de producción. Se debe permitir la definición de estos indicadores a partir del valor de diferentes variables de estado del modelo de simulación.
A medida que pasa el tiempo la planta irá evolucionando, no solo estructuralmente, sino también a nivel interno de muchos de sus parámetros que pueden degradarse o mejorar, cambios de proveedor, materias primas, operarios, defectos en máquina, etc. Para ello, empleando datos de producción real, se debe realizar periódicamente una resintonización del modelo digital a fin de que su resultado de simulación se desvíe en la menor medida posible del resultado real. Es la forma de asegurar mediante un lazo cerrado la validez del modelo en el tiempo.
SIMULANDO PROCESOS PRODUCTIVOS
Una vez que disponemos de un modelo digital que emula con precisión suficiente el comportamiento de la planta real, se puede emplear para estudiar con antelación situaciones y escenarios de producción en la fábrica. Para estudiar estas diferentes situaciones basta con definir las restricciones, funciones de coste, perturbaciones, pedidos a fabricar e índices de producción que queremos maximizar o minimizar. Una vez definidas las condiciones de trabajo, para una ventana de tiempo dada, podemos lanzar la simulación y comparar diferentes situaciones productivas y planificaciones con el fin de maximizar la producción, minimizar la energía consumida, evitar la saturación de algunos centros de trabajo, estudiar la parada de un centro para realizar mantenimiento, o cualquier otra restricción y función de coste que queramos definir.
Estas mejoras de planificación requieren acceso a la información del ERP y/o MES de la planta a fin de conocer las órdenes de trabajo planificadas en cada centro, y un sistema que plantee diferentes secuencias de producción de manera inteligente. Existen iniciativas de desarrollo de simuladores de procesos productivos industriales para la optimización y secuenciación en entornos de producción, que, por un lado, permiten ejecutar de forma virtual la planificación de los pedidos dentro de la planta generando diferentes KPI’s de cliente (funciones de coste) y, por otro lado, generando los datos que van a permitir aplicar técnicas de Machine Learning y generar modelos de proceso, predictivo y prescriptivo.
Análisis predictivos y prescriptivos en procesos de aprendizaje sobre gemelos digitales En el área del mantenimiento, el uso de Machine Learning, está permitiendo pasar de un mantenimiento basado en fases, a un mantenimiento predictivo donde los modelos permiten predecir la degradación de una máquina y planificar los mantenimientos predictivos Con un enfoque más general, podemos decir que la analítica predictiva está basada en la aplicación de técnicas de Machine Learning para hacer predicciones, análisis de tendencias y deficiencias en KPI’s productivos). La analítica prescriptiva (o la optimización), es a su vez, un paso más en la analítica predictiva, y de define como la selección por los sistemas inteligentes de aquellos escenarios que, en base a las predicciones, permiten optimizar una función determinada (reducción de defectos en procesos de fundición, optimización de tiempos de ciclos en mecanizado, reducción de tiempos de validación, mejora en costes, calidad, productividad, etc.) en base a unas restricciones dadas.
Análisis proactivos en los procesos de aprendizaje en entornos de gemelos digitales El uso de modelos predictivos que va dirigido no solamente hacia la identificación futura de un fallo del sistema en los entornos virtuales de los gemelos digitales, sino también hacia su corrección y al estudio de los factores que causan dichos problemas, con el objetivo de mejorar los procesos y reducir el riesgo de que dichos fallos ocurran. Este proceso se conoce también como mantenimiento proactivo.
CONCLUSIONES
Hemos visto dos casos de uso suficientemente distintos que explican bien el contexto en el que nos encontramos y el modo en el que la tecnología se combina para sumar fuerzas, para aportar valor de forma decisiva.
Por un lado, la visión artificial, combinada con técnicas de deep learning, permite detectar, identificar, alertar y dar respuesta ante situaciones potencialmente peligrosas como pueden ser los vertidos incontrolados en el mar. Los sistemas ligeros no tripulados (drenes) permiten llegar más lejos y ofrecer imágenes de gran calidad, que son adecuadamente procesadas mediante técnicas de normalización, segmentación y selección, almacenadas en grandes cantidades y estableciendo una ingente base de información (BigData) sobre la que entrenar los sistemas de detección.
Por otro lado, la irrupción del gemelo digital. Este tipo de iniciativas inciden en el internet industrial de las cosas, posibilitando mediante esta tecnología conseguir una mayor optimización de la eficacia operativa y la producción industrial. Es decir, hacer la producción industrial más flexible, rentable y sensible a los cambios que pide el mercado. Las consecuencias no son meramente tecnológicas, ya que la integración de las tecnologías de producción y las TIC, presenta un gran potencial para cambiar el modo en el que la industria aporta valor añadido. Surgen nuevos productos, nuevos servicios, nuevos modelos de negocio, nuevas necesidades, nuevos retos, en definitiva, que cuestionan el formato y las claves competitivas de la industria del futuro.