
La IA se asocia mucho a aplicaciones más “populares” como el ChatGPT o la robótica, pero ¿qué papel juega en la investigación científica?
Yo empezaría por comentar que la IA es un paraguas muy amplio bajo el que se encuentran muchas disciplinas o técnicas científicas, como el aprendizaje automático o Machine Learning, por ejemplo. Pero aplicaciones como la predicción de resultados, clasificación de datos, métodos de reducción de modelos, etc. se llevan desarrollando desde hace muchos años.
Una de las herramientas que más desarrollo ha sufrido estos últimos años, debido al avance en Hardware fundamentalmente (equipos informáticos más potentes, mayor capacidad de almacenamiento de datos, tarjetas gráficas muy potentes como las GPUs, …) han sido las redes neuronales artificiales. Pero para que te hagas una idea, ¡mis primeros apuntes sobre redes neuronales artificiales son de 2007! Lo único es que no habían alcanzado un desarrollo como el que estamos viendo estos años y que, volviendo a tu pregunta, nos permite abarcar y resolver problemas que con técnicas más clásicas no podríamos resolver, ni siquiera nos los podíamos plantear.
Con las máquinas de cálculo actuales, quepermiten acelerar los cálculos que estamos desarrollando y entrenando redes neuronales de última generación (redes neuronales de grafos, fundamentalmente), podemos hacer simulaciones computacionales de modelos o sistemas físicos que permiten dar respuestas en tiempo real de alta fidelidad, es decir, las respuestas que obtenemos son rápidas y fiables, y se corresponden con las respuestas que tendría el modelo real (no computacional) con un menor coste. Es más barato simular el comportamiento de una pieza en un ordenador para comprobar si el diseño es funcional, que fabricarla físicamente y testarla a continuación.
Por ejemplo, ya hay modelos de vehículos que se diseñan de forma totalmente computacional, se simulan computacionalmente en túneles de viento virtuales, o se realizan crash test computacionales y tras verificar los resultados, se cambia la cadena de montaje y se fabrican las primeras unidades. Por ejemplo, el Renault Clío V (modelo de 2019). Claro está, el tiempo de cálculo que llevan estos y otros muchos modelos es muy elevado y en todos ellos se intenta buscar soluciones basadas en IA para minimizarlos. Cuanto menos se tarde en obtener resultados, más análisis se pueden realizar, por ejemplo.

¿En qué campos (bioingeniería, nuevos fármacos, medioambiente, ingeniería civil…) crees que la IA va a tener un impacto más disruptivo?
Estos campos están en el epicentro de la revolución de la IA. Bajo mi punto de vista, cualquier aporte en el desarrollo de temas relacionados con el ámbito biosanitario en particular, es muy llamativo, tiene buena publicidad o incluso puede ser rentable (industrias farmacéuticas). Hay numerosos grupos que captan gran cantidad de financiación dedicados a temas de investigación relacionados con la sanidad.
Sin ser mi especialidad, me atrevería a decir que la IA sí va a permitir desarrollar fármacos prometedores para enfermedades que ahora no se logran controlar. En aquellas disciplinas en las que sea necesario hacer uso de gran cantidad de datos, o combinaciones de elementos, donde se necesiten regresiones fuertemente no lineales, reproducir patrones de comportamiento en los datos, o para ajustar las variables a pacientes específicos, por ejemplo, me atrevería a decir que, si no están viviendo ya una revolución, lo harán en los próximos años.
Desde vuestro grupo AMB, lleváis más de 20 años trabajando en simulación computacional. ¿Cómo ha cambiado la llegada de la IA vuestra forma de abordar estos problemas?
Como te he comentado anteriormente, ahora podemos abordar problemas que antes no podíamos ni siquiera imaginar. Lo hemos denominado IA-Híbrida.
Concretamente, lo que hemos hecho ha sido combinar todo el conocimiento que tenemos sobre métodos numéricos y de mecánica de medios continuos (generalmente de sólidos) con el desarrollo de redes neuronales de última generación. Forzamos que estos algoritmos de regresión cumplan con los principios físicos que conocemos, como las leyes de la termodinámica, por ejemplo. Intentamos así que los resultados que obtenemos sean fiables y coherentes con la física que rige el sistema en estudio y que se lleva estudiando desde hace siglos.
¿Puedes explicar de forma sencilla qué significa “simulación computacional de fenómenos físicos complejos en tiempo real"? ¿Qué ventajas ofrece frente a los métodos clásicos?
Si se consulta la descripción que hace la R.A.E. de la palabra simulación, en castellano simular es: representar algo, fingiendo o imitando lo que no es.
Si haces la misma consulta en un diccionario de otra lengua, por ejemplo, un diccionario británico, se muestra que simulation es:
1. Una situación en la que se crea artificialmente un conjunto particular de condiciones con el fin de estudiar o experimentar algo que podría existir en la realidad
2. El acto de fingir que algo es real cuando no lo es.
Es decir, una simulación computacional es reproducir sobre un modelo virtual los resultados que el mismo modelo tendría en la vida real bajo las mismas condiciones de contorno, carga, material, etc.
Lo vemos todos los días, por ejemplo, en los modelos atmosféricos los cuales intentan predecir la meteorología de las próximas horas o días. En vuestro ámbito financiero, seguro que existen multitud de herramientas que tratan de predecir el comportamiento de las bolsas o de distintos productos. En cierta manera, se intenta simular de forma computacional el comportamiento de un sistema basándose en unos datos iniciales y de contorno.
Es más barato diseñar modelos computacionales y comprobar si van a cumplir las expectativas y si no es así cambiar el diseño, que hacer distintos prototipos físicos para ver cuál es el más óptimo.
Si estos resultados de tus modelos le pones como restricción el tiempo de respuesta, estaríamos hablando de tiempo real. Por matizar un poco más, si quieres resultados para poderlos reproducir directamente sobre un video (por ejemplo, para aplicarlo en gafas de realdad virtual o de realidad aumentada), necesitas resultados en 30Hz, es decir, 30 resultados por segundo. Resolver tu modelo al menos 30 veces por cada segundo del proceso de ejecución. Si hablamos de planificación quirúrgica, igual es suficiente con obtener resultados en unos pocos minutos, no es necesario en milisegundos.

Pero si tus simulaciones son para ámbitos hápticos (sentido del tacto), si quieres que el usuario note físicamente el comportamiento del modelo que estás simulando, ahí tu tiempo real es más restrictivo, porque has de dar resultados al menos 500 veces por segundo, (500-1000Hz).
Durante estos años hemos desarrollado métodos de reducción de orden para hacer este tipo de simulaciones en tiempo real, aplicada a entornos biomecánicos, como la manipulación de un hígado, rasgado previo en colicestomías, etc. El uso actual de las redes neuronales de grafos, nos permiten obtener esos mismos resultados, con esas tasas de respuesta, pero además nos aportan una gran versatilidad, por ejemplo, podemos cambiar de modelo computacional (otro hígado a los entrenados) y obtener resultados sin necesidad de tener que hacer cálculos nuevos, entrenamientos personalizados como sería con las técnicas clásicas.
Hablas de aplicar principios físicos dentro de las redes neuronales para evitar resultados incoherentes. ¿Podrías contarnos un ejemplo práctico de cómo se consigue esa fiabilidad?
Las redes se entrenan mediante un conjunto de datos de partida. Durante el proceso de entrenamiento de la red, lo que se hace es obtener un conjunto de valores (pesos) que aplicados a los datos de entrada (como una imagen, las coordenadas de los puntos de tu sóldio, un vector de datos,…) te devuelven una salida. Una salida o resultado que es lo que se desea obtener: imagen mejorada, temperatura o desplazamiento de cada punto de tu sólido, valor final de unas acciones, …
Para ello has de entrenar la red con datos fidedignos, es decir, (X,Y) con estos datos de entrada (X) hay que obtener la salida deseada (Y). Cuantos más datos tengas para entrenar mejor, la red buscará aprender el patrón que hay entre los datos de entrada y los de salida que se le pide.
Es decir, va modificando los pesos hasta lograr ajustar todos los datos de entrada con sus salidas correspondientes. En nuestro caso le pedimos también que la salida cumpla con los principios físicos que rigen el problema, si no es así, es que no está aprendiendo correctamente y buscará modificar los pesos hasta satisfacer tanto la salida Y como las condiciones físicas que le imponemos en ese proceso de entrenamiento. Por ejemplo, si sabes que tu problema está regido por una ecuación diferencial, tu resultado tiene que satisfacer dicha ecuación. Pues con esa premisa, impones dicha condición en el proceso de aprendizaje.
Estáis desarrollando un proyecto público-privado sobre IA y sostenibilidad (ENIA Chair). ¿Cuál es el objetivo principal de este trabajo? ¿Qué aplicaciones concretas podría tener este proyecto en sectores industriales o en la vida diaria?
Efectivamente, nos han concedido una de las 6 Cátedras Internacionales de la Estrategia Nacional en Inteligencia Artificial. En particular, se basa en el desarrollo del concepto disruptivo de IA-híbrida, que une los modelos basados en datos con los basados en leyes físicas bien conocidas.
El paradigma híbrido permite reducir el volumen de datos utilizados, al tiempo que se logra una IA fiable, garantizando el cumplimiento de las leyes físicas en las predicciones. Dependiendo de la aplicación, la IA híbrida puede ser la encargada de tomar las decisiones, con los seres humanos actuando como supervisores de la IA, o, por el contrario, los seres humanos pueden ser los encargados de tomar las decisiones, con la IA híbrida como ayuda en el proceso de toma de decisiones.
La cátedra está focalizada en aplicaciones en el sector automovilístico y la edificación y gira en torno a tres conceptos fundamentales que articulan la sostenibilidad en el ciclo de vida de toda actividad productiva y que constituirán los ejes de la actividad investigadora y formativa de esta cátedra: diseño inteligente, fabricación inteligente y monitorización inteligente (smart design, smart manufacturing, smart sensing). Las tres líneas se centran en lograr una mayor inteligencia diseñada para permitir una toma de decisiones informada basada en criterios éticos, fiables y sólidos. En medioambiente e ingeniería civil, aplicamos estos modelos a infraestructuras sostenibles: podríamos predecir fallos en estructuras bajo escenarios climáticos extremos, u optimizar localizaciones para entornos dedicados en energías renovables. En la Cátedra, estamos desarrollando "gemelos digitales humanos" para modelar interacciones hombre-máquina en entornos sostenibles, lo que reduce pruebas físicas costosas y emisiones.
De cara a futuro, ¿Cómo imaginas la evolución de estas tecnologías en los próximos 5-10 años?
A la velocidad que han ido estos últimos años los desarrollos en este ámbito, no me atrevo a pronosticar la evolución de estas tecnologías. Creo que el Hardware seguirá ofreciéndonos equipos más potentes, puede que haya un desarrollo importante de ordenadores cuánticos y de la forma de programar nuestros algoritmos. Y cabe la posibilidad de que podamos de nuevo hablar de abordar problemas o modelos que ni siquiera ahora nos podemos imaginar.
No sé si llegará lo que se conoce como Inviernos de la IA, ya pasó hace unos años con las redes neuronales (como he dicho anteriormente, aparecieron hace más de 30 años). Si te das cuenta, parece que los modelos de lenguaje (LLMs com ChatGPT) han dejado de actualizarse, no sé si han llegado a su tope (parece ser que ya se saben toda la Wikipedia).
Quizá veamos la aplicación de estas y otras tecnologías en dispositivos que ahora mismo no son cotidianos (gafas de realidad aumentada que te amplían la información de lo que estás viendo, traductores en tiempo real con la voz de tu interlocutor, coches completamente autónomos, …) Todo dependerá de su fiabilidad (si se les permite fallar o no) lo tendremos entre nosotros más temprano que tarde. Que tu teléfono con IA te genere una imagen artificial, emogi o avatar que no satisfaga tus expectativas no es relevante, se le pide que lo vuelva a generar y listo. Pero habrá aplicaciones que no le permitamos fallar, por lo que tocará esperar que se sigan desarrollando.
¿Qué barreras quedan por superar: técnicas, éticas, regulatorias?
Muchas, sin duda. La propiedad intelectual de los datos que se han utilizado para entrenar estas herramientas, ¿de quién es? Que estas tecnologías den resultados sesgados por raza, género, etc., ¿de qué depende? Seguro que en cierta medida se hayan generado porque los datos de partida vienen con dichos sesgos. ¿Cómo se regula todo esto? A priori, puede ser como poner puertas al campo.
Desde tu perspectiva, ¿cómo conectan estos avances con la economía y las bolsas mundiales? ¿Podemos hablar de que la IA en ciencia será uno de los grandes motores de inversión en la próxima década?
Siempre es motivador conectar la investigación académica con perspectivas como la tuya, desde el mundo de la inversión y las bolsas. Veo claramente dos conexiones: aplicación directa de estas herramientas en el sistema o entorno económico, o bien, como inversión en empresas de tecnología.
En el primer caso, no me cabe duda alguna que en vuestro ámbito la IA viene para quedarse, fundamentalmente porque tenéis los ingredientes que yo considero imprescindibles: tenéis muchos datos y éstos siguen unos patrones (más o menos complejos) que la IA podría llegar a interpretar, lo que generaría una herramienta de predicción (más o menos) fiable.
En segundo lugar, está habiendo un incremento importante de inversiones en empresas tech o start-ups tecnológicas que son capaces de lograr grandes cantidades de dinero en rondas de financiación (Series A y B incluso). Este tipo de inversores entiendo que ven posibles retornos en tiempos relativamente cortos.

