I3A - Instituto de Investigación en Ingeniería de Aragón

El I3A
Investigadores del I3A
El I3A
Laboratorio del I3A
El I3A
Edificio I+D+i
El I3A
Universidad de Zaragoza
Investigadores I3A diseñan sistemas artificiales que resuelven tareas para las que no han sido programados
Martes, 26 Marzo, 2019
La revista Nature Scientific Reports publica este estudio que sustenta la inteligencia artificial en mecanismos de frontera entre el orden y el caos

Los investigadores del I3A Manuel G. Bedia y Miguel Aguilera consideran que para construir agentes más inteligentes no se necesita darles más capacidad de cálculo, sino mecanismos más flexibles parecidos a los de estructuras biológicas

 
La gran mayoría de los sistemas inteligentes realizan, con mayor o menor habilidad, aquello para lo que han sido programados. Sin embargo, ahora, los investigadores Manuel González Bedia y Miguel Aguilera de la Universidad de Zaragoza proponen un medio para idear controladores de sistemas artificiales que generen comportamientos adaptativos de forma espontánea, es decir, para los que no han sido programados.
 
La revista Nature Scientific Reports publica este estudio que, por primera vez, sitúa a la inteligencia artificial como un ámbito en la frontera entre procesos de orden y caos. El algoritmo propuesto explota patrones para guiar y estabilizar a un agente artificial en esa zona crítica, generando en el proceso comportamientos complejos y funcionales que no han sido programados. “Se ha tratado de demostrar que, aplicando ciertas estrategias, los sistemas artificiales podrían ser más espontáneos y desplegarían sus propias intenciones de una forma similar a la de seres vivos muy simples”, explica Manuel G. Bedia, coordinador del grupo ISAAC del Instituto de Investigación en Ingeniería de Aragón (I3A) y profesor del Departamento de Informática e Ingeniería de Sistemas.
 
Por ejemplo, el mismo algoritmo, sin ninguna modificación concreta, permite que un robot móvil en un entorno montañoso aprenda a impulsarse y aprovechar su inercia para saltar de un montículo a otro, o que un sistema controlando un doble péndulo aprenda a generar una gran diversidad de movimientos acrobáticos coordinados. Además, el algoritmo es escalable, es decir, cuando se aumenta el número de neuronas del sistema, la complejidad del comportamiento generado sigue creciendo, abriendo la puerta a sistemas que evolucionan para ser cada vez más complejos.
 
Las propiedades de los sistemas en criticalidad se han utilizado durante años y se hipotetizan como una línea para entender mejor el cerebro humano. Sin embargo, emplearlos para generar comportamiento inteligente era algo hasta ahora inexplorado: “Generalmente, la inteligencia artificial diseña sistemas que perciben el mundo a su alrededor y calculan posibles planes y trayectorias de comportamiento. Nuestros agentes funcionan de manera más orgánica, tratando de encontrar un equilibrio en esa frontera entre el orden y el desorden, y los comportamientos que permiten adaptarse a su entorno surgen como un baile que trata de mantener este equilibrio interno mientras se responde a los estímulos externos que reciben”, explica Miguel Aguilera, investigador postdoctoral en el grupo IAS-Research de la Universidad del País Vasco y del grupo ISAAC de la Universidad de Zaragoza.
 
La conclusión es contraintuitiva: para construir agentes más inteligentes no necesitaríamos darles más capacidad de cálculo, sino diseñar otro tipo de mecanismos más flexibles capaces de mantener equilibrios internos parecidos a los de estructuras biológicas.
 
¿Diseñar máquinas inteligentes? Mejor probemos a copiar organismos
En los años recientes, y gracias a los objetivos empresariales de Google o Amazon, el término inteligencia artificial se ha popularizado y sus aplicaciones se han extendido y acercado a nuestro entorno más personal, monitorizando lo que compramos, lo que hacemos o cómo nos movemos.
 
“Hay que precisar a qué nos referimos cuando hablamos de inteligencia en este ámbito. Desde grandes compañías tecnológicas está habiendo grandes inversiones en mejorar el modo en que supercomputadoras pueden extraer patrones a partir de ingentes cantidades de datos. Mi impresión es que este enfoque no es un buen método para construir una teoría sistemática de la inteligencia”, dice Miguel Aguilera. “La Inteligencia Artificial debería funcionar más como un campo científico en el que se realizan experimentos metódicos y se rehacen para examinar determinadas hipótesis, y en el que hay una investigación teórica que sustenta los avances para averiguar por qué ciertas cosas funcionan y otras no. Buscar principios de comportamiento, y no tanto aplicaciones, me parece que es el camino más fructífero a largo plazo”, añade Manuel González.
 
“Vivimos envueltos en una retórica sobre la aplicabilidad de la investigación que se ha convertido en excesiva. Incluso la ingeniería, donde casi todo el mundo asume que la investigación tiene que tener carácter aplicado, languidece sin el interés por cuestiones teóricas y sin aspirar a obtener conocimientos fundamentales”, insiste Manuel González Bedia. “Una situación que me recuerda una frase del físico checo Guido Beck para criticar la obsesión de algunos investigadores y gestores por centrarse en resolver problemas concretos: <>. Nosotros creemos que comprender las funciones cognitivas y los mecanismos de desarrollo orgánico es esencial para una futura generación de sistemas más inteligentes. Las capacidades de los artefactos serán mayores si nos centramos en comprender y copiar el funcionamiento de las arquitecturas de los sistemas neuronales biológicos y nos inspiramos en los fenómenos cognitivos reales”.
 
 
Contacto:
Manuel González Bedia 667864716
Departamento de Informática e Ingeniería de Sistemas
Instituto de Investigación en Ingeniería de Aragón (I3A)
 

© 2019 Instituto Universitario de Investigación en Ingeniería de Aragón - Universidad de Zaragoza | Privacidad