Nota de tapa . Michael Luck, director del Departamento de Informática del King’s College Por Bruno Massare Fotos: Gustavo Fernández e visita en la Argentina para dar la conferencia plenaria del Simposio Argentino de Inteligencia Artificial y un curso en la Primera Escuela de Inteligencia Artificial, en el marco de las Jornadas Argentinas de Informática (41 JAIIO) que se realizaron en La Plata, Michael Luck dejó por unas semanas su oficina del King’s College en Londres pero no su pasión por el Chelsea, club de fútbol que no dejó de nombrar ni siquiera en su presentación ante los expertos locales en IA. Luck lleva casi 20 años investigando en agentes inteligentes: sistemas de computación capaces de actuar de manera autónoma y flexible en un ambiente dinámico. Un agente inteligente puede tomar decisiones de manera proactiva y ser capaz de aprender o de recurrir a una base de conocimiento para cumplir con un objetivo. “Los sistemas basados en agentes son un tipo de softwareque replica mucho de la interacción entre los seres humanos. No estoy hablando a nivel emocional, pero sí en términos de interacciones como negociaciones o el hecho de que pueden generarse relaciones que son pasajeras y otras que se mantienen”, dice. Además de su rol como investigador, es director del Departamento de Informática del King’s College. “Tra- 72 INFORMATIONTECHNOLOGY El especialista en agentes inteligentes cree que vamos hacia un futuro con sistemas autónomos que tomarán decisiones cada vez más complejas sobre nosotros. bajo demasiado”, asegura este londinense de 45 años que habló en exclusiva con INFORMATION TE C H N O L O G Y antes de dar su charla en la Facultad de Informática de La Plata. requiere que resolvamos problemas de confianza y reputación. Este problema estará cada vez más presente en tanto automaticemos más tareas que antes realizaban seres humanos. ¿A qué se refiere específicamente con la necesidad de resolver problemas de confianza? Su trabajo principal es en agentes inteligentes, una línea de investigación que tuvo un auge importante en la década del ’90. ¿En qué medida logró decantar en aplicaciones concretas? Cuando uno lidia con sistemas totalmente automatizados se entra en un espacio nuevo. Por ejemplo: diez o quince años atrás, había un creciente interés por los marketplaces online, en la modalidad B2B. Se buscaba unir a proveedores y clientes para organizar sus mercados internos, usando agentes inteligentes para hacer algunas cosas. La idea detrás era que en algún momento habría marketplaces totalmente abiertos con nuevos proveedores que aparecerían con sus ofertas. Eso no pasó, y lo que vimos fue marketplaces muy limitados. Con los agentes pasó algo parecido. Ahora estamos entrando en una segunda etapa, donde muchas de estas cosas van a ser abiertas. Ya no hablamos de computadoras y de aplicaciones aisladas, ahora tenemos un ambiente computacional cada vez más distribuido e interconectado. Es casi imposible pensar la computación actual sin los agentes, pero eso nos enfrenta a nuevos desafíos. Si uno piensa en utility computing, en grid, en la web semántica, en smart grids, todos necesitan resolver los mismos problemas: cómo se logra una interacción múltiple, y para poder lidiar con eso necesitamos enfrentar los problemas de confianza y reputación. Lo que ha sucedido es que hay mucha gente que hoy está usando esta tecnología y no habla sobre eso. Si uno mira el mercado de acciones, buena parte de la Bolsa de Nueva York opera con sistemas automatizados basados en agentes inteligentes. Pero no se habla de agentes, simplemente la gente habla de compra y venta (trading) automática. Hay muchos ejemplos como éste en los que no hablamos específicamente sobre el concepto que está detrás; simplemente se habla en general. Hay tecnologías de agentes aplicadas a automatización en industrias, negociación, argumentación… hay un gran rango de cosas en que se están aplicando. Usted comenzó a investigar en agentes en 1993. ¿Qué impacto tuvieron en su investigación los avances en computación de los últimos 20 años? Cuando empecé, la tecnología era una solución en busca de un problema. Había muchos esfuerzos en IA distribuida en problemas particulares que se pretendía resolver, técnicas de “problemsolving” distribuido. El mundo cambió de tal manera y tan rápido, que nos proveyó el problema para el que podíamos tener una solución. Los web services son un ejemplo de eso. Años atrás, había gente construyendo infraestructura de red específica para agentes inteligentes. Ya no necesitamos eso; se usa la infraestructura estándar y eso hace que todo sea mucho más escalable. Pasamos de tener sistemas monolíticos a tener sistemas distribuidos, que son una forma de IA por cómo interactúan sus componentes. Pero hoy son algo normal, no nos sorprende. Hace años teníamos Windows NT, que era orientado a objetos, era una novedad. Hoy nadie dice que un sistema es orientado a objetos, no importa. Pasó a ser parte de algo naturalizado y lo que importa es que soluciona un problema. Con la IA pasó algo similar: está en todos lados y por eso no la percibimos en la medida en que está incorporada a nuestras vidas. Por otro lado, el uso de tecnologías de agentes ¿El trading de alta frecuencia (sistemas automáticos que pueden comprar y vender acciones a gran velocidad) es un ejemplo de esos riesgos? “La línea entre lo que hacemos con seres humanos y lo que hacemos con máquinas se está volviendo difusa” Michael Luck Sí. Se debe tener una estrategia clara de cómo manejarlo, porque es algo crítico. Otra opción es dejar que los mercados se autorregulen, pero hemos visto casos en lo que no ha funcionado. Necesitamos asegurarnos de que los sistemas, a medida que les damos más autonomía y poder para tomar decisiones, tengan normas claras que no puedan traspasar. En la sociedad tenemos reglas que nos permiten no dejar todo librado a la incertidumbre. Y funciona, más o menos, pero funciona. Esto se tiene que trasladar al mundo de los sistemas de computación, para que un determinado agente no pueda violar determinadas normas. Esa amenaza se profundiza en sistemas abiertos en los que agentes heterogéneos pueden entrar y salir sin restricciones. INFORMATIONTECHNOLOGY 73 Nota de tapa . ¿En qué medida las empresas han sabido aprovechar la tecnologías de agentes? Algunas industrias saben sobre esto, lo usan. A veces ni siquiera los llaman agentes. Las empresas suelen ser cortas de vista con respecto a las nuevas tecnologías y sólo las aplican cuando ven una oportunidad de ganancia concreta. En Alemania, Daimler Chrysler transformó una de sus fábricas en una planta con sistemas automatizados y dinámicos. Los autos se van montando en la línea donde los robots colocan las partes y las máquinas usan tecnología multi-agente que puede negociar entre ellos y pedirle a otro que haga algo ante una eventualidad, como la necesidad de corregir el ensamblado de una pieza. Se mueven a través de la línea de montaje de una manera dinámica. Con esto incrementaron la productividad un 20 por ciento. ¿Cómo es su trabajo como asesor científico de la firma Aerogility? La empresa comenzó hace muchos años como d e s a rrolladora de software y tenía un área de agentes inteligentes para ciertas tareas. Esto era algo relativamente nuevo, entonces el software comenzó a financiar la investigación en agentes. Se enfocó en el mercado aeroespacial de componentes, hizo un buen acuerdo con Rolls Royce, pero sufrió una crisis por la caída de la economía y se reconvirtió en una firma nueva, Aerogility, que desarrolla agentes inteligentes. Tiene éxito en ese mercado aplicando la tecnología que crearon, que sirve para toma de decisiones y planeamiento, entre otras cosas. Mi rol es limitado, a veces necesitan asesoramiento sobre cómo encarar algún problema relacionado con agentes, pero lo hacen muy bien. ¿Cómo se puede definir hoy a la IA? La IA ya recorrió un largo camino desde los años ’50. Alguien dijo “hasta que encontremos una solución, es inteligencia artificial. Una vez que la encontremos, deja de ser inteligencia artificial”. Es algo muy difícil de definir y sigue habiendo una brecha entre nuestra comprensión de qué es inteligencia en los seres humanos y en qué medida podemos trasladarla a las máquinas. Sigue sin haber un consenso en eso; creo que nos seguirá demandando tiempo clarificar qué es la IA. Seremos capaces de construir máquinas que hagan más y más cosas por nosotros, dejaremos que tomen decisiones complejas sobre nosotros y será todo una cuestión de grados de avance. Y tal vez lleguemos a un nivel de avan74 INFORMATIONTECHNOLOGY “Buena parte de la investigación en IA está en la computación, pero también se nutre de la psicología, la economía y la biología” Michael Luck ce en el que ya no tenga sentido hacerse esta pregunta, porque será algo normal para nosotros. En el procesamiento de lenguaje natural parece haber ganado el enfoque estadístico por sobre el semántico gracias al crecimiento en la capacidad de cómputo. ¿Esa tendencia se está profundizando en la investigación en IA? Necesitamos que ambas aproximaciones aporten cosas. Como el poder de computación ha crecido de manera exponencial, hemos podido lograr progresos a partir de la estadística. Pero hay cosas que no podemos resolver bien en esa dirección. Las redes neuronales son un ejemplo: pueden resolver muchos problemas particulares, pero no logran ofrecer una explicación. La línea entre lo que hacemos con seres humanos y lo que hacemos con máquinas se está volviendo difusa. Aquí, los enfoques semánticos se vuelven importantes. Hay soluciones que funcionan bien en un entorno con expectativas limitadas, como el caso de Siri (el asistente de voz de Apple). Es algo que impresiona porque no esperábamos tener algo así en un teléfono. Pero una vez que nos acostumbramos queremos más: poder tener una conversación más compleja y respuestas sofisticadas. La combinación de técnicas diferentes será importante para lograrlo. ¿Qué podemos esperar de la investigación en IA en los próximos años? Hoy una máquina puede reconocer el lenguaje hablado, eso es importante. Pero todo es un esfuerzo incremental, no hay avances fundamentales. Todo se va sofisticando de a poco y se va incorporando al “mainstream”. Es la diferencia con los años ‘70, cuando estaba claro qué era la IA y el gran objetivo eran los sistemas expertos. Empresas como IBM los han aprovechado y han tenido éxito. Hoy buena parte de la investigación en IA está en la computación, pero también se nutre de la psicología, de la economía y de la biología. Y se ha diseminado. La IA está en todos lados y apenas lo notamos.