Interfaces de Usuario Inteligentes: Pasado, Presente y Futuro Víctor López, Francisco Montero, José P. Molina, Pascual González Laboratorio de Interfaces de Usuario e Ingeniería del Software (LoUISE) Instituto de Investigación en Informática (I3A) Universidad de Castilla-La Mancha, 02071 Albacete, España { victor | fmontero | jpmolina | pgonzalez }@dsi.uclm.es Resumen. Cuando en 1956 en la conferencia de Dartmouth se lanzó el reto de crear máquinas que fueran capaces de simular las distintas facetas de la inteligencia humana, sin duda una de las facetas más destacables en las que se pensaba era la de la comunicación. La simulación de las capacidades de comunicación por parte de una máquina implica la capacidad de realizar actos de comunicación, no sólo con otras máquinas, sino también con seres humanos. En este artículo se analiza la evolución de las interfaces de usuario con un cierto grado de inteligencia, donde la máquina trata de comunicar a través de la interfaz la información que considera de relevancia. De igual manera, se analizan las tendencias actuales dentro del campo de investigación de la Inteligencia Artificial (IA) aplicada a la Interacción Persona-Ordenador (IPO), así como hacia dónde nos encaminan las actuales propuestas en dicho campo. 1 Introducción La IA trata de simular las capacidades humanas mediante el uso de máquinas. Este reto lanzado en la famosa conferencia de Dartmouth en 1956 ha concentrado una enorme cantidad de esfuerzo dentro de la comunidad investigadora en los últimos 50 años. Aunque después de estos años no se han alcanzado las eufóricas predicciones lanzadas tras dicha conferencia, múltiples avances en la simulación de las capacidades humanas en máquinas avalan la evolución del campo científico de la IA. Un campo imprescindible para la simulación de las capacidades humanas es la comunicación. La comunicación en este escenario puede realizarse entre distintas máquinas o entre máquinas y seres humanos. Es en este segundo caso donde surge la disciplina IPO, la cual estudia el análisis, diseño, implementación y evaluación de la interfaz de usuario (IU), prestando especial atención a la comunicación entre la máquina y el ser humano. Una IU es una faceta muy importante de cualquier sistema, si ésta es apropiada hará que el usuario se sienta cómodo con la máquina. Del mismo modo, aunque una máquina realice correctamente las tareas para las que fue diseñada, el sistema no será acogido satisfactoriamente si no es capaz de comunicar sus logros de forma inteligible y usable por el usuario. Existe un verdadero interés dentro de la IPO para conseguir una buena comunicación entre el usuario y la máquina, expresada en la enorme comunidad de investigadores dedicados al estudio de técnicas que 394 – López, V., Montero, F., Molina, J.P, González, P. mejoren la usabilidad [12] de una interfaz de usuario. En la actualidad, un ejemplo del interés que suscita el proceso de comunicación interpersonal y el estudio de las posibilidades de extrapolar el mismo modus operandi a la comunicación entre personas y máquinas lo constituye la red de excelencia SIMILAR1. En la búsqueda de crear interfaces de usuario con alto grado de usabilidad, la comunidad de investigadores IPO trata de crear IUs que produzcan mejores sensaciones en el usuario, lo cual implica mejorar la naturalidad de la interacción. Dicha mejora pasa principalmente por un aumento en la calidad de la comunicación entre la máquina y el usuario, lo cual ha llevado a la acogida y consideración de técnicas de IA dentro de la interacción que permiten, entre otras muchas cosas, proveer respuestas adecuadas a las acciones del usuario. El uso de distintos elementos de la IA dentro de la IPO ha dado lugar a que se acuñara el concepto de interfaz de usuario inteligente (IUI). A lo largo de este artículo se analiza la evolución de las IUs con un cierto grado de inteligencia, donde la máquina trata de comunicar a través de la interfaz la información que considera más relevante de forma adecuada. De igual manera, se analizan las tendencias actuales dentro del campo de investigación de la IA aplicada a la IPO, para más tarde inferir hacia dónde nos encaminan las actuales investigaciones en dicho campo. El artículo se ha estructurado bajo el siguiente guión. Inicialmente se describen los elementos que constituyen una IU habitual, presentado una arquitectura general para dicho tipo de IU. A continuación se analiza el concepto de IUI, realizando una revisión histórica de su evolución y las contribuciones que se han aportado desde la IA, para finalmente proponer una arquitectura general para las IUIs que soporta la ejecución de aplicaciones creadas a partir del método de diseño de interfaces de usuario AB-UIDE [17]. El artículo termina ofreciendo una visión de las tendencias actuales y futuras dentro de la creación de IUIs. 2 Las diferentes caras de una Interfaz de Usuario Una interesante definición de IU es la que da Negroponte [23] cuando afirma que la interfaz es el sitio donde los bits y las personas se encuentran. En este sentido, la IU es la imagen que el usuario percibe de la aplicación, y la manera que el usuario tiene de establecer una comunicación con la máquina. En el diseño y desarrollo de IU se han utilizado diferentes estilos de interacción, una de las más exitosas es la de manipulación directa. Esta manipulación permite al usuario el manejo directo de una representación gráfica de la aplicación en la pantalla, manejo que puede realizarse de muy diversas formas. Algunos ejemplos de interfaces de manipulación directa son los editores de texto, las hojas de cálculo electrónico, los sistemas de administración de datos espaciales y los videojuegos. El éxito de las interfaces de manipulación directa es la retroalimentación constante que proporciona sobre la tarea que realiza el usuario. Una retroalimentación continua sobre los objetos manejados, implica que se pueden hacer cambios o correcciones de las operaciones con rapidez. De cualquier forma, uno de los problemas con la manipulación directa es que no siempre todas las tareas 1 http://www.similar.cc Interfaces de Usuario Inteligentes: Pasado, Presente y Futuro – 395 pueden ser descritas por objetos concretos y no todas las acciones se pueden hacer directamente. Además, la manipulación directa requiere que el usuario lleve a cabo todas las tareas y controle todos los eventos lo que puede traducirse en una sobrecarga cognitiva y en mermas en el grado de usabilidad logrado. Debido a las limitaciones comentadas, viene introduciéndose un nuevo estilo de interacción que denominaremos interacción asistida [19] que utiliza la metáfora del agente que colabora con el usuario en el mismo ambiente de trabajo. En esta estilo de interacción, el usuario en vez de dirigir la interacción, trabaja en un entorno cooperativo en que el usuario y los agentes se comunican, controlan eventos y realizan tareas. Un agente de interfaz [14] es como un programa que también puede hacer uso de la IU, pero sin instrucciones explícitas del usuario. El agente de la interfaz lee la entrada que el usuario presenta en la interfaz y puede hacer cambios en los objetos que el usuario ve en la pantalla. Los agentes de interfaz son diferentes de los simples asistentes. Los agentes trabajan en segundo plano y actúan por propia iniciativa, cuando se presentan situaciones que pueden ser relevantes para el usuario. La capacidad que se les supone a los agentes será considerada en el siguiente apartado dedicado a tratar las Interfaces de Usuario Inteligentes (IUI). Interacción basada en agentes Inteligencia Artificial Ingeniería del Software Interfaces de Usuario Inteligentes Otras disciplinas (psicología, sociología, ...) Interacción Hombre-Máquina Interfaces basadas en modelos Modelos de usuario y de discurso Búsqueda de contenidos (a) Análisis de la entrada Interfaz de Usuario Inteligente Distribución automática Generación de la salida Diseño de presentaciones multimedia Diseño automático de imágenes Evaluación empírica (b) Fig. 1. (a) Diferentes disciplinas en el desarrollo de interfaces de usuario inteligentes. (b) Objetivos más habituales en una interfaz de usuario inteligente. 3 Las Interfaces de Usuario Inteligentes Las IUIs son interfaces hombre-máquina cuyo objetivo es mejorar la eficiencia, efectividad, y naturalidad de la interacción hombre máquina representando, razonando o actuando de acuerdo a una serie de modelos (usuario, dominio, tareas, discurso, contenidos, etc). Ello hace del desarrollo de las IUI un tarea multidisciplinar (véase la figura 1a), donde las aportaciones pueden venir desde muy diversas direcciones. Las IUIs, para lograr su principal objetivo y posibilitarlo en diferentes contextos, deben ser capaces de modelar al usuario, a sus tareas, al entorno en el que el usuario realice su labor, a la interacción y tener capacidad para analizar las entradas y generar las salidas de la forma más adecuada [20]. El contexto de uso se suele describir en función del usuario que esté actualmente usando la aplicación, la plataforma que esté 396 – López, V., Montero, F., Molina, J.P, González, P. usando para interaccionar (tanto desde el punto de vista hardware como software), y el entorno físico donde se realiza la interacción (condiciones de luminosidad, ruido, etc). En [17] también se incluye la tarea actual que el usuario intenta alcanzar en cada momento dentro de la descripción del contexto de uso. 3.1 La labor de una Interfaz de Usuario Inteligente En la figura 1b se muestran gráficamente los retos a los que tienen que hacer frente las IUIs [32] para alcanzar el objetivo general de mejora de la usabilidad del sistema. En la Fig. 1b podemos identificar cómo se incluyen características humanas tales como el aprendizaje, la adaptación, el razonamiento, la autocorrección, la mejora implícita, y la capacidad para modelar el mundo. Todas ellas son labores que coinciden con los intereses de la IA desde sus comienzos. Muchos de los investigadores sobre IA sostienen que la inteligencia es un programa capaz de ser ejecutado independientemente de la máquina que lo ejecute, computador o cerebro. Y es que cuando un usuario interactúa con un artefacto, dos modelos, el conceptual del usuario y el de implementación en la máquina, deben equilibrarse. El usuario hace uso de un lenguaje de acción determinado por los dispositivos de entrada y la metáfora con la que la IU haya sido elaborada. Por su parte, el artefacto debe analizar la entrada y responder a la interacción adecuando los contenidos, su presentación y siendo capaz de evaluar el propio proceso de interacción para actuar si resulta conveniente [17]. Todos los elementos introducidos tienen influencia en el grado de usabilidad final que el usuario alcanza con la interacción. Son muchos los campos en los que la IA aporta técnicas, métodos y propuestas que resultan muy interesantes en el desarrollo de IUI. En IA hay disponibles métodos que permiten que un sistema aprenda (por ejemplo, las redes neuronales, las redes Bayesianas o los algoritmos genéticos), tenga capacidad para representar el conocimiento (redes semánticas y marcos) o para tomar decisiones (lógica difusa, sistemas expertos, razonamiento basado en casos, sistemas multi-agente (SMA), árboles de decisión, etc). Con ellos es posible actuar sobre la IU adaptando (ConCall [31], Mviews [4]), facilitando su uso (STARZoom [3]), evaluando la interacción (TaskTracer [6]), simulando comportamientos (Adele) [13], guiando al usuario (AlifeWebGuide) [11] o ayudando al diseñador de IU (Moby-D [25], U-TEL [5], SUPPLE [10]). En el desarrollo de productos software, y las IU no son una excepción, la tendencia predominante desde hace más de una década vienen siendo los entornos de desarrollo basados en modelos (MB-UIDE) [29]. La idea que subyace en esta tendencia es la de especificar, de forma declarativa, una serie de modelos en los que se describen las características del usuario, las tareas, el dominio, la propia interfaz a distintos niveles de detalle, los dispositivos, etc. Dichos modelos se almacenan en archivos con formato XML, lenguaje que se ha convertido en verdadera lingua franca de las IUIs [20]. Las IUs y los sistemas hipermedia se diseñan y desarrollan de esta forma en estos momentos. La IPO influye en el desarrollo de los IUI incluyendo consideraciones relacionadas con la usabilidad y la calidad de uso [2] que necesariamente debe ofrecer la IU [22]. Las metáforas, reseñadas en el segundo apartado de este artículo, el aumento de la capacidad de procesamiento de los Interfaces de Usuario Inteligentes: Pasado, Presente y Futuro – 397 sistemas y las nuevas formas de interactuar hacen necesaria nuevas metodologías que permitan considerar, llegado el momento, objetos de interacción diferentes a los tradicionales [21]. 3.2 Una Arquitectura para interfaces de usuario inteligente Vistos los requisitos propios de una IUI y las tecnologías que han surgido a lo largo de estos años para abordarlos, en este apartado se presenta una propuesta de arquitectura de interfaz de usuario con la que se pretende ilustrar el desarrollo actual de estas interfaces. Dicha arquitectura sirve como motor de ejecución de las interfaces de usuario inteligentes diseñadas usando el método de desarrollo de interfaces de usuario basado en modelos AB-UIDE (Agent-Based User Interface Development Environment) [17]. La arquitectura propuesta se ilustra en la figura 2. La arquitectura diseñada presenta dos fuentes de entrada de datos: (1) los dispositivos de entrada que el usuario usa para interactuar con la aplicación (teclado, ratón, micrófono, etc), (2) los sensores, los cuales pueden ser tanto basados en software, por ejemplo para recoger estadísticas sobre el uso de la aplicación y aplicar técnicas de modelado de usuario, o basados en hardware, de forma que se pueda informar al sistema sobre ciertos cambios que se produzcan dentro del entorno donde el usuario está interactuando con la aplicación. En esta arquitectura la información que el sistema posee, tanto de la propia aplicación que se está ejecutando como del contexto de uso, se almacena en las bases de conocimiento. La información sobre la propia aplicación que se está ejecutando es reunida en su mayor parte durante las distintas etapas de diseño. En nuestro caso el meta-modelo usado para su almacenamiento es una adaptación del lenguaje basado en XML para la presentación de interfaces de usuario usiXML2. El conocimiento de la interfaz de usuario incluye: (1) el modelo de dominio almacena aquellos objetos/datos que la IU requiere para que el usuario pueda realizar sus tareas, (2) el modelo de tareas representa aquellas tareas que el usuario podrá realizar a través de la IU, así como las posibles restricciones temporales que puedan existir entre dichas tareas usando una notación basada en ConcurTaskTree [24], (3) el modelo abstracto de interfaz de usuario contiene la interfaz de usuario expresada usando objetos de interacción abstractos, y por tanto de una manera independiente de la plataforma (un PC, una PDA, un teléfono móvil, etc) y de la modalidad (gráfica, vocal). Dicho modelo también relaciona las tareas que el usuario puede realizar a través de la interfaz con aquellos objetos/datos del dominio necesarios para llevar a cabo dichas tareas [16], (4) el modelo de interfaz de usuario concreta representa la interfaz de usuario usando objetos concretos de interacción. En este caso la representación de la interfaz de usuario sí que es dependiente de la plataforma donde será ejecutada, y servirá como base para la generación de la interfaz que se ofrecerá al usuario, (5) el modelo de contexto almacena toda la información referente al contexto de uso que el sistema es capaz de obtener. Incluye el modelo de usuario, el modelo de plataforma y el modelo de entorno. 2 http://www.usixml.org 398 – López, V., Montero, F., Molina, J.P, González, P. a. b. c. El modelo de usuario contiene las características relevantes del usuario para el sistema (preferencias, capacidades, conocimientos). Dicho modelo es actualizado aplicando técnicas de modelado de usuario [9] a los datos de entrada capturados por los sensores. El modelo de plataforma incluye los datos relevantes para el sistema sobre las características, tanto software como hardware, de las plataformas donde potencialmente se puede ejecutar la aplicación. Este modelo también es actualizado mediante el procesamiento de los datos capturados por los sensores. Por ejemplo, si el usuario cambia la resolución de la pantalla supone un cambio en el espacio de visualización disponible para presentar los contenidos, y por lo tanto seguramente se tenga que cambiar la distribución de los contenidos o los mismos contenidos. El modelo de entorno contiene la información sobre el entorno físico donde se produce la interacción. Obviamente, la cantidad de información potencialmente recogida del entorno es inmensa, y por lo tanto el diseñador debe especificar qué información es relevante. De igual manera, la información contenida en este modelo es también actualizada a través de los datos recibidos por los sensores. Por último, la historia de interacción contiene un registro de todas las acciones realizadas por el usuario sobre la IU, permitiendo aplicar principalmente técnicas de minería de datos o clasificación para inferir nuevos datos sobre el usuario. Una buena gestión de la interacción supone la utilización de forma eficiente y efectiva de toda la información almacenada en las bases de conocimiento. La gestión de la interacción tiene como propósito la adaptación [1] de la IU a distintos usuarios, plataformas o entornos. Por otra parte, también persigue la generación de contenidos adecuados al contexto de uso actual. Dichos contenidos serán presentados de la manera más óptima al usuario usando para ello el motor de adaptación. Por último, el sistema no sólo debe ser capaz de adaptarse a las condiciones cambiantes del contexto de uso, sino que debe también ser capaz de permitir la evolución de la aplicación conforme se vayan presentando cambios en los requisitos del sistema. El gestor de interacción debe permitir al desarrollador diseñar cómo se debe producir la interacción, y personalizar la manera en la que los sistemas inteligentes subyacentes aplican sus heurísticas para alcanzar los objetivos del sistema. En nuestro caso la arquitectura presentada usa un modelo transformacional basado en la transformación de gramáticas de grafos, aplicadas sobre una conversión de los modelos almacenados en las bases de conocimiento en una representación en forma de grafo. El desarrollador puede describir cómo se realizan las transformaciones añadiendo nuevas reglas de transformación o modificando las ya existentes. Una descripción detallada del proceso de transformación usado puede encontrarse en [15]. Una vez aplicado el proceso de transformación el generador de salida (renderer) transforma el grafo resultante tras la transformación en algo perceptible por el usuario, es decir, es una representación gráfica, vocal, táctil u otras, o en una combinación de varias de ellas, por ejemplo, gráfica y vocal simultáneamente. Para favorecer la distribución de las tareas de la arquitectura entre distintos componentes y el diseño de la planificación y toma de decisiones del sistema necesarias para producir una gestión de la adaptación óptima, la arquitectura se ha diseñado en forma de SMA. La descripción general del SMA utilizado puede encontrarse en [18]. Interfaces de Usuario Inteligentes: Pasado, Presente y Futuro – 399 Síntesis de voz Retroalimentación táctil Generación Generación de de la la salida salida Otras formas de salida Presentación en pantalla Representación del conocimiento Gestión Gestión de de la la interacción interacción Aplicación Aplicación Modelo dominio Adaptación Modelo Tareas Modelo Abstracto IU Generación de contenidos Modelo Concreto IU Evolución Intercambio de datos Historia de Interacción Modelo Contexto Procesamiento Procesamiento yy análisis análisis de de los los datos datos de de entrada entrada Dispositivos de entrada Modelo usuario Modelo plataforma Modelo entorno Procesamiento Procesamiento yy análisis análisis del del contexto contexto de de uso uso Sensores Fig. 2. Arquitectura general de una interfaz de usuario inteligente. 4 Mirando al futuro: retos actuales El desarrollo de IU presenta en la actualidad desafíos comunes a los que encontramos en la IA. En el campo de la interacción persona-ordenador es bien sabido que la interfaz ideal es aquella que no existe, pero también se asume que, hoy en día, resulta ineludible la presencia de un intermediario entre las intenciones del usuario y su ejecución. No importa cuán intuitiva sea la interfaz, estará allí e impondrá una carga cognitiva al usuario. El ordenador del futuro, según A. van Dam o T. Furness [7], será un mayordomo perfecto, quien conoce mi entorno, mis gustos y mi manera de ser, y de forma discreta se adelanta a mis necesidades sin precisar órdenes explícitas. Cuando el usuario se comunica con este mayordomo, lo hace principalmente mediante el habla, gestos, expresiones faciales y otras formas de comunicación humana, como el dibujo de bosquejos. Este hecho de poder ofrecer artefactos que puedan aprender, crear y comunicarse de igual a igual con una persona es un anhelo que la IA tiene desde sus inicios, hace ahora 50 años. Para hacer realidad esta visión, algunos agentes necesitarán interpretar los gestos y expresiones a través de técnicas de visión por computador, o procesar la voz con técnicas de reconocimiento y comprensión del lenguaje natural. La inteligencia 400 – López, V., Montero, F., Molina, J.P, González, P. artificial y los sistemas basados en el conocimiento serán la base del motor de inferencia de los agentes, que determinará sus salidas. Al dirigirse al usuario, el agente deberá hacerlo de manera educada, y posiblemente deberá modular sus acciones de acuerdo al estado y humor del usuario en cada momento. Los retos de esta tecnología pueden encuadrarse, por lo tanto, en las áreas de entrada, inferencia y respuesta, y más concretamente en la interpretación de los lenguajes de expresión humana, en la representación y gestión del conocimiento del entorno y, finalmente, la comprensión del ser humano como ser social. 5 Conclusiones En la actualidad los productos software tienen la capacidad de ofrecernos información, entretenernos y facilitar nuestro trabajo, pero también pueden entorpecerlo si la IU que nos ofrecen es limitada o difícil de utilizar. En este artículo se ha pretendido mostrar entonces cómo diferentes técnicas de distintas disciplinas, concretamente la IA, la IS y la IPO, se han ido agregando a lo largo de estos años para contribuir en conjunto a crear una experiencia satisfactoria para el usuario, aumentando el grado de inteligencia, sofisticación y usabilidad de las mismas. Para ilustrar las exigencias del desarrollo actual de interfaces inteligentes, en este artículo se ha presentado también una arquitectura que permite la especificación y desarrollo de IUs capaces de tener en cuenta al usuario, a las tareas que tiene que realizar, el entorno en el que el usuario trabaja y el dispositivo con el que el usuario desempeña su labor. El principal objetivo de la arquitectura presentada es facilitar la comunicación teniéndose en cuenta para ello consideraciones relacionadas con la usabilidad de la interfaz finalmente proporcionada y ofreciéndose la posibilidad de que la IU se adapte en tiempo de ejecución considerándose los factores antes reseñados. En el futuro puede que la interfaz del ordenador sea tan natural como conversar con otra persona. No debe olvidarse en ese camino que el objetivo que se persigue en la IPO es reducir al mínimo la distancia cognitiva entre el usuario y su tarea, haciendo que la interfaz se diluya hasta hacerse invisible. Pero, sin duda, este camino no lo podrá recorrer la IPO sin el avance de la IA. Agradecimientos Este trabajo está financiado en parte por los proyectos de la Junta de Comunidades de Castilla-La Mancha PBC-03-003 y PCC05-005-1, y el proyecto CICYT TIN200408000-C03-01. También agradecer le apoyo recibido de la red de excelencia SIMILAR (http://www.similar.cc), el grupo de trabajo europeo que persigue la creación de una interacción persona-ordenador similar a la comunicación humana. Interfaces de Usuario Inteligentes: Pasado, Presente y Futuro – 401 Bibliografía 1. Benyon, D., Murray D. Developing adaptive systems to fit individual aptitudes. In Proc. of the 1st Int. Workshop on Intelligent User Interfaces IWIUI’93 (Orlando, January 4-7, 1993). ACM Press, New York, pp. 115–121, 1993. 2. Bevan, N. Quality in Use: Meeting user needs for quality. Journal of Systems and Software 49(1): 89-96, 1999. 3. Bruno, P., Ehrenberg, V., Holmquist. STARzoom: an interactive visual database interface. Proceedings of the 4th international conference on Intelligent user interfaces. Los Angeles, California, United States, 188, 1998. 4. Cheyer, A., Julia, L. MVIEWS: multimodal tools for the video analyst. Proceedings of the 3rd international conference on Intelligent user interfaces. San Francisco, California, United States. 55 – 62, 1997 5. Chung-Man, R., Maulsby, D., Puerta, A. U-TEL: a tool for eliciting user task models from domain experts. Proceedings of the 3rd international conference on Intelligent user interfaces. San Francisco, California, United States. 77 – 80, 1997. 6. Dragunov, A., Dietterich, T., Johnsrude, K., McLaughlin, M., Li, L., Herlocker, J. TaskTracer: a desktop environment to support multi-tasking knowledge workers. Proceedings of the 10th International Conference on IUI. San Diego, USA. 75 – 82, 2005. 7. Earnshaw, R., Guedj, R., van Dam, A. and Vince, J.. Frontiers in Human-Centred Computing, Online Communities and Virtual Environment. Springer-Verlag, 2001. 8. Fernández-Caballero, A., López Jaquero, V., Montero, F. , González, P. Adaptive Interaction Multi-agent Systems in E-learning/E-teaching on the Web. International Conference on Web Engineering, ICWE 2003. Oviedo, Spain, July 14-18, 2003. Proceedings. Springer Verlag, LNCS 2722, pp. 144-154. ISSN:0302-9743. 2003. 9. Fischer, G. User Modeling in Human-Computer Interaction. User Modeling and UserAdapted Interaction, Kluwer Academic Publishers, 2000. 10. Gajos, K., Weld, D. SUPPLE: automatically generating user interfaces. Proceedings of the 9th international conference on Intelligent user interface. Funchal, Madeira, Portugal 11. Gaudiano, P., Kater, K. ALife-WebGuide: an intelligent user interface for Web site navigation. Proceedings of the 5th international conference on Intelligent user interfaces. New Orleans, Louisiana, United States. 121 – 124. 2000 12. ISO 9241-11. Ergonomic requirements for office work with visual display terminals (VDTs) - Part 11: Guidance on usability, 1998. 13. Johnson, W. L., Shaw, E. Marshall, A., LaBore, C. Evolution of user interaction: the case of agent adele. Proceedings of the 8th international conference on Intelligent user interfaces. Miami, Florida, USA. 93 – 100. 2003 14. Lieberman, H. Letizia: An Agent That Assists Web Browsing. In Proceedings of the Fourteenth International Joint Conference on Artificial Intelligence (IJCAI-95), pp. 924929, Montreal, Canada, 1995, Morgan Kaufmann publishers Inc.: San Mateo, CA, USA. 15. Limbourg, Q., Vanderdonckt, J., Michotte, B., Bouillon, L., López Jaquero, V. UsiXML: a Language Supporting Multi-Path Development of User Interfaces, 9th IFIP Working Conference on Engineering for Human Computer Interaction jointly with 11th Workshop on Design, Specification, and Verification of Interactive Systems EHCI-DSVIS’2004 (Hamburg, July 11-13, 2004). LNCS, Vol. 3425, Springer-Verlag, Berlin, Germany, 2005. 16. López Jaquero, V., Montero, F., Molina, J.P., Fernández-Caballero, A., González, P. Model-Based Design of Adaptive User Interfaces through Connectors. Design, Specification and Verification of Interactive Systems 2003, DSV-IS 2003. In DSV-IS 2003 : Issues in Designing New-generation Interactive Systems Proceedings of the Tenth Workshop on the Design, Specification and Verification of Interactive Systems. Springer Verlag, LNCS 2844, 2003. Madeira, Portugal June 4-6, 2003. 402 – López, V., Montero, F., Molina, J.P, González, P. 17. López Jaquero, V., Montero, F., Molina, J.P., González, P. Fernández Caballero, A. A Seamless Development Process of Adaptive User Interfaces Explicitly Based on Usability Properties. 9th IFIP Working Conference on Engineering for Human-Computer Interaction jointly with 11th Int. Workshop on Design, Specification, and Verification of Interactive Systems EHCI-DSVIS’2004 (Hamburg, July 11-13, 2004). LNCS, Vol. 3425, SpringerVerlag, Berlin, Germany, 2005. 18. López Jaquero, V., Montero, F., Molina, J.P., González, P., Fernández-Caballero, A. A Multi-Agent System Architecture for the Adaptation of User Interfaces. 4th International Central and Eastern European Conference on Multi-Agent Systems (CEEMAS 2005). 1517 September 2005, Budapest, Hungary. In Multi-Agents Systems and Applications IV. M. Pechoucek, P. Petta, L. Z. Varga (Eds.) LNAI 3690, Springer-Verlag, Germany, 2005. 19. Maes, P., Schneiderman, B. Direct Manipulation vs. Interface Agents: a Debate. Interactions, 4 , Number 6, ACM Press, 1997. 20. Maybury, M. Intelligent user interfaces: an introduction. In Proceedings of the 4th international Conference on intelligent User interfaces (Los Angeles, California, United States, January 05 - 08, 1999). IUI '99. ACM Press, New York, NY, 3-4, 1999. 21. Molina, J. P., García, A.S., López Jaquero, V., González, P. Developing VR applications: the TRES-D methodology. First International Workshop on Methods and Tools for Designing VR applications (MeTo-VR), in conjuntion with 11th International Conference on Virtual Systems and Multimedia (VSMM'05), Ghent, Belgium, 2005. 22. Montero, F., López Jaquero, V., Ramírez, Y., Lozano, M., González. P. Patrones de Interacción: para usuarios y para diseñadores. VI Congreso de Interacción PersonaOrdenador. 13-16 de septiembre, Granada, España. 2005. 23. Negroponte, N. Being Digital. Vintage books, Nueva York, NY, 1994. 24. Paternò, F. Model-Based Design and Evaluation of Interactive Applications. Springer. 1999. 25. Puerta, A., Maulsby, D. Management of interface design knowledge with MOBI-D. Proceedings of the 2nd international conference on Intelligent user interfaces. Orlando, Florida, USA. 249 – 252. 1997 26. Puerta, A., Micheletti, M., Mak, A. The UI pilot: a model-based tool to guide early interface design Full text. Proceedings of the 10th international conference on Intelligent user interfaces. San Diego, California, USA. 215 – 222, 2005. 27. Puerta, A.R. A Model-Based Interface Development Environment. IEEE Software,1997. 28. Rich, C., Lesh, N.B., Rickel, J., and Garland, A. A Plug-in Architecture for Generating Collaborative Agent Responses. In Proc. Of AAMAS’2002 (Bologna, July 15-19, 2002). ACM Press, New York, 2002, 782–789. 29. Szekely, P. Retrospective and Challenges for Model-Based Interface Development. DSVIS 1996: 1-27. 30. Vanderdonckt, J. Advice-giving systems for selecting interaction objects, in Proc. of 1st Int. Workshop on User Interfaces to Data Intensive Systems UIDIS’99 (Edinbourg, 5-6 septembre 1999), IEEE Computer Society Press, Los Alamitos, 1999, pp. 152-157. 31. Waern, A., Tierney, M., Rudsstrom, A., Laaksolahti, J. ConCall: edited and adaptive information filtering. Proceedings of the 4th international conference on Intelligent user interfaces. Los Angeles, California, United States 185, 1998. 32. Wahlster, W., Maybury, M. An Introduction to Intelligent User Interfaces. In: RUIU, San Francisco: Morgan Kaufmann, 1998, pp. 1- 13. 33. Wooldridge, M., Jennings, N.R. Agent Theories, Architectures, and Languages: A Survey, Proc. ECAI-Workshop on Agent Theories, Architectures and Languages (eds. M.J. Wooldridge and N.R. Jennings), Amsterdam, The Netherlands, pp. 1-32, 1994.