Creación de una base de datos emocional bilingüe y

Anuncio
Creación de una base de datos emocional bilingüe y
multimodal
Juan M. López1, Idoia Cearreta1, Nestor Garay1, Karmele López de Ipiña2, Andoni
Beristain3.
1
Laboratorio de Interacción Persona-Computador para Necesidades Especiales (LIPCNE)
Universidad del País Vasco
2
Grupo de Inteligencia Computacional. Universidad del País Vasco
3
Innovae Visión, S.L.
juanmi@si.ehu.es, icearreta001@ikasle.ehu.es, nestor.garay@ehu.es, isplopek@vc.ehu.es,
beristainandoni@yahoo.es
Resumen. El presente artículo ilustra el proceso de creación de una base de
datos emocional multimodal. Tras una breve revisión de las ventajas de crear
este tipo de bases de datos, se describen diferentes trabajos realizados sobre
bases de datos emocionales. Posteriormente, se describe el proceso de creación
de la base de datos RekEmozio, una base de datos multimodal y bilingüe para el
castellano y el vasco estándar. Finalmente se resaltan algunas de sus utilidades
y trabajo futuro.
1 Introducción
El ser humano es eminentemente emocional y gran parte de la interacción social se
basa en la capacidad de comunicar emociones propias y percibir e interpretar estados
emocionales ajenos [5]. Tanto la computación emocional, disciplina que desarrolla
dispositivos para detectar y responder a emociones humanas, como la mediación
emocional, basada en el uso de tecnología informatizada que permite la comunicación
entre dos o más personas teniendo en cuenta sus estados emocionales [11, 20], son
áreas de investigación emergentes [22].
El objetivo principal de la computación emocional consiste en capturar y procesar
información emocional con el fin de mejorar la comunicación entre la persona y el
computador, mientras que la mediación emocional intenta minimizar el filtrado de
información emocional que realizan los dispositivos de comunicación, debido a que
suelen estar dedicados a transmitir información verbal en lugar de la no verbal.
Recursos emocionales tales como bases de datos emocionales resultan muy
adecuados para el entrenamiento de aplicaciones emocionales, tanto para sistemas de
reconocimiento como de síntesis emocional. Estos recursos emocionales suelen ser
multimodales y suelen contener imágenes, sonidos, valores psicofisiológicos, etc.
En este artículo se describe el procedimiento usado para crear una base de datos
multimodal y bilingüe. La mayoría de los recursos emocionales presentes en la
literatura están dedicados a otros idiomas (principalmente el inglés) y se ha
encontrado la necesidad de desarrollar este tipo de recursos para el castellano y el
56 – López, J.M., Cearreta, I., Garay, N., López de Ipiña, K., Beristain, A.
vasco estándar. Especialmente para el vasco estándar, debido al ámbito de este idioma
en particular.
En las siguientes páginas se presenta una revisión de los esfuerzos dedicados al
desarrollo de recursos emocionales. A continuación, se presenta la base de datos
RekEmozio y su proceso de grabación. Finalmente, se hace hincapié en varios
aspectos relevantes del trabajo realizado y se presentan una serie de tareas que se
están llevando a cabo a partir de los recursos emocionales recogidos en RekEmozio.
2 Trabajos relacionados
Existen una serie de trabajos en los que se realizan amplias revisiones sobre bases de
datos emocionales existentes [6, 13, 16]. En [6] se menciona que gran parte de la
investigación se basa en grabaciones de actores, tanto profesionales como amateurs.
Sin embargo, existen muchas razones para ir más allá de datos actuados y se están
dedicando muchos esfuerzos de investigación en conseguir otros tipos de datos. Tal y
como se indica, los datos naturales son la alternativa ideal a grabar datos actuados,
pero es muy difícil conseguir este tipo de datos. Asimismo, se plantean problemas de
copyright y privacidad [8]. Otro problema fundamental es el escaso desarrollo de
herramientas para la obtención de datos emocionales naturales. Una vía intermedia
que se plantea entre los datos actuados y los naturales es la inducción de emociones
[6]. También se debe tener en cuenta que una de las mayores dificultades para la
investigación sobre bases de datos emocionales es el hecho de que la inducción es un
arte incierto con complicaciones debido a aspectos éticos.
Algunas de las aplicaciones a desarrollar partiendo de estas bases de datos son
mejorar el juicio humano de la emoción en situaciones en las que se requieren
objetividad y precisión, o incorporar sistemas emocionales en aplicaciones de
tutorización automática, en juegos o en la industria del entretenimiento [10], o incluso
mejorar la calidad de los mensajes compuestos por sistemas de Comunicación
Aumentativa y Alternativa [12]. Existen estudios sobre el uso de entidades artificiales
(tales como avatares animados o robots autónomos) para validar modelos y sistemas
emocionales, solventando así problemas éticos [4].
Muchas de las referencias encontradas en la literatura están relacionadas con el
idioma inglés. Otros idiomas no tienen tantos recursos desarrollados, especialmente
idiomas considerados minoritarios, como es el caso del vasco estándar. La única base
de datos emocionales para el vasco estándar de la que se tiene referencia es la
presentada por [17]. Para el castellano, se pueden resaltar los trabajos de [14, 21].
En la siguiente sección presentamos la base de datos RekEmozio, resaltando tanto
el proceso llevado a cabo para su creación como sus características.
Creación de una base de datos emocional bilingüe y multimodal – 57
3 Base de datos RekEmozio
3.1 Descripción de la base de datos
La base de datos RekEmozio ha sido creada con el propósito de servir como un
repositorio de información para realizar investigaciones sobre computación
emocional. La base de datos está compuesta de grabaciones adquiridas mediante
interacción con usuarios (en este caso actores). Teniendo en cuenta que la mayoría de
las bases de datos emocionales existentes están compuestas simplemente de
grabaciones realizadas con actores, nuestro propósito ha sido el de incluir en la base
de datos información descriptiva sobre las grabaciones para permitir la identificación
y categorización de cada una de ellas. Además, de esta manera se permite la posterior
actualización de los datos referentes a las grabaciones para añadir información
procedente de procesos de extracción de características emocionales relevantes.
De acuerdo a las instrucciones dadas a conocer en [8], una base de datos emocional
multimodal puede ser descrita teniendo en cuenta cinco cuestiones principales:
ámbito, naturalidad, contexto, descriptores y accesibilidad. Dichas cuestiones son
descritas en este apartado.
3.1.1 Ámbito
El ámbito de la base de datos RekEmozio se resume en la Tabla 1.
Tabla 1. Resumen del ámbito de la base de datos RekEmozio
Idioma
Vasco
Castellan
o
Total
Nº de
Actores
7
10
17
Género Edad
Desviación
Emociones
(H/M) promedio estándar
tristeza, miedo, alegría,
4/3
31.28
5.15
enfado, sorpresa, asco,
5/5
30.70
4.08
neutral
9/8
30.94
4.40
Se hizo uso de la clasificación categórica. Fueron utilizadas siete emociones: las
seis emociones básicas descritas por [9], además de la neutral. Estas emociones se
escogieron principalmente debido a que en su trabajo Ekman y Friesen sugieren su
universalidad para todas las culturas. Los 17 actores recibieron compensación
económica por su cooperación.
3.1.2 Naturalidad
− Modo de obtención de emociones: Voz e imágenes actuadas.
− Material:
(a) Audio en ambos idiomas (castellano y vasco estándar):
En la base de datos RekEmozio han sido utilizados textos de diferente longitud:
palabras, frases y párrafos. Para cada una de las 7 emociones consideradas los actores
debían usar los textos específicos de cada emoción además de los textos usados para
58 – López, J.M., Cearreta, I., Garay, N., López de Ipiña, K., Beristain, A.
todas las emociones. En la Tabla 2 queda reflejada la distribución de los diferentes
textos utilizados.
Tabla 2. Textos utilizados por cada emoción para cada idioma
Tipo de
textos
Palabras
Frases
Párrafos
Total
Textos específicos Textos usados en Nº de textos
de cada emoción todas las emociones usados
5*7
5
40
3*7
3
24
3*7
3
24
77
11
88
Nº de textos por
actor
70
42
42
154
Los párrafos y frases utilizados se han compuesto utilizando un grupo de palabras
extraídos de un diccionario emocional en castellano (un diccionario de 1.987 palabras
entre las que se hallan únicamente sustantivos, adjetivos, verbos e interjecciones).
Este diccionario emocional se ha llevado a cabo a partir de las 2.358 palabras más
frecuentes contenidas en la base de datos de [19], entre las que se seleccionaron los
sustantivos, adjetivos, verbos e interjecciones. Para crear las frases y párrafos de la
base de datos RekEmozio, las palabras del diccionario emocional se etiquetaron con
las siete emociones con la ayuda de ANEW [3]. Debido a que cada palabra en ANEW
tiene un valor asociado teniendo en cuenta las dimensiones de valencia, excitación y
dominancia, sabiendo dónde se ubican las emociones usadas en función de esas
dimensiones [7], se puede identificar la emoción categórica correspondiente. Los
párrafos y frases con significado semántico se construyeron a partir de ese grupo de
palabras, así como los que no tienen significado semántico se construyeron a partir de
palabras etiquetadas como “neutras”. Por otro lado, para la creación los textos en
vasco estándar, se tradujeron los textos del castellano.
Se pidió a los actores que pronunciasen cada palabra, frase y párrafo con la
emoción indicada y los ficheros de audio resultantes fueron grabaron.
(b) Vídeo:
Los videos se grabaron desde el frontal y el lateral izquierdo de la cara del actor.
De esta manera, pueden ser recuperados la localización y posibles deformaciones,
rotaciones y traslaciones de todos los componentes faciales relevantes para el análisis
emocional.
El procedimiento utilizado consistía en indicar al actor la emoción a interpretar
dándole una ayuda visual consistente en imágenes de la base de datos de [9] y pedirle
que tratase de reproducirla por imitación. Para cada emoción, se pide al actor que
parta de un estado neutral inicial (sin expresión) alrededor de cinco segundos. Luego,
el sujeto debía realizar lentamente seis transiciones consecutivas desde el estado
neutral al correspondiente a la emoción dada (y vuelta al estado neutral) y mantenerse
entre uno y dos segundos en cada estado, tanto con la cara neutra como expresando
una emoción de manera facial.
3.1.3 Contexto
− Contexto semántico: Como ya se ha descrito en la subsección de “Material”, se
pueden combinar siete posibles entonaciones emocionales con el contenido
semántico de palabras, frases y párrafos.
Creación de una base de datos emocional bilingüe y multimodal – 59
− Contexto estructural: Textos con diferentes longitudes (palabras, frases y párrafos).
− Contexto intermodal: El audio y el vídeo se grabaron por separado.
− Contexto temporal: Palabras sueltas, frases y párrafos fueron usadas para estudiar
posteriormente la influencia de varios parámetros de voz (tales como el ritmo, el
volumen, la longitud, el tono, etc.) y se recogió el patrón temporal de la expresión
emocional en los ficheros de audio.
3.1.4 Descriptores
− Codificación psicológica: Se ha tenido en cuenta la aproximación categórica para
codificar las grabaciones teniendo en cuenta las siete emociones descritas
anteriormente. Una vez realizada una validación o estudio normativo, se obtendrán
los valores emocionales de cada grabación con el fin de analizar la validez del
material grabado y establecer el porcentaje de acierto sobre los valores
emocionales de cada grabación.
− Codificación demográfica: Se han registrado datos demográficos sobre cada actor
participante para determinar su influencia al analizar el habla o características
faciales, tales como la edad, si es fumador o no, el idioma materno y la
expresividad.
3.1.5 Accesibilidad
Para las grabaciones en audio se ha utilizado el formato Wav, ya que no comprime ni
pierde información. Esta decisión fue tomada debido a que los formatos que
comprimen datos pierden precisión al analizar las señales de audio de este tipo de
grabaciones. El principal inconveniente al usar el formato Wav es que se necesita una
gran capacidad de almacenamiento con un gran número de grabaciones, al no haber
compresión de los datos.
Por otro lado, para el caso de las grabaciones de video es aceptable usar datos
comprimidos debido a que no hay evidencia alguna de que este hecho afecte el
reconocimiento de emociones. En este caso, se usa el formato Avi, comprimido
usando el codec DivX 5.0 (con una resolución de 320*240 puntos). De esta forma, las
grabaciones requieren significativamente menos espacio de almacenamiento. La
duración final de las grabaciones se resume en la Tabla 3.
Tabla 3. Duración de las grabaciones
Idioma
Vasco
Castellano
Total
Duración del
audio
130’41’’
166’17’’
296’58’’
Duración del vídeo
53’52’’
40’4’’
93’56’’
60 – López, J.M., Cearreta, I., Garay, N., López de Ipiña, K., Beristain, A.
3.2 Proceso de grabación
3.2.1 Entorno
Se hizo uso de un estudio de grabación para grabar los recursos de la base de datos.
En dicho estudio, se puso una silla para que el actor se sentase durante sus
grabaciones. Enfrente del actor y a su izquierda se situaron dos cámaras para las
grabaciones de vídeo desde ambas perspectivas. Asimismo, enfrente del actor se
ubicó un micrófono para grabar los sonidos a representar por el actor.
Al comienzo de las grabaciones se realizó un proceso de calibración para
comprobar que tanto el audio como el vídeo se recibían adecuadamente. Cada actor
hizo unas grabaciones de prueba a tal fin.
Un operario trabajando con un computador guiaba las sesiones de los actores. Todo
el proceso de grabación se realizó por medio de aplicaciones que guiaban la sesión y
grababan tanto el audio como el vídeo. Dichas aplicaciones se ejecutaban en el
computador del operario. La información que tenía que darse a conocer al actor,
incluyendo las instrucciones de grabación, se mostraba retroproyectando la salida del
vídeo de la tarjeta gráfica del computador del operario a un proyector. Lo mismo
sucedía con las palabras, frases y párrafos a dar a conocer al actor. Se tuvo especial
cuidado en mitigar todas las posibles fuentes de distorsión de sonido para que no
afectasen al proceso de grabar audio.
3.2.2 Herramientas
Las sesiones de grabación de cada actor fueron llevadas a cabo utilizando Eweb [2,
15], un entorno de trabajo inicialmente concebido para diseñar e implantar
experimentos controlados en entornos web. En el Módulo de Diseño de Sesión fue
diseñada la sesión a llevar a cabo por los actores indicando las distintas variables a
tener en cuenta y su orden de ejecución, en este caso compuesto de 7 bloques de
grabaciones, uno por cada emoción, que son ejecutados aleatoriamente. Dicha
información se describe en un fichero XML posteriormente utilizado por el Módulo
de Guía y Monitorización del Usuario, que se encarga de ejecutar la sesión en un
ordenador local. En este caso particular, el Módulo de Guía y Monitorización del
Usuario se comunica vía sockets con dos aplicaciones, una para las grabaciones de
audio y la otra para las grabaciones de vídeo. Se envían dos tipos de mensajes, uno
para dar comienzo a las grabaciones y el otro para finalizarlas. La Figura 1 muestra
las diferentes aplicaciones que se utilizan para realizar las grabaciones.
Ambas aplicaciones utilizan tecnología DirectShow (parte de Microsoft DirectX)
para hacer las capturas y renderizarlas. Y ambas han sido creadas como módulos
independientes para comunicarse por medio de sockets con la aplicación de guiado
del proceso. En ambos casos, se hace uso de una nomenclatura especial para
automatizar el proceso de guardar ficheros multimedia, de manera que esos ficheros
se organizan en directorios según el actor, el tipo de medio y la emoción dada. En el
caso de las grabaciones de audio, se hace una nueva distinción de acuerdo al tipo de
texto fuente, la longitud y la semántica.
La aplicación de grabación de audio permite grabar los ficheros de audio con las
características arriba descritas y escuchar el sonido grabado. Esto resulta muy útil
para que el operario verifique la calidad de las grabaciones realizadas. La aplicación
Creación de una base de datos emocional bilingüe y multimodal – 61
de grabación de video es capaz de grabar vídeo simultáneamente desde el punto de
vista frontal y lateral izquierdo.
Todos los datos se almacenan en una base de datos etiquetados según los actores,
las emociones y los textos, tal y como se menciona en la siguiente subsección.
3.2.3 Procedimiento
Una vez que el actor esté sentado y preparado, la sesión de grabación da comienzo
para cada uno de ellos. Al comienzo, el actor ha de dar al operario una serie de
informaciones para rellenar un cuestionario demográfico. El procedimiento de
grabación es el mismo para cada idioma y se describe a continuación.
Figura 1. Aplicaciones utilizadas para realizar las grabaciones
El operario gestiona el proceso de grabación desde la interfaz de control creada por
Eweb. Además, las interfaces para las aplicaciones de grabación de audio y vídeo son
siempre visibles por lo que el operario puede ver y escuchar las grabaciones sin
interferir en la sesión de grabación del actor. La Figura 2 muestra la interfaz del
operario.
El actor ve las instrucciones que debe seguir retroproyectadas. En cada bloque, el
actor tiene una sesión de entrenamiento. Hay que resaltar que el orden de presentación
de los bloques de emoción se selecciona de manera aleatoria por Eweb, así como las
diferentes grabaciones dentro de cada bloque. Ello es para evitar que todos los actores
realicen la misma sesión en el mismo orden exacto, lo que puede aumentar el efecto
de la fatiga sobre varias grabaciones.
Dentro del bloque de video, cada actor realiza, usando exclusivamente gestos
faciales, seis transiciones de la emoción neutral a la emoción particular y vuelta a la
62 – López, J.M., Cearreta, I., Garay, N., López de Ipiña, K., Beristain, A.
emoción neutral. Para cada grabación se toman las secuencias de imágenes tanto de
frente como de perfil.
En el caso del bloque de audio, dada una emoción por el sistema, el actor ha de
expresar todas las palabras, frases y párrafos que se le indican. Antes de que el actor
realice una grabación, se le muestra el texto de dicha grabación. De esta forma, el
actor tiene tiempo para memorizarlo. Asimismo, se le muestra un icono con forma de
bombilla verde, para que tenga constancia de que la grabación no ha dado comienzo
todavía. Para hacer una grabación, el operario ha de pulsar el botón “Iniciar” en su
interfaz de control en cuanto el actor esté listo para representar la grabación.
Entonces, el comando de inicio de grabación se manda a la aplicación de grabación
correspondiente (audio o vídeo, dependiendo de la grabación en curso) y se da
comienzo a la grabación. Simultáneamente, el icono de la bombilla verde en la
interfaz del actor es reemplazado por una bombilla roja para que el actor comience a
grabar. Al pulsar el botón “Parar”, el operario da la orden de parar y la aplicación
correspondiente acaba la grabación y la bombilla vuelve a ser verde. En el caso de
que la grabación no sea válida para el operario, esa grabación concreta puede
reintentarse pulsando el botón “Iniciar” otra vez. En este caso, la grabación anterior se
pierde en detrimento de la nueva. Si la grabación se considera válida por el operario,
al pulsar el botón “Siguiente” se continúa con el siguiente texto o imagen.
La duración de las sesiones para cada actor era de aproximadamente dos horas.
Figura 2. Interfaz de control del operario
3.3 Resultado
Tras completar el proceso de grabación, el resultado obtenido es una base de datos en
donde quedan guardados en diferentes archivos los datos correspondientes a las
grabaciones en audio y vídeo para cada idioma. Por otro lado, se guardan metadatos o
información descriptiva sobre las grabaciones (actor, emoción, tipo de grabación,
etc.), así como información demográfica sobre los actores que intervienen. Para las
grabaciones de audio, se archivan el tipo de texto e información sobre el significado
Creación de una base de datos emocional bilingüe y multimodal – 63
semántico. Para las grabaciones de video, se almacena si la toma ha sido frontal o
lateral. En total, la base de datos contiene 2.618 grabaciones de audio y 102 de video.
4 Conclusiones y trabajo futuro
Las bases de datos emocionales resultan muy útiles a la hora de desarrollar sistemas
de computación emocional. Son utilizadas principalmente en sistemas de
reconocimiento de emociones, pero también pueden usarse para desarrollar sistemas
de síntesis de emociones.
Esta base de datos está siendo usada en la fecha para entrenar algunos sistemas de
reconocimiento de emociones aplicados a la localización particular en donde los
autores realizan sus investigaciones. Esta base de datos ha sido validada mediante
metodología experimental con sujetos humanos [16] con la intención de extraer los
mejores ejemplos grabados y usar estos ejemplos para identificar las interacciones
más expresivas con el mínimo de ambigüedades y para seleccionar los datos más
relevantes para entrenar sistemas de tratamiento de emociones. Además, se esta
analizando su naturalidad, así como la relevancia de los parámetros de la voz que
influyen en la expresión y el reconocimiento emocionales, sobre los que se han
aplicado diferentes técnicas de aprendizaje automático para evaluar sus utilidades en
el reconocimiento del habla emocional [1]. En un futuro, se pretende ampliar esta
base de datos con grabaciones combinadas de audio y video.
Toda esta información está siendo usada para describir una ontología que tiene
asociados elementos multimodales. La utilización de dicha ontología, en combinación
con metodologías de ingeniería del software ayudará a desarrollar sistemas
emocionales [18], tanto para la comunidad científica como para la industria.
Agradecimientos
Los autores agradecen la colaboración de las personas implicadas en la grabación de
la base de datos RekEmozio. El presente trabajo ha recibido financiación del
Departamento de Economía de la Diputación Foral de Gipuzkoa.
Referencias
1. Álvarez, A., Cearreta, I., López, J.M., Arruti, A., Lazkano, E., Sierra, B., & Garay, N.
(2006). Feature Subset Selection based on Evolutionary Algorithms for automatic emotion
recognition in spoken Spanish and Standard Basque languages. Lecture Notes in Artificial
Intelligence (LNAI). In press.
2. Arrue, M., Fajardo, I., López, J.M. and Vigo, M. (2006). The Influence of Technical Web
Accessibility and Usability in Web Quality Models. An Empirical Study. International
Journal of Web Engineering and Technology. In press.
64 – López, J.M., Cearreta, I., Garay, N., López de Ipiña, K., Beristain, A.
3. Bradley, M.M. y Lang, P.J: Affective norms for English words (ANEW): Instruction manual
and affective ratings. Gainesville, FL: The Center for Research in Psychophysiology,
University of Florida (1999)
4. Canamero, L.: Emotion understanding from the perspective of autonomous robots research.
Neural Networks, Vol. 18 (2005) 445-455
5. Casacuberta, D.: La mente humana: Diez Enigmas y 100 preguntas. Océano (Ed), Barcelona,
Spain (2001) ISBN: 84-7556-122-5
6. Cowie, R., Douglas-Cowie, E., Cox, C.: Beyond emotion archetypes: Databases for emotion
modelling using neural networks. Neural Networks Vol. 18 (2005) 371-388
7. Cowie, R., Douglas-Cowie, E., Savvidou, S., McMahon, E., Sawey, M. and Schröder, M.:
'Feeltrace': An Instrument For Recording Perceived Emotion In Real Time. In: ISCA
Workshop on Speech & Emotion. Northern Ireland (2000) 19-24
8. Douglas-Cowie, E., Campbell, N., Cowie, Roach, P.: Emotional speech: Towards a new
generation of databases. Speech Communication, Vol. 40 (2003) 33-60
9. Ekman, P., Friesen, W.: (1976). Pictures of facial affect. Consulting Psychologist Press, Palo
Alto, CA (1976)
10. Fragopanagos N. F., Taylor J. G.: Emotion recognition in human-computer interaction.
Neural Networks, Vol. 18 (2005) 389-405
11. Garay, N., Abascal, J., Gardeazabal, L.: Mediación emocional en sistemas de
Comunicación Aumentativa y Alternativa. Revista Iberoamericana de Inteligencia Artificial,
Vol. 16 (2002) 65-70
12. Garay, N., Cearreta, I., López, J.M. and Fajardo, I. (2006). Assistive Technology and
Affective Mediation. Special Issue on Human Technology Journal. Vol. 2, No. 1. Pp. 55-83
13. Humaine: Retrieved March 10, 2006, from http://emotion-research.net/wiki/Databases
14. Iriondo, I., Guaus, R., Rodríguez, A., Lázaro, P., Montoya, N., Blanco, J. M., Bernadas, D.,
Oliver, J.M., Tena, D., Longhi, L.: Validation of an acoustical modelling of emotional
expression in Spanish using speech synthesis techniques. In: SpeechEmotion’00 (2000) 161166
15. López, J.M.: Development of a tool for the Design and Analysis of Experiments in the
Web. In: Lorés, J., Navarro, R. (eds.): Proceedings of The 5th Spanish Human Computer
Interaction Conference, Interacción 2004. Lleida (2004) 434-437
16. López, J.M., Cearreta, I., Fajardo, I. and Garay, N. (2006). Evaluating the validity of
RekEmozio affective multimodal database with experimental subjects. Technical Report
EHU-KAT-IK-04-06. University of the Basque Country
17. Navas, E., Hernáez, I., Castelruiz. A., Luengo, I.: Obtaining and Evaluating an Emotional
Database for Prosody Modelling in Standard Basque. Lecture Notes on Artificial
Intelligence, Vol 3206. Springer-Verlag, Berlin (2004) 393-400
18. Obrenovic, Z., Garay, N., López, J. M., Fajardo, I., Cearreta, I.: An ontology for description
of emotional cues. In: J. Tao, T. Tan, R. W. Picard (eds.): Lecture Notes in Computer
Science, Vol. 3784 - Proceedings of The First International Conference on Affective
Computing & Intelligent Interaction (ACII’05). Beijing, China (2005) 505-512
19. Pérez, M. A., Alameda, J. R., Cuetos Vega, F.: Frecuencia, longitud y vecindad ortográfica
de las palabras de 3 a 16 letras del diccionario de la lengua española (RAE, 1992), Vol. 8(2)
(2003) 1-20
20. Picard, R. W.: Affective Computing. MIT Press, Cambridge, MA (1997)
21. Redondo, J., Fraga, I., Comesaña, M., Perea, M.: Estudio normativo del valor afectivo de
478 palabras españolas. Revista Psicológica, Vol. 26 (2005) 317-326
22. Tao, J., Tan, T.: Affective computing: A review. In: J. Tao, T. Tan, R. W. Picard (eds.):
Lecture Notes in Computer Science, Vol. 3784 - Proceedings of The First International
Conference on Affective Computing & Intelligent Interaction (ACII’05). Beijing, China
(2005) 981-995
Descargar