Subido por HELARD CHUCO LAGUNA

toaz.info-gonzalez-teruel-barrios-cerrejon-2012-metodos-y-tecnicas-para-la-investigacio-pr c70fd46f64952839bdd89d1005770d1f

Anuncio
;
AURORAGONZALEZ-TERUEL
MAITEBARRIOSCERREJÓN
Métodosy técnicas para la investigación
del comportamiento
informacional
Fundamentosy nuevosdesarrollos
METODOS
Y TÉCNICAS PARA LA INVESTIGACIÓN
DEL COMPORTAMIENTO INFORMACIONAL
Fundamentos y nuevos desarrollos
METODOS
Y TÉCNICAS PARA LA INVESTIGACIÓN
DEL COMPORTAMIENTO
INFORMACIONAL
Fundamentos y nuevos desarrollos
AURORA GONZÁLEZ-TERUEL
MAITE BARRIOS CERREJÓN
EDICIONES TREA
BIBLIOTECONOMÍA Y ADMINISTRACIÓN CULTURAL- 247
© Aurora González-Teruel y Maite Barrios Cerrejón, 2012
© de esta edición:
Ediciones Trea, S. L.
María González la Pondala, 98, nave D
33393 Somonte-Cenero. Gijón (Asturias)
Tel.: 985 303 801. Fax: 985 303 712
trea@trea.es
www.trea.es
Dirección editorial: Alvaro Díaz Huici
Coordinación editorial: Pablo García Guerrero
Producción: José Antonio Martín
Cubiertas: Impreso Estudio
Impresión: Gráficas Ápel
Encuadernación: Cimadevilla
Depósito legal: As. 02964-2012
ISBN: 978-84-9704-671-8
Impreso en España - Princed in Spain
Todos los derechos reservados. No se permite la reproducción total o parcial de
este libro, ni su incorporación a un sistema informático, ni su transmisión en
cualquier forma o por cualquier medio, sea este electrónico, mecánico, por fotocopia, por grabación u otros métodos, sin el permiso previo por escrito de Ediciones Trea, S. L.
La Editorial, a los efectos previstos en el artículo 32.1 párrafo segundo del vigente TRLPI, se opone expresamente a que cualquiera de las páginas de esta obra o
partes de ella sean utilizadas para la realización de resúmenes de prensa.
Cualquier forma de reproducción, distribución, comunicación pública o transformación de esta obra solo puede ser realizada con la autorización de sus titulares,
salvo excepción prevista por la ley. Diríjase a CEDRO (Centro Español de Derechos
Reprográficos) si necesita fotocopiar o escanear algún fragmento de esta obra
(www.conlicencia.com; 91 702 19 70 / 93 272 04 47).
A Toni, Alícia y Bernat
A Juan José
ÍNDICE
Prólogo.............................................................
21
Capítulo 1. Fundamentos de la investigación en ciencias sociales... . . . . . . . . . . . . . .
1.1. Principales paradigmas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2. Metodología cualitativa y cuantitativa. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.3. Tipos de investigación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.4. El proceso de investigación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.4.1. Proceso de investigación clásico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.4.2. Proceso de investigación cualitativo . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.5. Criterios de calidad de la investigación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.5.1. Investigación cuantitativa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.5.2. Investigación cualitativa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.6. El informe de investigación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.7. Ética de la investigación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.8. Resumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
27
27
31
34
38
38
39
41
41
44
48
50
53
Capítulo 2. Técnicas de muestreo.........................................
2.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2. Muestreo probabilístico. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2.1. Muestreo aleatorio simple. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2.2. Muestreo aleatorio sistemático................................
2.2.3. Muestreo aleatorio estratificado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.2.4. Muestreo aleatorio por conglomerados. . . . . . . . . . . . . . . . . . . . . . . . . .
2.3. Muestreo no probabilístico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3.1. Muestreo accidental . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3.2. Muestreo intencional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3.3. Muestreo teórico...........................................
2.3.4. Muestreo por cuotas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.3.5. Muestreo por bola de nieve...................................
2.4. Tamaño de la muestra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
55
55
58
59
60
60
62
65
68
69
70
71
73
74
(10]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO
INFORMACIONAL
2.5. Ejemplos de investigaciones........................................
2.6. Resumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
76
78
Capítulo 3. Los estudios de encuesta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.1. Definición y ámbito de aplicación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2. Fases y principales elementos en un estudio de encuesta . . . . . . . . . . . . . . . . . .
3.2.1. Elaboración del cuestionario. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2.1.1. Tipología y generación de preguntas de un cuestionario . . . . . .
3.2.1.2. Recomendaciones para la redacción de las preguntas . . . . . . . .
3.2.1.3. Estructura y diseño del cuestionario . . . . . . . . . . . . . . . . . . . . .
3.2.2. La prueba piloto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2.3. Administración del cuestionario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2.3.1. Cuestionario administrado con intervención de un
entrevistador. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.2.3.2. Cuestionario autoadministrado.........................
3.2.4. Procedimiento para la administración del cuestionario . . . . . . . . . . . . . .
3.2.5. Codificación y depuración de los datos. . . . . . . . . . . . . . . . . . . . . . . . . .
3.3. Errores asociados a un estudio de encuesta . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.4. Ejemplos de investigaciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
3.5. Resumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
79
79
82
83
84
87
92
94
98
98
101
106
109
112
114
116
Capítulo 4. Entrevista... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.1. Definición y ámbito de aplicación...................................
4.2. Tipos de entrevista en función del grado de estructuración. . . . . . . . . . . . . . . .
4.3. Estructura de la entrevista. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.4. Preguntas de una entrevista. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.5. Habilidades del entrevistador . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.6. El entrevistado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.7. Registro de la entrevista . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.8. Transcripción de los datos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.9. Ventajas y limitaciones de la entrevista . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.10. Ejemplos de investigaciones........................................
4.11. Resumen......................................................
119
119
122
125
127
131
133
134
135
136
138
141
Capítulo 5. Técnica del incidente crítico.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.1. Definición y ámbitos de aplicación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.2. Procedimiento de aplicación de la técnica del incidente crítico. . . . . . . . . . . . . .
5 .2.1. Definición de objetivos generales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5 .2.2. Planes y especificaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.2.3. Recogida de los datos.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.2.4. Análisis de los datos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.2.5. Interpretación de los datos y comunicación de los resultados . . . . . . . . .
5.3. Ventajas y limitaciones de la técnica del incidente crítico. . . . . . . . . . . . . . . . . .
5.4. Ejemplos de investigaciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.5. Resumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
143
143
144
145
146
148
150
151
152
153
158
fNDICE
[11)
Capítulo 6. Observación................................................
6.1. Definición y ámbitos de aplicación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.2. Tipos de observación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.3. Entrada en el campo. Observación abierta y encubierta. . . . . . . . . . . . . . . . . . .
6.4. El rol del observador. Niveles de participación..........................
6.5. Registro de las observaciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.5.1. Observación estructurada....................................
6.5.2. Observación no estructurada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.6. Ventajas y limitaciones de la observación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
6.7. Ejemplos de investigaciones........................................
6.8. Resumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
159
159
161
163
164
167
167
171
175
177
181
Capítulo 7. Grupos de discusión..........................................
7.1. Definición y ámbito de aplicación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.2. Grupo de discusión como técnica cualitativa...........................
7.3. Fases de una investigación mediante grupo de discusión . . . . . . . . . . . . . . . . . .
7.4. Elementos de un grupo de discusión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.4.1. El moderador . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.4.2. Los participantes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.4.3. Las preguntas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.4.4. El escenario.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.4.5. La sesión.................................................
7.5. Ventajas y limitaciones de los grupos de discusión.......................
7.6. Variantes de la técnica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7.7. Ejemplos de investigaciones........................................
7.8. Resumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
183
183
185
186
188
188
191
197
198
199
201
202
204
208
Capítulo 8. La técnica Delphi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
209
209
21 O
212
212
213
8.1. Definición y ámbitos de aplicación...................................
8.2. Características . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.3. Procedimiento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.3.1. Secuencia de un estudio Delphi................................
8.3.2. Grupo moderador y grupo de expertos..........................
8.3.3. El cuestionario en un estudio Delphi. Recogida y análisis de la
información . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.4. Ventajas y limitaciones de la técnica Delphi. . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.5. Ejemplos de investigaciones.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8.6. Resumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Capítulo 9. Análisis de los registros de transacciones . . . . . . . . . . . . . . . . . . . . . . . . . .
9.1. Definición y ámbitos de aplicación...................................
9 .2. Procedimiento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.3. Ventajas y limitaciones del análisis de transacciones . . . . . . . . . . . . . . . . . . . . .
9.4. Ejemplos de investigaciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
9.5. Resumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
214
219
220
225
227
227
229
236
238
241
[12]
MÉTODOS Y TÉCNICAS PARALA INVESTIGACIÓNDEL COMPORTAMIENTOINFORMACIONAL
Capítulo 10. Análisis de datos cuantitativo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10.1. Introducción...................................................
10.2. Tipos de variables y escalas de medida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10.3. Preparación de los datos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10.4. Análisis de los datos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10.4.1. Estadística descriptiva. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10.4.1.1. Descripción univariable . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10.4.1.2. Descripción bivariable . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10.4.1.3. Descripción multivariable. . . . . . . . . . . . . . . . . . . . . . . . . . .
10.4.2. Estadística inferencial. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10.4.2.1. Pruebas de contraste de hipótesis . . . . . . . . . . . . . . . . . . . . .
10.4.2.2. Cuestiones de interés para una correcta interpretación de los
resultados. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10.5. Resumen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
243
243
244
245
247
24 7
248
254
256
257
261
Capítulo 11. Análisis de datos cualitativo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11.1. Introducción...................................................
11.2. Análisis de contenido . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11.2.1. Definición. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11.2.2. Proceso de análisis de contenido. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11.2.2.1. Obtención y/o selección de los datos. . . . . . . . . . . . . . . . . . .
11.2.2.2. Determinación de las unidades de análisis. Unidades de
registro y contexto. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11.2.2.3. Análisis. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11.2.2.4. Criterios de confiabilidad en el análisis de contenido . . . . . .
11.3. Teoría fundamentada . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11.3.1. Introducción.............................................
11.3.2. La teoría fundamentada para el estudio del comportamiento
informacional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11.3.3. Elementos básicos de la teoría fundamentada. . . . . . . . . . . . . . . . . . . .
11.3.3.1. Muestreo y saturación teórica........................
11.3.3.2. Método de comparación constante. . . . . . . . . . . . . . . . . . . .
11.3.3.3. Codificación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
11.3.3.4. Teoría sustantiva y teoría formal. . . . . . . . . . . . . . . . . . . . . .
11.4. Resumen. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
269
269
271
271
274
274
Bibliografía. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
295
Índice de materias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
309
264
267
274
276
281
281
281
283
285
285
286
287
292
293
ÍNDICE DE TABLAS
Tabla 1. Posturas respecto a los paradigmas en la investigación en ciencias sociales
(adaptado de Vallés, 1999; Guba y Lincoln, 1994) . . . . . . . . . . . . . . . . . . . . . . . . .
29
Tabla2. Características de la metodología cuantitativa y cualitativa (adaptado de
Hernández-Sampieri y otros, 2010 y Corbetta, 2010) . . . . . . . . . . . . . . . . . . . . . . .
Tabla3. Tipos de investigación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Tabla4. Criterios y estrategias para asegurar la confiabilidad en la investigación
cualitativa según Lincoln y Guba (1985)..........................
.......
Tabla 5. Contenidos de un informe técnico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Tabla6. Tipos de muestreo..............................................
Tabla 7. Ejemplo de un muestreo aleatorio estratificado. . . . . . . . . . . . . . . . . . . . . . . .
Tabla 8. Subtipos de muestreo intencional según Patton (1990, 2002).............
Tabla9. Ejemplo de un muestreo por cuotas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Tabla 10. Ejemplos de preguntas cerradas de un cuestionario . . . . . . . . . . . . . . . . . . .
Tabla 11. Ilustración del punto central en una escala adverbial y en otra tipo Likert. .
Tabla 12. Ficha de campo de una encuesta. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Tabla 13. Rol del investigador en la observación . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Tabla 14. Categorías de registro por medio de un sistema de valoración . . . . . . . . . . .
Tabla 15. Categorías de registro de datos en el estudio de Given y Leckie (2003). . . . .
Tabla 16. Ventajas y desventajas en el uso de moderadores internos y externos a la
organización (adaptado de Bader y Rossi, 2002) . . . . . . . . . . . . . . . . . . . . . . . . . . .
Tabla 17. Análisis de las preguntas jerarquizadas de ocho participantes en un estudio
Delphi ordenadas según la mediana.....................................
Tabla18. Análisis de las preguntas formuladas a ocho participantes para la valoración
de unos ítems del estudio Delphi ordenadas según la media. . . . . . . . . . . . . . . . . . .
Tabla 19. Análisis de las preguntas formuladas para la comparación de unos ítems
en un estudio Delphi jerarquizadas según las veces que ha sido preferido a otros . .
Tabla 20. Resultados del estudio de Maderuelo-Fernández y otros (2009)... . . . . . . .
Tabla 21. Ranking de temas de investigación en la primera ronda del estudio de
Maceviciute y Wilson (2009). Cinco primeros y últimos ítems. . . . . . . . . . . . . . . . .
Tabla 22. Formatos de archivos de registro (IBM, 2003). . . . . . . . . . . . . . . . . . . . . . . .
Tabla 23. Datos en los archivos de registro (IBM, 2003)........................
32
34
45
49
58
61
67
72
86
91
107
165
170
171
189
216
217
218
222
224
230
231
[14]
MÉTODOS Y TÉCNICAS PARALA INVESTIGACIÓNDEL COMPORTAMIENTOINFORMACIONAL
Tabla 24. Archivo de registro del buscador Altavista (información facilitada por
B. J. Jansen). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Tabla 25. Métricas web de la Web Analytics Association (Web Analytics Definitions,
2008)............................................................
Tabla 26. Acciones en el navegador registradas por Web Tracker (adaptado de Choo,
Detlor y Turnbull, 2000) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Tabla 27. Principales técnicas de la estadística descriptiva . . . . . . . . . . . . . . . . . . . . . .
Tabla 28. Correspondencia entre puntuaciones de una variable y puntuaciones z . . . .
Tabla 29. Principales coeficientes de correlación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Tabla 30. Errores asociados a la prueba de contraste de hipótesis . . . . . . . . . . . . . . . .
Tabla 31. Características del análisis cuantitativo frente al cualitativo (adaptado
de Zhang y Wildemuth, 2005; White y Marsh, 2006) . . . . . . . . . . . . . . . . . . . . . . .
Tabla 32. Agrupación de códigos en categorías en un análisis de contenido. . . . . . . . .
Tabla 33. Categorías obtenidas por Sairanen y Savolainen (2010) del análisis de
contenido de las entrevistas sobre evitación de información sobre salud . . . . . . . . .
Tabla 34. Categorías conductuales del modelo de búsqueda de información de Ellis
(1989)...........................................................
Tabla 35. Proceso de codificación abierta en la teoría fundamentada (adaptado de
Mutshewa, 2010) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Tabla 36. Proceso de codificación axial en la teoría fundamentada (adaptado de
Mutshewa, 2010) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
231
232
234
248
253
254
260
272
277
278
279
289
291
ÍNDICE DE FIGURAS
Figura 1. Razonamiento inductivo y deductivo (adaptado de Gray, 2004) . . . . . . . . . .
Figura 2. Proceso de investigación clásico (adaptado de Corbetta, 2010).. . . . . . . . . .
Figura3. Proceso de investigación cualitativa (adaptado de Flick, 2004) . . . . . . . . . . .
Figura4. Proceso de investigación cualitativa (adaptado de Rodríguez Gómez,
Gil Flores y García Jiménez, 1996) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Figura5. Representación de una muestra representativa y una muestra sesgada.. . . . .
Figura6. Ejemplo de matriz para la codificación de datos de una encuesta. . . . . . . . . .
Figura7. Ejemplo de depuración univariable de datos . . . . . . . . . . . . . . . . . . . . . . . . .
Figura8. Ejemplo de comprobación bivariable de datos. . . . . . . . . . . . . . . . . . . . . . . .
Figura9. Fases de un estudio basado en la técnica del incidente crítico (Flanagan,
1954)............................................................
Figura10. Evolución del alcance de la observación (adaptado de Spradley, 1980) . . . .
Figura11. Secuencia de un estudio Delphi (Adaptado de Couper, 1984) . . . . . . . . . . .
Figura12. Representación gráfica en los que se representa una distribución asimétrica
positiva (a), simétrica (b) y asimétrica negativa (c).. . . . . . . . . . . . . . . . . . . . . . . . .
Figura13. Diagramas de dispersión en los que se representa una relación directa (a),
una relación inversa (b) y una relación nula (c) . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Figura14. Zona de aceptación (lisa) y rechazo (rallada) de un estadístico de contraste
con distribución muestra! normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Figura15. Proceso de análisis de contenido cualitativo (adaptado de Elo y Kyngas,
2008)............................................................
Figura16. Modelo de comportamiento informacional de Meho (2001)............
Figura 17. Niveles de codificación en la teoría fundamentada (adaptado de Harwood,
2001)............................................................
33
38
39
40
57
110
111
112
145
174
212
252
255
262
273
280
288
ÍNDICE DE CUADROS
Cuadro 1. Criterios y estrategias para asegurar la credibilidad en la investigación
cualitativa (síntesis de Lincoln y Guba, 1985) . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Cuadro 2. Preguntas para valorar la transferibilidad de una investigación cualitativa
(Miles y Hubermann, 1994)... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Cuadro 3. Ejemplo de muestreo aleatorio simple . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Cuadro 4. Ejemplo de muestreo sistemático.................................
Cuadro 5. Ejemplo de un muestreo aleatorio estratificado . . . . . . . . . . . . . . . . . . . . . .
Cuadro 6. Ejemplo de preguntas abiertas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Cuadro 7. Ejemplo de matriz de preguntas..................................
Cuadro 8. Leyes de organización perceptiva.................................
Cuadro 9. Ventajas y desventajas de las encuestas cara a cara . . . . . . . . . . . . . . . . . . .
Cuadro 10. Ventajas y desventajas de las encuestas telefónicas. . . . . . . . . . . . . . . . . . .
Cuadro 11. Ventajas y desventajas de las encuestas por correo postal . . . . . . . . . . . . .
Cuadro 12. Ventajas y desventajas de las encuestas web. . . . . . . . . . . . . . . . . . . . . . . .
Cuadro 13. Ventajas y desventajas de las encuestas en grupo . . . . . . . . . . . . . . . . . . . .
Cuadro 14. Ejemplo de tercer contacto siguiendo el procedimiento del tailored design
method..........................................................
Cuadro 15. Ejemplo de codificación de pregunta cerrada.......................
Cuadro 16. Preguntas para motivar una respuesta más amplia en la técnica del incidente
crítico (Johnson, 2003) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Cuadro 17. Preguntas del cuestionario en el estudio de González Teruel (2000) (1) . . .
Cuadro 18. Preguntas del cuestionario en el estudio de González Teruel (2000) (11). . .
Cuadro 19. Clasificación de los problemas de información de los médicos del Hospital
Clínico Universitario de Valencia (González Teruel, 2000)....................
Cuadro 20. Clasificación de la información necesitada por los médicos del Hospital
Clínico Universitario de Valencia (González Teruel, 2000)....................
Cuadro 21. Tipos de observación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Cuadro 22. Nota de observación del estudio INISS (Wilson y Streatfield, 1980) . . . . . .
Cuadro 23. Resultados del estudio INISS (Information Needs and Services in Social
Services Departments) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Cuadro 24. Resultado del análisis de contenido del estudio de Hersberger (2001)....
46
47
59
60
63
84
93
95
99
100
103
105
106
109
110
150
154
155
156
157
162
172
180
181
[181
MÉTODOS Y TÉCNICAS PARALA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL
Cuadro 25. Información que debe contener la guía del moderador . . . . . . . . . . . . . . .
Cuadro 26. Número de grupos necesarios para una investigación . . . . . . . . . . . . . . . .
Cuadro 27. Pregunta jerarquizada en un cuestionario Delphi....................
Cuadro 28. Pregunta con escala Likert en un cuestionario Delphi . . . . . . . . . . . . . . . .
Cuadro 29. Pregunta por comparación en un cuestionario Delphi . . . . . . . . . . . . . . . .
Cuadro 30. Pregunta por estimación en un cuestionario Delphi . . . . . . . . . . . . . . . . . .
Cuadro 31. Cuestionario del estudio Delphi desarrollado por Maderuelo-Fernández
y otros (2009) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Cuadro 32. Preguntas acerca de la prioridad de la investigación sobre usuarios en el
estudio de Maceviciute y Wilson (2009) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Cuadro 33. Objetivos y resultados más relevantes de la segunda fase del estudio
Eva/uating the usage and impacto( e-iournals in the UK (CIBER, 2011) . . . . . . . . . .
Cuadro 34. Descripción de una variable cualitativa . . . . . . . . . . . . . . . . . . . . . . . . . . .
Cuadro 35. Cálculo de una media con y sin valores extremos . . . . . . . . . . . . . . . . . . .
Cuadro 36. Cálculo de una mediana . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Cuadro 37. Dispersión de los datos de una variable. . . . . . . . . . . . . . . . . . . . . . . . . . .
Cuadro 38. Descripción de dos variables cualitativas. . . . . . . . . . . . . . . . . . . . . . . . . .
Cuadro 39. Cálculo de un intervalo de confianza de medias. . . . . . . . . . . . . . . . . . . . .
Cuadro 40. Clasificación y definición de las técnicas de análisis cualitativo de textos
(síntesis de Ryan y Bernard, 2000; Bernard, 2006; Bernard y Ryan, 2010) . . . . . . .
Cuadro 41. Ejemplo de codificación en el análisis de contenido. . . . . . . . . . . . . . . . . .
192
195
215
217
218
219
221
223
240
249
250
251
252
256
258
270
277
AGRADECIMIENTOS
Aunque este libro es cosa de dos, no hubiera sido posible sin la ayuda de muchas
otras personas.
En primer lugar nos gustaría agradecer a nuestros alumnos, los pasados, presentes
y futuros, y a todos aquellos académicos y profesionales que en algún momento han
llamado a nuestra puerta para solicitar apoyo para llevar a cabo sus estudios. Ellos
han sido la llave que abrió la puerta de este proyecto.
A María Francisca Abad por su continuo apoyo y generosidad. A Rebeca Lluesma
por la lectura incansable de parte de los contenidos, no siempre los más amenos. Finalmente a Juan José Muñoz por su paciencia y comprensión.
A Joan Guardia y María Luisa Honrubia por la generosidad de compartir su
conocimiento y ser siempre un modelo a seguir. A los compañeros de la Facultad de
Biblioteconomía y Documentación de las universidades de Valencia y Barcelona, por
todas aquellas conversaciones que han hecho posible que los contenidos de este libro
tenga un carácter aplicado y diverso. Especialmente, a Anna Villarroya por su continuo apoyo. Por último, y esencial, a Toni Micó, por estar siempre allí, por su apoyo
y su comprensión.
PRÓLOGO
En el contexto de información y documentación, el ámbito de investigación dedicado
al estudio del usuario se enmarca en el epígrafe general de comportamiento informacional (c1). Para el propósito de este libro, se parte de la definición de Fisher, Erdelez
y McKechnie (2005), que lo entienden como el estudio de cualquier experiencia de
un individuo o grupo de individuos relacionada con la necesidad, búsqueda, gestión,
difusión y uso de la información en diferentes contextos. En definitiva, se trata de la
indagación de lo que ocurre cuando las personas interaccionan con la información y
tiene como fin último tomar las mejores decisiones para la planificación y evaluación
de los sistemas de información, entendidos estos en su acepción más amplia. Estas
decisiones pueden estar relacionadas tanto con la formulación de un plan estratégico
para un centro de información como para la mejora de la interfaz de un sistema de
información electrónica, pasando por la determinación de objetivos y contenidos que
ha de recoger un programa de alfabetización informacional, entre otros. En cualquier
caso, el conocimiento de los distintos aspectos que se engloban bajo el epígrafe general de CI constituye la principal herramienta de la que dispone el profesional de la
información para satisfacer los requerimientos de sus usuarios.
La literatura sobre CI es extensa, no en vano la mayoría de autores ubican el inicio de esta línea de investigación en la primera mitad del siglo xx. Desde entonces el
interés por los aspectos teóricos, conceptuales y metodológicos del CI ha ido aumentando y esto se refleja en el crecimiento del volumen de publicación. Pero además
de abundante, la literatura en este campo evidencia un grado de madurez que no
presentan otras áreas en el contexto general de la información y documentación. Esta
madurez se concreta en los desarrollos teóricos que se han producido en los últimos
años (McKechnie, Pettigrew y Joyce, 2001) y que no hubieran sido posibles sin que,
en paralelo, aumentara tanto el rigor con el que progresivamente se ha ido abordando la investigación sobre usuarios, como por el aumento de la diversidad de enfoques
metodológicos que se han ido incorporando. Respecto a los aspectos metodológicos,
[22]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL
es ilustrativo analizar los artículos de revisión centrados en este ámbito publicados
en Annual Review of Information Science and Technology (ARIST), testigo y reflejo de
la evolución que se ha experimentado. En el primero de ellos, el de Menzel (1966), se
describe la falta de adecuación de las técnicas empleadas en el estudio de los usuarios
a los objetivos de la investigación y la falta de asunción del know-how alcanzado por
otras ciencias sociales. Un año después, Herner y Herner (1967) destacan los aspectos que llaman la atención respecto a la literatura que revisan, y entre ellos están las
pocas técnicas que se emplean, la diversidad y la ambigüedad del lenguaje cuando se
documenta el uso de dichas técnicas, la falta de innovación en general y la ausencia
de diseños experimentales rigurosos.
Sin embargo, ya a finales del siglo xx, Hewins (1990) empieza a vislumbrar un tímido cambio en el ámbito metodológico con la introducción de nuevas técnicas para
el estudio del usuario como son la entrevista lineal temporal, inspirada por la teoría
del sense-making, o la técnica del incidente crítico. ¿Qué cambió desde los primeros
capítulos del ARIST hasta el trabajo de revisión Hewins? En primer lugar, una constante revisión crítica de los fundamentos de esta línea de investigación buscando la
mayor aplicabilidad y utilidad de sus resultados a su principal objetivo, la mejora de
los sistemas de información. En segundo lugar, la ampliación de los grupos diana a
usuarios también de las ciencias sociales y, con ello, la introducción de ese know-how
al que se refería años antes Menzel (1966), es decir, la metodología de las ciencias
sociales aplicada al estudio del CI.
Si avanzamos en el tiempo, los capítulos más recientes del ARIST sobre necesidades
y usos de la información, denominados ya de comportamiento informacional (Case,
2006; Fisher y Julien, 2009), no incluyen críticas al rigor metodológico, sino que
hacen un recorrido por la diversidad de enfoques que actualmente ofrece esta línea
de investigación. A este respecto, son ilustrativos los resultados de las revisiones bibliográficas de Julien y Duggan (2000) y Julien, Pecoskie y Red (2011), en las que se
evidencia un considerable aumento de las estrategias de triangulación metodológica
en los trabajos empíricos, y la de McKechnie, Baker, Greenwood y Julien (2002), donde describen un aumento de la diversidad en los enfoques metodológicos presentes en
los trabajos revisados, así como de las técnicas de recogida de información utilizadas.
Es en este contexto en el que presentamos el libro Métodos y técnicas para la investigación del comportamiento informacional como aportación a un mayor desarrollo
y consolidación, también aquí en España, de esta línea de investigación. Textos sobre
metodología de investigación en ciencias sociales hay miles, aplicada a la investigación en biblioteconomía y documentación algunos. Sin embargo, textos que de forma
específica se centren en la metodología del estudio del CI son escasos. En este sentido,
el libro que se presenta nace con el objetivo de servir de referencia en tres ámbitos
distintos. Primero en el docente, como respaldo al desarrollo de las competencias
PRÓLOGO
(23)
relacionadas con los fundamentos y metodologías de investigación en los estudios
de grado de información y documentación y como apoyo al desarrollo de trabajos
científicos en los estudios de posgrado. En segundo lugar, pretende servir también al
investigador que aborda el estudio del usuario de los sistemas de información desde
cualquier perspectiva, porque le permite disponer de una completa revisión y puesta
al día de los aspectos metodológicos para plantear el diseño de tal investigación. Y,
por último, para el profesional de la información que día a día afronta los retos de
gestionar su unidad de información, no siempre en las mejores condiciones en cuanto a la disponibilidad de recursos, y a quien se le ofrecen los principales aspectos
procedimentales para que pueda realmente incorporar el estudio del usuario a sus
estrategias de gestión. Al fin y al cabo, la investigación es necesaria para el desarrollo
tanto de una disciplina como de una profesión porque sin investigación «there is only
unsystematic observation, intuition and superstition-no body of trustworthy, no data
to support or challenge explanatory theories and promote their extension or their
demise» (Biggs, 1991).
El libro está estructurado en tres partes. En la primera se exponen los fundamentos de la investigación en ciencias sociales así como de los principales procedimientos
de muestreo (capítulos 1 y 2). En la segunda, la más extensa, se describen con detalle
las principales técnicas de recogida de información útiles para el estudio del CI (capítulos 3 al 9). Por último, la tercera está dedicada al análisis de datos tanto cuantitativos como cualitativos (capítulos 10 y 11 ). Conforme a la diversidad de lectores en los
que se pensó al abordar este trabajo, los distintos capítulos que lo componen recogen
los fundamentos de cada uno de los aspectos tratados, realizan una puesta al día de
estos fundamentos y aportan en todo momento ejemplos aplicados al estudio del CI.
Por otra parte, junto con los contenidos que se desarrollan, se ofrece una amplia y escogida bibliografía sobre metodología de investigación en ciencias sociales, así como
sobre trabajos empíricos que abordan esta metodología para el estudio del usuario.
El primer capítulo establece un marco de referencia para la investigación del comportamiento informacional en el contexto de las ciencias sociales. Se describen los
paradigmas fundacionales de esta área del conocimiento y, derivado de ellos, se exponen los principales rasgos de la metodología cualitativa y cuantitativa. Además, se
describe el proceso de investigación clásico cuantitativo, así como los rasgos generales del proceso de investigación cualitativo. También, desde el punto de vista de un
enfoque cuantitativo y cualitativo se describen los principales criterios para valorar
el rigor de la investigación. Por último, se exponen los aspectos básicos relacionados
con la difusión de los resultados de la investigación y con la ética de la investigación.
En el segundo capítulo de esta primera parte se exponen los fundamentos del procedimiento de muestreo. Por una parte, el probabilístico y, concretamente, el muestreo
aleatorio simple, el sistemático, el estratificado y el de conglomerados. Por otra, el
[24]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL
muestreo no probabilístico, de forma específica el muestreo accidental, el intencional,
el teórico, por cuotas y por bola de nieve.
El tercer capítulo da paso al núcleo principal del libro, donde se desarrollan las
principales técnicas de recogida de información en los estudios del CI. En primer
lugar se exponen los estudios basados en encuestas, el procedimiento que tradicionalmente ha sido más utilizado en este ámbito. De este tipo de estudios se describen sus
principales fases, que van desde la elaboración del cuestionario hasta la depuración
de la base de datos para dar el posterior análisis estadístico. A continuación, en el
capítulo cuatro, se desarrollan los aspectos relacionados con las entrevistas cualitativas, los tipos, su estructura, el papel del entrevistador y el entrevistado, así como los
procedimientos de registro y transcripción de la información obtenida. El capítulo
cinco está dedicado a desarrollar la técnica del incidente crítico (TIC). Se trata de un
procedimiento flexible que permite orientar la investigación hacia la obtención de datos sobre el proceso problema-información-acción. De ella se exponen los principales
procedimientos de diseño, recogida y análisis de datos tal y como fueron concebidos
por John C. Flanagan, pero adaptados al contexto actual y al caso del estudio del CI.
El capítulo seis se dedica a la técnica de la observación. A pesar de que es posible
reconocer dos tradiciones en el modo en que se enfoca, una sistemática y estructurada
y otra más naturalística y no estructurada, se hace un recorrido general por sus fundamentos atendiendo más que a esta dualidad a las distintas posibilidades de llevar
a cabo un estudio de CI. Los criterios como el conocimiento por parte del sujeto de
que está siendo observado, el rol que asume el observador y los medios utilizados
para el registro de las observaciones, entre otros, son los utilizados para describir los
fundamentos de la observación abierta y encubierta, participante y no participante y
estructurada y no estructurada.
En el capítulo siete se desarrollan los aspectos básicos de los grupos de discusión,
una entrevista cualitativa realizada a un grupo de informantes. De esta técnica se describen sus fases, el modo de enfocar un estudio a través de una serie de preguntas y el
papel que desempeñan tanto el moderador como los participantes, así como incluso
el contexto en el que se desarrolla esta entrevista de grupo.
En el capítulo ocho se desarrolla la técnica Delphi, que, sin ser una técnica en la
que está implicado el usuario de los sistemas de información, las decisiones que es
posible tomar a la vista de sus resultados sí afectan directamente a este usuario. En
este capítulo, al igual que en sus precedentes, se desarrolla el proceso de investigación
a través de un estudio Delphi en el que están implicados un grupo moderador, un
grupo de expertos y en los que se comunican a través de una serie de cuestionarios
administrados en rondas sucesivas reflejando la opinión de sus participantes.
En el capítulo nueve, el último de la parte dedicada a exponer las técnicas de investigación, se desarrolla el análisis de los registros de transacciones. Este es un pro-
PRÓLOGO
125)
cedimiento que no difiere en esencia de los estudios de transacciones entre usuario y
sistema empleados tradicionalmente en este campo, aunque tiene la particularidad de
que explota los registros de los sistemas automatizados, lo cual permite la obtención
de un gran volumen de información en poco tiempo. De esta técnica se exponen la
recogida de información, la preparación de los datos y su análisis.
La última parte está dedicada al análisis de datos. El capítulo diez se dedica al
análisis de datos cuantitativo y el once al cualitativo. Ambos tipos de análisis serían
merecedores cada uno de un texto, dado lo extenso y variado de la materia. Es por
ello por lo que se ha tratado de dar un marco de referencia general apoyado con una
extensa bibliografía de referencia.
CAPÍTULO I
FUNDAMENTOS DE LA INVESTIGACIÓN EN CIENCIAS SOCIALES
Antes de exponer los distintos métodos y técnicas para la investigación de los usuarios de los sistemas de información, este primer capítulo tiene como objetivo establecer un marco de referencia para conocer las bases de la investigación en ciencias
sociales, bases que sustentan el resto de los capítulos. Para ello, en un primer epígrafe
se exponen los principales paradigmas fundacionales de la investigación en ciencias
sociales, sus presupuestos ontológicos, epistemológicos y metodológicos. Posteriormente se describen los rasgos generales de la metodología cuantitativa y cualitativa,
punto de partida de diseño de cualquier investigación. En el tercer epígrafe se describe el proceso de investigación clásico, planteado desde la óptica cuantitativa,
así como el proceso de investigación cualitativo. Para cada uno de los enfoques se
describen los principales criterios para evaluar el rigor de la investigación. Por último, se exponen los principales aspectos éticos que hay que considerar a la hora de
emprender cualquier investigación científica.
1.1. PRINCIPALES
PARADIGMAS
La mayor parte de este libro está dedicada a describir en profundidad y desde un
punto de vista pragmático las principales técnicas de obtención de información en el
contexto del estudio del comportamiento informacional. No obstante, el uso de una
técnica u otra responde, además de a criterios utilitarios, a un marco metodológico
previo, cuantitativo o cualitativo, entendido este como el enfoque a partir del cual un
investigador responde a la pregunta previa que motiva tal investigación.
Igualmente la elección de una u otra metodología responde al enfoque asumido
por el investigador, basado además en presupuestos ontológicos y epistemológicos.
En otras palabras, la investigación desarrollada en las ciencias sociales en general y en
información y documentación en particular será posible encuadrarla en un epígrafe
(28)
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO
INFORMACIOr--AL
general llamado paradigma.De las diversas definiciones que se han dado del concepto de paradigma, asumimos la propuesta por Corbetta (2010), que considera que un
paradigma es una perspectiva teórica, común y reconocida por los científicos de una
disciplina concreta, basada en logros que preceden a la propia disciplina, que dirige la
investigación mediante la identificación y elección de los hechos relevantes a estudiar,
la formulación de hipótesis para explicar el fenómeno observado y la preparación de
las técnicas de investigación empíricas necesarias. Por lo tanto, en la denominación
de paradigmase agruparán una serie de posiciones o tradiciones teóricas que partirán
de unos supuestos ontológicos (¿cuál es la forma y la naturaleza de la realidad o qué
es aquello que podemos conocer de ella?), epistemológicos (¿cuál es la naturaleza de
la relación entre el investigador y el objeto investigado?) y, por último, metodológicos (¿de qué manera el investigador puede descubrir aquello que cree que puede ser
conocido?) (Guba y Lincoln, 1994).
Respecto a los paradigmas que es posible reconocer en las ciencias sociales y sobre
los que los teóricos de diversas disciplinas debaten, Valles (1999) sintetiza las distintas posturas según reconozcan dos, tres o cuatro paradigmas en las ciencias sociales
(tabla 1).
Para el propósito del presente texto tomamos como referencia la adaptación que
algunos autores, entre ellos Corbetta (2010), hacen de la propuesta de Guba y Lincoln (1994 ), puesto que permiten entroncar directamente con los enfoques metodológicos cuantitativo y cualitativo y, en último término, con los métodos y técnicas
para la recogida de información, cuestión central de este libro. Este autor considera,
desde una perspectiva histórica, la existencia de dos paradigmas fundacionales que
dieron lugar a los primeros procedimientos operativos y guiaron la investigación
empírica en ciencias sociales. Por un lado, el positivismo y el pospositivismo; por
otro, el interpretativismo/constructivismo. Se trata, como se ha dicho, de paradigmas
fundacionales pues en los trabajos referentes de Guba y Lincoln ( 1994) distinguen
hasta cuatro paradigmas en pugna (positivismo, pospositivismo, teoría crítica y constructivismo) y, más recientemente, incluyen un quinto, el participativo/posmodernista
(Lincoln, Lynham y Guba, 2011), incluido anteriormente en el epígrafe de la teoría
crítica (Guba y Lincoln, 1994).
En primer lugar, el positivismo es la tradición clásica que predominó en las
ciencias sociales hasta el siglo xx. Corbetta (2010) resume el paradigma positivista
original como el estudio de la realidad social utilizando el marco conceptual, las
técnicas de observación y medición, los instrumentos de análisis matemático y los
procedimientos de inferencia de las ciencias naturales. Parte del supuesto ontológico del realismo ingenuo que asume que existe una realidad objetiva externa, regida
por leyes naturales, alrededor de la cual debe girar la investigación y donde el investigador observa libre de sus propios valores. Desde el punto de vista epistemológi-
l. FUNDAMENTOSDE LA INVESTIGACIÓNEN CIENCIASSOCIALES
[29]
Tabla 1. Posturas respecto a los paradigmas en la investigación en ciencias sociales
(adaptado de Vallés, 1999; Guba y Lincoln, 1994)
1. Prevaleciente, clásico,
racionalista o positivista
Dos paradigmas
2. Emergente, alternativo,
naturalista, constructivista,
interpreta ti vista
1. Materialista-positivista
2. Constructivista
Tres paradigmas
3. Crítico o ecológico
1. Positivismo
2. Pospositivismo
3. Teoría crítica y posturas
afines
Cuatro
paradigmas
4. Constructivismo
Existe una sola realidad objetiva sujeta a leyes universales de la ciencia y manipulable mediante procesos lógicos.
Existen realidades múltiples con diferencias que no
pueden resolverse por medio de procesos racionales
o aumentando los tamaños muestrales.
Enfatiza la primacía del método y busca una verdad
última (leyes naturales) de la realidad. Está respaldado por la ciencia de laboratorio y por los métodos
cuantitativos.
No se buscan verdades últimas sino que trata de interpretar experiencias en su contexto y desde el punro de vista de los implicados. Está respaldado por la
metodología cualitativa. El diseño está abierto a la
invención, la obtención de datos al descubrimiento y
el análisis a la interpretación.
Destaca los efectos del sistema. Se sirve del conocimiento histórico y de la articulación de los paradigmas materialista e interpretativo, para desenmascarar
la ideología y la experiencia del presente, logrando
una conciencia emancipada y verdadera. Está regido
por el compromiso político
Existe una realidad aprehensible, regida por leyes y
mecanismos naturales. El conocimiento sobre «cómo
son las cosas» se resume en formulaciones generales
fuera de tiempo y contexto, algunas de las cuales toman la forma de leyes de causa-efecto.
La realidad existe, pero es imperfectamente aprehensible porque los mecanismos intelectuales humanos
son imperfectos y la naturaleza de los fenómenos es
fundamentalmente incontrolable.
La realidad es asumida como aprehensible, pero con
el tiempo se transforma por una serie de circunstancias sociales, políticas, culturales, económicas, étnicas y de género y luego se cristaliza en una serie de
estructuras que ahora se toman (inapropiadamente)
como «reales».
Las realidades son aprehendidas en forma de múltiples construcciones mentales intangibles, basadas
en lo social y en la experiencia, dependiendo de las
personas individuales o de los grupos que elaboran
estas construcciones. Las construcciones no son más
o menos «verdaderas», sino que poseen más o menos
información y/o son más o menos sofisticadas. Las
construcciones son modificables, así como sus «realidades» asociadas.
(30]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO
INFORMACIOKAL
co, el investigador y el objeto investigado son entidades independientes que no son
influenciadas mutuamente y, si esto ocurre, se ponen en marcha mecanismos para
reducir o eliminar tal influencia. Desde el punto de vista metodológico, predomina
el modo de proceder inductivo, que plantea principios generales a partir de los casos particulares observados. Por otra parte, la realidad puede ser representada por
variables que pueden ser manipuladas a través de la experimentación, dando como
resultado generalizaciones sobre el fenómeno observado. La metodología utilizada
para ello es la cuantitativa.
La revisión y adaptación del positivismo original dio como resultado la aparición
de una serie de corrientes que buscaban responder a las principales críticas de este.
Desde un punto de vista ontológico, el pospositivismo asume que la realidad existe,
pero es imperfectamente aprehensible porque los mecanismos intelectuales humanos
son imperfectos y la naturaleza de los fenómenos es fundamentalmente incontrolable
(Guba y Lincoln, 1994). Este punto de vista también se ha llamado realismo crítico.
Realismo, porque acepta que existen relaciones causa-efecto fuera de la mente humana (en la realidad), y crítico por subrayar una sospecha continua y una propensión a
la duda que debe adoptar el científico frente a todos los logros de la ciencia (Corbetta,
2010). Desde un punto de vista epistemológico, continúa considerándose el dualismo
investigador-objeto investigado, pero se tiene conciencia de la influencia que ejerce
uno sobre otro y la objetividad sigue siendo un criterio de referencia pero al que se
puede llegar solo de forma aproximada. El objetivo de la investigación sigue siendo
formular generalizaciones en forma de leyes, aunque de alcance limitado (Corbetta
2010). Desde un punto de vista metodológico, se acude al uso de técnicas cuantitativas sin descartar las cualitativas.
Por último, el interpretativismo, desde una perspectiva ontológica, no concibe
una única realidad sino múltiples realidades construidas por los sujetos que varían
en la forma y en el contenido entre individuos, grupos y culturas (Hernández-Sampieri y otros, 201 O). Por lo tanto, el investigador y el objeto investigado están vinculados durante el proceso de investigación en el que se va descubriendo una realidad.
Es decir, desde un punto de vista epistemológico, desaparece el dualismo anterior y
se busca la interpretación de esa realidad observada en busca de significados y de
comprensión de la construcción que los individuos hacen de tal realidad. Desde el
punto de vista metodológico, se considera positiva la interacción entre investigador y objeto investigado. Por lo tanto, si el objetivo es comprender el significado
atribuido por el sujeto, las técnicas de investigación solo pueden ser cualitativas y a
través de un proceso de inducción en el que el investigador entre en el campo libre
de teorías preconcebidas.
l. FUNDAMENTOSDE LA INVESTIGACIÓNEN CIENCIASSOCIALES
1311
1.2. METODOLOGÍA CUALITATIVA Y CUANTITATIVA
Como se ha visto en el anterior epígrafe, el enfoque metodológico que adquiere una
investigación viene marcado también por presupuestos ontológicos y epistemológicos. Este enfoque metodológico determinará el modo en que el investigador se acercará a la realidad observada. Como afirman Hernández-Sampieri, Fernández-Collado y Baptista-Lucio (2010), en las ciencias sociales la metodología se ha polarizado
en dos enfoques, el cuantitativo y el cualitativo, debido a las premisas teóricas que lo
sustentan. La tabla 2 resume las principales características de uno y otro.
Precisamente la primera característica distintiva de un enfoque cuantitativo y cualitativo se deriva del paradigma de referencia de cada uno de ellos y de la consideración que se tiene de la realidad objeto de estudio. Mientras que para la metodología
cuantitativa, cuyo referente es el positivismo y pospositivismo, existe una realidad
objetiva externa al investigador, para la metodología cualitativa, con referentes en
el paradigma interpretativo, existen varias realidades subjetivas construidas en la
investigación, las cuales varían en su forma y contenido entre individuos, grupos y
culturas, como antes se ha apuntado (Hernández-Sampieri y otros, 2010). Por ello,
no se estudia la realidad sino una realidad.
Junto con la consideración de la realidad a observar, los enfoques cuantitativo
y cualitativo parten de propósitos de la investigación distintos. Mientras que para
el primero el propósito es describir, explicar y predecir los fenómenos buscando la
generalización y la predicción, en el enfoque cualitativo interesa comprender e interpretar la realidad investigada. Esta característica marcará otros aspectos definitorios
como el papel que juega la teoría, la lógica de la investigación, el rol asumido por
el investigador y los procedimientos de recogida y análisis de datos que se emplean.
Respecto al papel que juega la teoría, en un enfoque cuantitativo la investigación
se orienta hacia la comprobación empírica de esta teoría, mientras que en el enfoque
cualitativo se inicia la investigación sin presupuesto que pueda inhibir la comprensión
de la realidad observada y la teoría se construye durante tal investigación. Como consecuencia de este modo de proceder, la lógica que generalmente guía la investigación
según los presupuestos cuantitativos es deductiva y según los cualitativos inductiva.
El razonamiento deductivo va de lo general a lo particular, es decir, la lógica cuantitativa parte de teorías o principios que derivan en hipótesis que serán confirmadas
o bien refutadas a partir de la observación empírica de la realidad. El razonamiento
inductivo va de lo particular a lo general, o sea, la lógica cualitativa, en principio, obtiene datos de la realidad y analiza si estos datos pueden convertirse en generalizaciones,
relaciones y teorías. Sin embargo, como afirma Gray (2004), los procesos deductivos e
inductivos no son mutuamente excluyentes. Para que las hipótesis puedan ser contrastadas previamente hace falta observar la realidad, es decir, recoger datos que permitan
[32)
MÉTODOS Y TÉCNICASPARA LA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL
Tabla2. Características de la metodología cuantitativa y cualitativa
(adaptado de Hernández-Sampieri y otros, 2010, y Corbetta, 2010)
CUANTITATIVA
Realidad
a estudiar
Propósito
de la investigación
Teoría
CUALITATIVA
Objetiva y externa al investigador.
Varias realidades según individuos, grupos
y culturas.
Describir, explicar y predecir los fenó- Describir, comprender e interpretar los femenos. Generalización y predicción.
nómenos.
La teoría precede a la observación.
La teoría surge de la observación, es un
Independientemente del contexto.
marco de referencia.
Leyes universales.
Relacionada con el contexto.
Lógica
Deductiva, de lo general a lo particular. Inductiva, de lo particular a lo general.
Diseño
Estructurado, predeterminado, precede Abierto, flexible construido en el transcurso
de la investigación a la recolección de datos.
de la investigación.
Papel
Independiente del objeto investigado, Interdependencia, sus observaciones no son
evita influir en él.
del investigador
ajenas a sus propios valores y experiencias.
Búsqueda de la representatividad es- Búsqueda de representatividad sustantiva y
Muestreo
tadística y la generalización de resul- la riqueza de información.
tados.
Recolección
Instrumentos estandarizados y unifor- Instrumentos que mejor lleven al enrendimes (cuestionarios, escalas, tests, etc.). miento investigador-investigado (entrevistas
de datos
personales, observación, etc.).
Análisis de datos
Simultáneo a la recolección de datos.
Posterior a la recolección de datos.
Análisis estadístico objetivo para Genera descripciones y categorías de análicomprobar hipótesis.
sis resultado de interpretaciones.
generar dichas hipótesis y que hayan dado lugar a la generación de presupuestos teóricos que, a su vez, serán el punto de partida de nuevas investigaciones que permitirán
probar dichos presupuestos teóricos a través de la experimentación (figura 1).
Otro aspecto en el que es posible encontrar diferencias entre un enfoque cuantitativo y cualitativo es el modo en que se concibe el proceso de investigación. En un
enfoque cuantitativo el diseño de la investigación se determina antes de iniciar tal
investigación; por el contrario, en un enfoque cualitativo este proceso está abierto y
en muchas ocasiones la selección de la muestra viene determinada por la recogida y
análisis de datos. En el epígrafe 1.4.2 de este capítulo se amplía información respecto
a esta cuestión.
Derivadas de los presupuestos ontológicos y epistemológicos de los distintos paradigmas, existen también diferencias en cuanto al papel que asume el investigador y
el modo en que se relaciona con la realidad observada. En el primero, el investigador
evita influir en aquello que observa y mantiene la distancia con el objeto investigado,
mientras que en un enfoque cualitativo, el investigador parte de sus propios valores y
experiencias e interacciona con el objeto investigado.
Por último, existen diferencias respecto a la recogida y análisis de datos en la
metodología cuantitativa y cualitativa. En el primer caso, puesto que se busca la ge-
133]
l. FUNDA~IENTOS DE LA INVESTIGACIÓN EN CIENCIAS SOCIALES
Figura l. Razo nam iento induct ivo y deductivo (ada ptad o de Gray, 2004)
Hipótesis / prueba de la
teoría
Teoría relacionada
Teoría
RAZONAMIENTO
INDUCTIVO
Acumulación de hechos
y datos
RAZONAMIENTO
DEDUCTIVO
Resultados
Diseño experimental
nera lizac ión d e resu ltados, los casos se selecc io nan a partir de un conjunto de casos
estadística ment e rep resentat ivos de la pobl aci ón . Por otra parte , en la recogida de
dato s se bu sca la estand a rizac ión tant o po r los instrum ent os utili zados co mo por el
hecho d e qu e estos instrum entos sea n admini strados por ig ual a todo s los casos inve stiga do s. La informac ión obten ida de este modo se pro cesa por medio del trat amient o
esta dístico, dando co mo result ado inform ac ión nu mér ica o bjetiva .
En el caso de la metodol ogía cua litat iva no se busca la rep resentatividad estadíst ica
sino la riqu eza de la in formac ió n recog ida, por lo qu e la selección d e los casos se realiza po r medio de muestreo no probab ilístico (ver cap ítulo 2). Además, la recog ida de
dato s se rea liza co nform e a l ob jetivo d e comp render la rea lidad qu e se est udi a, por lo
qu e el instrum ento se adapt a y mo ldea en el cur so de la investigació n. La información
ob tenida de este mod o se ana liza buscando la comp rensión e interpret ación de las
realidades invest iga das .
A pesa r de que por razo nes exposi ti vas las meto do log ías cua ntitativa o cua litativa
se presentan como ext remos co ntr ap uestos y a pesar de que en muchas ocas iones, en
el pasado , los cientí ficos soc ia les han sido aba nderados en la defensa de uno y otro
en foque, en la prác tica ta l con tr aposición no ex iste. La rea lidad de la investigac ión
no s enseña q ue son enfoques com pleme nt ar ios cuyo uso estará dete rmin ado por los
objet ivos y la fase en la que se enc uentr e tal invest igac ión. En este sentido , es po sible
p la nt ea r estrategias de triangulación metod ológica (mú ltiples método s para el estudio de una misma real idad) y/o de daros (uso de va rias fuent es de dato s) que permiten
incorporar a u na investigació n los pr oce dimi ent os y la infor mación obten ida asumiendo ambos enfoques (Patto n, 1987 ).
[34)
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTA.MIENTO INFORMACIONAL
1.3. TIPOS DE INVESTIGACIÓN
Además de poder asumir uno u otro paradigma o partir de uno u otro enfoque metodológico, la puesta en marcha de una investigación requiere determinar el tipo de
diseño del que partirá, pues de ello dependerá la estrategia que se ponga en marcha
en cuanto a aspectos tan importantes como el tipo de muestreo o el procedimiento de
recogida de datos. En este sentido, es posible distinguir diversos tipos de investigación
según el propósito que persigue el investigador, el objetivo o alcance de la investigación, su dimensión temporal o bien el control de la variable experimental (tabla 3).
Tabla 3. Tipos de investigación
Propósito
Alcance
Dimensión temporal
Control de las variables
Básica
Aplicada
Exploratoria
Descriptiva
Correlacional
Explicativa
Transversal: tendencia, cohortes y panel
Longitudinal
Experimental
Cuasiexperimental
No experimental
Si se tiene en cuenta el propósito del investigador, las investigaciones se clasifican
en básicas y aplicadas. La investigación básica es aquella que se apoya en un contexto
teórico con el propósito de desarrollar teoría mediante la generalización de los resultados obtenidos o principios observados. En cambio, la investigación aplicada busca
confrontar la teoría con la realidad.
Según el objetivo principal o el alcance de la investigación, Danhke (1989) propone que las investigaciones pueden clasificarse en exploratorias, descriptivas, correlacionales y explicativas. Los estudios exploratorios se utilizan cuando el tema que se
pretende abordar es poco conocido y ha sido poco estudiado. Este tipo de estudios
son la antesala de los estudios con alcances superiores (descriptivos, correlacionales y
explicativos) y su propósito es identificar variables relevantes y establecer prioridades
en las que deberían basarse las futuras investigaciones.
Los estudios descriptivos, tal como su nombre indica, pretenden describir la realidad ofreciendo una interpretación correcta del fenómeno que se pretende estudiar.
Este tipo de estudios busca especificar cuáles son las variables, las dimensiones o
componentes del fenómeno para medirlas y ofrecer una visión más estructurada del
objeto de estudio. Esta clase de estudios da un paso más allá respecto a los estudios
l. FUNDAMENTOSDE LA INVESTIGACIÓNEN CIENCIASSOCIALES
135]
exploratorios, dado que el investigador debe ser capaz de definir qué medirá (sobre
qué variables se centrará) y sobre qué o quiénes se recogerán datos (personas, grupos,
documentos, instituciones, etcétera). La investigación correlacional centra su interés
en estudiar la existencia de relación entre dos o más variables y cuantificar esta relación. Para afirmar que dos variables están relacionadas, se debe constatar que cuando
los valores de una variable varían, también lo hacen los valores de la otra variable. Se
debe señalar que para que esta relación sea válida, las mediciones se deben realizar
sobre los mismos individuos. Por ejemplo, si se pretende valorar la relación entre la
consulta de bibliografía recomendada y el rendimiento académico, es necesario que
los alumnos en los que se midan ambas variables sean los mismos. Si se valoraran
dos grupos de alumnos de diferentes aulas, no sería válido valorar a unos la consulta
de bibliografía recomendada y al otro grupo el rendimiento académico. Por último,
los estudios explicativos tienen como objetivo buscar relaciones de causa-efecto y
explicar por qué ocurren determinados fenómenos. Para poder llegar a este punto,
tal como señalan Cook y Campbell (1979), es necesario que se den tres condiciones.
En primer lugar, la covariación entre causa y efecto: un cambio en una variable A
debe implicar cambios en una variable B si ambas son causa y efecto. En segundo
lugar, debe cumplirse que la causa ocurra antes que el efecto, es decir que la variable
A preceda a la variable B. Por último y no menos importante, la investigación debe
garantizar la eliminación de explicaciones alternativas, lo que supone el control de
variables extrañas que pueden afectar a la relación de causa y efecto. De esta manera
se garantiza que la variable A sea la única explicación posible de los cambios observables en la variable B.
Estas cuatro tipologías son válidas para cualquier estudio y todas ellas pueden
contribuir al avance de la disciplina en igual manera. Elegir uno u otro tipo de investigación va a depender del conocimiento que se posea hasta el momento sobre
el fenómeno que se pretende abordar y el objetivo que persiga el investigador. Tal
como indican Hernández-Sampieri y otros (2010), la investigación debe hacerse a
la medida del problema que se pretende estudiar y una vez se ha revisado la literatura, solo a partir de aquí se podrá tomar la decisión de cuál debe ser el alcance
que debe tomar una investigación. Debe también señalarse que, aunque un estudio
puede seguir en esencia alguna de estas cuatro tipologías comentadas, normalmente
una investigación contiene componentes de varias tipologías al mismo tiempo. Por
ejemplo, un estudio en esencia correlacional podrá contener aspectos descriptivos y
a la vez exploratorios.
Si se toma el momento temporal en que se lleva a cabo la investigación, se distingue entre estudios transversales, realizados en un momento concreto en el tiempo, y
estudios longitudinales, en los que los sujetos son estudiados durante un periodo de
tiempo más o menos largo y en los que se lleva a cabo una recogida de datos en al
[36]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL
menos dos momentos temporales diferentes. Dentro de los estudios longitudinales se
distinguen fundamentalmente tres tipos: los estudios de tendencia, los de cohortes y
los de panel. Los estudios de tendencia son aquellos que centran su atención en una
población concreta y analizan los cambios que se producen dentro de esta población a lo largo del tiempo. La población es siempre la misma, pero los sujetos que
se estudian pueden variar. Este sería el caso de un estudio que pretendiera valorar
el comportamiento informacional de los académicos a lo largo de la última década.
Para ello se deberían haber realizado diferentes medidas a lo largo de la década para
ver cambios en su forma de interaccionar con la información científica. Los estudios
de cohortes son aquellos que valoran cambios a través del tiempo en grupos específicos de sujetos que comparten alguna característica común, generalmente la edad,
la época o bien un hecho concreto. Por último, los estudios en panel son aquellos en
los que un mismo grupo de sujetos es valorado en los distintos momentos temporales. La diferencia entre las dos primeras clases (estudios de tendencia y cohortes) y
los estudios en panel radica en que, en los primeros, los individuos sobre los que se
miden las variables de interés pueden ser diferentes en cada momento temporal; en
cambio, en los estudios en panel, los sujetos que forman parte de la investigación son
siempre los mismos. La ventaja que presenta valorar a los mismos sujetos es que se
puede conocer qué individuos introducen los cambios. En los estudios de tendencia y
cohorte los cambios se valoran en conjunto y no es posible conocer quiénes provocan
los cambios (dado que los sujetos son diferentes cada vez). No obstante, la principal
limitación de los estudios en panel radica justamente es conseguir mantener a todos
los individuos a lo largo de todo el estudio.
Otra clasificación es a partir del control de la variable experimental por parte del
investigador. De acuerdo con este criterio se distinguen tres tipos de investigaciones:
experimentales, cuasiexperimentales y no experimentales. Fundamentalmente la distinción entre una investigación experimental y otra que no lo es se basa en dos aspectos: la posibilidad de manipular la variable experimental o también llamada variable
independiente y la asignación aleatoria de los sujetos a las diferentes condiciones o
niveles de la variable independiente. Aunque los tres tipos de investigación pueden
aportar información relevante sobre el fenómeno estudiado, los estudios experimentales son los únicos que aseguran poder establecer una relación de causalidad entre la
variable independiente y dependiente. Asignar de manera aleatoria a los sujetos a los
diferentes niveles de la variable independiente va a permitir que las características no
controladas por el investigador queden repartidas de manera equilibrada en los distintos grupos formados a partir de la variable independiente. La asignación aleatoria
asegura una homogeneización de los sujetos asignados a los diferentes niveles de la
variable independiente y que estos tan solo se diferencien respecto a la variable independiente. De esta manera, los cambios que se observen en la variable dependiente
1. FUNDAMENTOSDE LA INVESTIGACIÓNEN CIENCIASSOCIALES
(37]
podrán ser atribuidos a la variable independiente. La asignación aleatoria proporciona un alto grado de control de posibles variables extrañas que pueden afectar a la
relación entre la variable dependiente e independiente. En este sentido, se afirma que
los estudios experimentales tienen una alta validez interna, o lo que es lo mismo, permiten asegurar que los cambios producidos en la variable dependiente son debidos a
los cambios en la variable independiente. Un ejemplo de estudio experimental seria
aquel que pretenda estudiar la relación entre la intensidad de brillo de la pantalla del
ordenador y la fatiga percibida por el sujeto. Los sujetos pueden ser asignados a diferentes niveles de la variable independiente (diferentes tipos de intensidad de brillo)
y posteriormente valorar cuál es su grado de fatiga. Si el conjunto de sujetos presenta
características similares en todos los niveles de la variable independiente y el resto de
condiciones experimentales se mantiene constante de un grupo a otro, un cambio en
la variable dependiente (la fatiga) podrá ser atribuido a la variable independiente (la
intensidad de brillo).
Cuando no es posible asignar a los sujetos de manera aleatoria a las diferentes
condiciones experimentales, bien porque los grupos ya están previamente formados
(por ejemplo, las clases dentro de una escuela), por las dificultades logísticas que supone la aleatorización o bien porque no es posible controlar el orden de presentación
de los niveles de la variable independiente, se habla de cuasiexperimento (Cook y
Campbell, 1979). El hecho de que no se pueda asegurar que los grupos sean equivalentes al inicio de la investigación pone en tela de juicio los cambios que posteriormente se registrarán en la variable dependiente, dado que estos pueden ser debidos al
efecto de la variable independiente o bien ser producto de esta falta de equivalencia
inicial. En términos de validez, implicaría cuestionar la validez interna de la investigación, dado que no se puede asegurar que la variable independiente sea la causa de
la variable dependiente.
Por último, en las investigaciones no experimentales no es posible manipular la
variable independiente ni asignar de manera aleatoria a los sujetos a las condiciones
experimentales. De hecho, este libro trata justamente de este tipo de estudios: estudios que no pretenden un estudio de la causalidad de los fenómenos, sino analizar
cómo los fenómenos se dan en su contexto natural, observar los individuos en situaciones ya existentes en las que no es posible controlar las variables independientes
porque estas ya han ocurrido. Se trata de estudios en los que sí es posible estudiar la
covariación o relación entre variables y describir los fenómenos de interés. Este tipo
de estudios tienen una baja validez interna, aunque pueden conseguir una alta validez
externa en los casos en que la muestra estudiada permita generalizar a la población
general de referencia. Los estudios de encuesta, entrevistas, grupos de discusión o la
observación, entre otros, son el tipo de estudios que se engloban dentro de la etiqueta
de estudios no experimentales.
[38)
MtTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO
INfORMACIONAL
1.4. EL PROCESO DE INVESTIGACIÓN
Toda investigación sigue una serie de fases que van desde el planteamiento del problema hasta la interpretación de los resultados. Generalmente en una investigación se
formula un problema, se diseña la investigación, se obtienen los datos, se analizan e
interpretan y, finalmente, se difunden los resultados. Estas fases son comunes al resto
de la investigación social; no obstante, existen diferencias en cuanto al detalle con el
que se describen y, más importante, en cuanto al enfoque metodológico que guía el
proceso. Es por eso por lo que se distingue el proceso clásico y propio de la investigación cuantitativa y el proceso de investigación cualitativa.
1.4.1. Proceso de investigación clásico
De las distintas propuestas sobre las fases del proceso de investigación clásico o cuantitativo, se toma como referencia el esquema de Corbetta (2010) (figura 2). Este autor
concibe este proceso como un recorrido cíclico que parte de la teoría, pasa por las
fases de recopilación y análisis de datos y vuelve a la teoría. Por lo tanto, según este
planteamiento, el proceso de investigación se inicia con la determinación del marco
teórico en el que se enmarcará la investigación. Para Hernández-Sampieri y otros
(2010) la determinación de un marco teórico implica exponer y analizar las teorías,
las conceptualizaciones, las investigaciones previas y los antecedentes que se consideren válidos para el correcto encuadre del estudio.
Figura2. Proceso de investigación clásico (adaptado de Corbetta, 2010)
Hipótesis
Operacionalización
Muestreo
Recogida y análisis
de información
Interpretación
Validación
La segunda fase del proceso de investigación es la formulación de la hipótesis entendida como una proposición que implica una relación entre dos o más conceptos,
situada en un nivel inferior de abstracción que la teoría y que permite la traducción
de esta en términos que se puedan someter a prueba empírica.
El siguiente paso será la operacionalización. Esto incluye tanto la transformación
de la hipótesis en afirmaciones observables empíricamente o, dicho de otro modo,
en variables medibles, como la elección de los procedimientos para medir esas variables.
(39)
l. HJNDAMENTOS DE LA INVESTIGACIÓNEN CIENCIASSOCIALES
La tercera fase consistirá en la selección de los informantes o muestreo y la cuarta
en la recogida y análisis de la información obtenida. Finalmente, a partir del análisis
de los datos obtenidos el investigador interpretará los resultados y volverá al punto
de partida, comparando sus resultados con la teoría e hipótesis de partida, refutándola, confirmándola o reformulándola.
1.4.2. Proceso de investigación cualitativo
Si sobre el proceso de investigación clásico existe acuerdo y hasta cierto punto sus
fases son contempladas y reconocidas por la generalidad de los investigadores, respecto al proceso de investigación cualitativa no existe tal acuerdo. Se trata de un
proceso flexible que cada corriente o enfoque dentro del ámbito cualitativo plantea
con matices particulares. En general, se asume que el plan inicial de investigación
no puede establecerse a priori y las distintas fases del proceso pueden cambiar tras
la entrada en el campo y el inicio de la recogida de datos. Por ejemplo, Flick (2004 ),
desde la óptica de la teoría fundamentada, propone un proceso de investigación
circular frente al lineal tradicional (figura 3 ). Según este modelo de proceso circular,
la investigación no se inicia con una presuposición teórica, sino que esa teoría se
irá conformando durante el mismo proceso. La pregunta de investigación iniciará
el trabajo donde la recogida y análisis de datos se harán de forma paralela. Todo
ello dará como resultado una serie de categorías, temas o teorías fundamentadas
en los datos.
Figura3. Proceso de investigación cualitativa (adaptado de Flick, 2004)
Comparación
Preguntade
investigación
Categorías,
temas
Una propuesta más general es la realizada por Rodríguez Gómez, Gil Flores y
García Jiménez (1996). Estos autores conciben el proceso de investigación cualitativo
de forma no lineal con una serie de fases superpuestas en las que se van tomando de-
1401
~I ÉT O DO S Y T ÉCN ICAS PARA LA INVESTI GAC IÓN DEL CO~ll' O RTA ~II ENTO INFOR M ACIONAL
Figura 4. Proceso de investigación cualitativa
(adaptado de Rodríguez Gómez, Gil Flore s y García J iménez, ]996)
PREPAR ATO RIA
TRABAJ O
DE CA MPO
ANALÍTICA
y verificación
de conclusiones
Informe
de resultados
IN FORM ATIVA
cisio nes con el obje tivo de respo nd er a la pregunta de invest igació n inicial. Estas fases
so n: preparatoria , tr aba jo de campo, analít ica e inform ativa (figu ra 4 ).
La fase preparatoria está formada por una etapa reflex iva y de diseño en la que el
in vestiga dor, primero, esta blece un marco teórico-conceptual principalm ent e a partir
de su prop io background y de la revi sión de otras inv est igac ion es y, segu ndo, p lan ifica
las actividades de las etapas po steriore s. Pero esta planificac ión no es una propuesta
forma l y est ructurada como en el proc eso d e inv est igac ió n clá sico, sino q ue es una
p rimera apro x imación flex ible que podrá adaptarse en el cu rso de l pro ceso. La segund a fase es el trabajo de campo, qu e inclui rá la entr ada en el cam po , la recog ida
productiva de d atos y la sa lida de l campo . En tercer lugar , la fase ana líti ca, que no
será posterior al trabajo de campo, sino q ue las ra reas de aná lisis se inici ará n desde
el mis mo momento de la recog ida de dat os . Fin al mente , el proceso acabará co n una
fase inform ativa en la que se pr esentará n y difundirán los resultados.
l. FUNDAMENTOSDE LA INVESTIGACIÓNEN CIENCIASSOCIALES
1411
1.5. CRITERIOS DE CALIDAD DE LA INVESTIGACIÓN
En los epígrafes anteriores se ha hecho una distinción entre metodología cuantitativa
y cualitativa y cómo la asunción de una u otra influye en el modo en que se desarrolla
el proceso de investigación. En el marco de ese proceso, además, podemos distinguir
distintos criterios y estrategias para juzgar la calidad de la investigación. Por un lado,
en la investigación cuantitativa los criterios para realizar este juicio son los clásicos
de validez y fiabilidad. Por el contrario, en la investigación cualitativa existen otros
más acordes con los presupuestos de este enfoque basados en la confiabilidad o el
grado en que los resultados de una investigación reflejan los significados según lo descrito por los informantes. Esta confiabilidad se concreta en cuatro criterios: credibilidad, transferibilidad, dependibilidad y confirmabilidad. A continuación se describen
los criterios y estrategias para valorar la calidad de la investigación según un enfoque
cuantitativo y cualitativo.
1.5.1. Investigación cuantitativa
El proceso de recogida de datos implica reunir información sobre diferentes características y atributos en los individuos de la población. Si, por ejemplo, se pretende que una página web sea accesible para dispositivos móviles, interesará saber
determinadas características de estos dispositivos, así como también el perfil de
los usuarios que los usan. Resulta evidente que para llevar a cabo este proceso
de recogida de datos se requiere la medición de una serie de variables de interés. Según la definición clásica de medición propuesta por Stevens (1946), medir
significa asignar números, símbolos o valores a las propiedades de los objetos o
eventos de acuerdo con unas determinadas reglas. Sin embargo, en el caso de las
ciencias sociales la medición no es un proceso que se pueda considerar exacto.
Lo que suele ocurrir es que el investigador se propone medir conceptos teóricos
que no son directamente observables. Para poder medir estos conceptos se deben
operacionalizar, es decir, hacerlos medibles a partir de indicadores observables. El
investigador crea entonces una correspondencia entre el concepto que pretende
medir y el indicador empírico y observable que le va a ayudar a medir el concepto
teórico. Para hacer efectiva esta correspondencia entre concepto e indicador se
precisa hallar o bien diseñar instrumentos que permitan recoger datos sobre estos
indicadores observables. En ciencias sociales, a diferencia de las ciencias físicas, es
habitual no disponer de instrumentos que permitan medir directamente aquello
que se pretende estudiar, por lo que es habitual diseñar ad hoc el instrumento para
desarrollar la investigación.
[421
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO
INFORMACIONAL
El instrumento que finalmente se elabore va a contener los indicadores, es decir,
las variables observables que son la traducción de los conceptos teóricos que el investigador pretende medir. Estas variables pueden abarcar desde conductas directamente
observables hasta las respuestas a un cuestionario o las verbalizaciones recogidas en
un grupo de discusión. Se considera que el mejor instrumento de medida es aquel
capaz de registrar las variables observables que representan los conceptos de interés
de una manera fiable y válida.
Por -fiabilidad se entiende que el instrumento proporcione mediciones consistentes, es decir, que la aplicación repetida del instrumento a un mismo sujeto produzca
resultados similares. Si, por ejemplo, un sujeto se pesa en una báscula y al cabo de
treinta segundos se vuelve a pesar, se espera que, si la báscula es fiable, ambos resultados sean idénticos. La validez de un instrumento se refiere al grado en que este mide
lo que realmente pretende medir. Por ejemplo, si una báscula quiere ser un instrumento válido, debe medir el peso y no la altura de un individuo. En nuestro contexto sería
el caso de pretender estudiar las necesidades informativas de los estudiantes universitarios a la hora de plantearse la elaboración de un trabajo académico y construir
un cuestionario para conocer esas necesidades. La validez del instrumento de medida
sería cuestionable si en vez de las necesidades se preguntase sobre el uso que hacen los
estudiantes del material didáctico para poder elaborar este trabajo.
Si un instrumento no es capaz de lograr la correspondencia entre aquello que se
pretende medir y lo que finalmente se registra, será un instrumento deficiente y carecerá de sentido aplicarlo para valorar el fenómeno de interés. Los investigadores
de las ciencias sociales son conscientes de que crear instrumentos de medida que
cumplan las condiciones de fiabilidad y validez no es una tarea fácil. De hecho, crear
el instrumento «perfecto» que permita valorar conceptos como la satisfacción, la
necesidad o la motivación de un individuo o bien la calidad de un servicio es una
meta que está aún muy lejos de ser conquistada. Dado que el instrumento perfecto no
existe, es esencial que antes de la recogida de datos se asegure que el instrumento que
se utilice para ello presente una validez y fiabilidad adecuadas.
Para medir la fiabilidad de un instrumento existen fundamentalmente cuatro
métodos distintos: test-retest, formas paralelas, dos mitades y consistencia interna.
Posiblemente, el método de test-retest sea el más sencillo de aplicar, consiste en administrar el mismo instrumento a los mismos sujetos en dos periodos distintos. Si existe
diferencia en las respuestas de ambos momentos temporales, implicará una baja fiabilidad. En cambio, si las respuestas coinciden, el instrumento presenta alta consistencia en la medida y una buena fiabilidad. No obstante, se debe tener en cuenta que
el tiempo transcurrido entre una y otra administración es un factor importante en el
resultado. Si el periodo entre ambas administraciones es largo y el rasgo que se mide
es variable, se pueden producir cambios no debidos al instrumento, sino a un cambio
l. FUNDAMENTOSDE LA INVESTIGACIÓNEN CIENCIASSOCIALES
1431
en el rasgo que se está midiendo. En este caso, el individuo puede haber cambiado de
opinión respecto al aspecto que se esté valorando. Al contrario, si el periodo entre las
dos administraciones es corto, los sujetos pueden recordar las respuestas de la primera administración y obtener una medida más consistente de lo que en realidad es.
El método de formas paralelas difiere del anterior en que el instrumento de medida es diferente en la segunda administración. Se intenta que ambos instrumentos
presenten la máxima equivalencia en cuanto a contenido, número de ítems, duración
o procedimiento de administración. De esta manera, se intenta reducir el efecto del
tiempo en los resultados. Por una parte, se evita el efecto del recuerdo y, por otra, el
posible cambio de opinión de los participantes. La mayor complejidad de este método se encuentra en diseñar instrumentos alternativos y equivalentes para medir el
mismo concepto teórico.
El método de las dos mitades, a diferencia de los métodos anteriores, solo necesita
una única administración del instrumento al mismo grupo de sujetos. A partir de
esta única administración, el instrumento se divide en dos partes equivalentes. Si el
instrumento presenta una buena fiabilidad, la medida obtenida en la primera parte
del instrumento debe correlacionar con el resultado de la segunda mitad. Este tipo de
fiabilidad es una manera de verificar la consistencia interna del instrumento respecto
al concepto teórico que se está valorando.
La valoración de la fiabilidad por el método de la consistencia interna se basa en
la idea expuesta en el método anterior. Si se puede dividir el instrumento en dos partes iguales, puede dividirse en tres, cuatro o tantas partes como ítems tenga el instrumento. De forma que cada parte estaría formada por un único ítem. Si el instrumento
presenta una buena consistencia, las correlaciones deberán ser altas entre todos los
ítems que lo componen y la media de todas estas correlaciones obtenidas será una
aproximación a su fiabilidad.
Por lo que respecta a la validez, esta hace referencia a si el instrumento consigue
medir lo que pretende. De esta manera, se espera que exista una relación estrecha
entre el concepto teórico y el indicador observable. La validez de un instrumento,
aunque se considera un concepto unitario, se formula a partir de la evidencia acumulada de tres tipos distintos de validez: de contenido, de criterio y de constructo.
Se considera que un instrumento es válido cuando la evidencia en estos tres tipos de
validez es alta.
La validez de contenido se refiere al grado en que el instrumento abarca todas
las dimensiones y componentes del concepto que se pretende medir. Por ejemplo, un
cuestionario diseñado para ser aplicado en una entrevista estructurada carecerá de
validez de contenido si no incluye todas las preguntas necesarias para abordar las
diferentes dimensiones del fenómeno que quiere valorar. Para que un instrumento se
considere válido, es necesario que incluya las principales dimensiones del concepto
(44)
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFOR.MACIONAL
que pretende medir. Es por ello por lo que se deberá asegurar que la entrevista incluya todas las preguntas necesarias para abordar la dimensión que trata de valorar. El
procedimiento más utilizado para determinar este tipo de validez es el de juicio de
expertos. Siguiendo con el ejemplo anterior, se solicitaría a un grupo de expertos que
valorase las preguntas de la entrevista y constatase que son relevantes y suficientes
para medir el concepto.
La validez de criterio representa el grado en que el instrumento de medición se
relaciona con cualquier otro criterio externo que pretende medir lo mismo. La validez
de criterio será mayor cuanto más se relacione el instrumento generado con el criterio externo. Se demostraría la validez de criterio si las respuestas de un cuestionario
diseñado para valorar el uso de materiales docentes entre los estudiantes fueran coincidentes con observaciones directas que se realizasen sobre el uso de estos materiales.
Por último, la validez de constructo hace referencia al grado en que el instrumento
es capaz de medir el concepto que se pretende abordar en la investigación. Para valorar este tipo de validez es necesario que exista una conceptualización de aquello que
se quiere valorar. La verificación de este tipo de validez no puede resumirse en una
única medida, sino que sigue un proceso acumulativo de evidencias procedente de
diversas fuentes. De manera que se aporta evidencia sobre la validez de constructo a
partir de medir el mismo concepto teórico de diversas formas posibles. Un ejemplo de
esta acumulación de evidencia necesaria es la diferenciación que dentro de la validez
de constructo se hace entre validez convergente y discriminante. Si se ha conseguido medir adecuadamente el concepto teórico, esta medida debería estar altamente
relacionada con otras medidas que midan el mismo concepto (validez convergente)
y, al contrario, muy poco relacionada con medidas que valoren conceptos distintos
(validez discriminante). De esta forma, se asegura la validez de constructo midiendo
el mismo concepto teórico utilizando distintos procedimientos.
La recogida de datos debe basarse en instrumentos que aseguren en todo momento la fiabilidad y la validez de la medida obtenida. No obstante, antes de perseguir la
fiabilidad parece lógico que los instrumentos sean válidos y que logren medir el concepto teórico a partir de los indicadores observables. Una vez conseguida esta validez,
el siguiente paso es conseguir demostrar su consistencia.
1.5.2. Investigación cualitativa
Existen tres posturas en cuanto a los criterios de evaluación de la calidad en la investigación cualitativa: la postura que intenta aplicar los mismos criterios que rigen
para la investigación cuantitativa, la que redefine estos criterios para adaptarlos a
la investigación cualitativa y, por último, la postura que rechaza cualquier tipo de
t. FUNDAMENTOSDE LA INVESTIGACIÓNEN CIENCIASSOCIALES
[45)
criterio debido a la naturaleza interpretativa de la investigación cualitativa (Vallés,
1999). En otras palabras, el acuerdo que existe sobre los criterios para evaluar una
investigación cuantitativa no se da en el ámbito de la investigación cualitativa.
Una de las propuestas que ha tenido mayor repercusión en la literatura posterior
es la de Lincoln y Guba (1985). Estos autores hablan de confiabilidad (trustworthiness) para describir el rigor de la investigación en términos cualitativos, más allá
de los parámetros que se aplican normalmente en la investigación cuantitativa. La
confiabilidad es el grado en que los resultados de una investigación reflejan los significados según lo descrito por los informantes y se concreta en cuatro criterios: credibilidad, transferibilidad, dependibilidad y confirmabilidad (tabla 4).
Tabla4. Criterios y estrategias para asegurar la confiabilidad en la investigación
cualitativa según Lincoln y Guba (1985)
CRITERIO INVESTIGACIÓN CUALITATIVA
TÉCNICAS
Credibilidad
Participación prolongada
Observación persistente
Triangulación
Revisión por parte de otros investigadores
Análisis de casos negativos
Adecuación referencial
Validación por parte de los informantes
Transferibilidad
Descripción densa
Dependibilidad
Auditoría de dependibilidad (audit trail)
Confirmabilidad
Auditoría de confirmabilidad (audit trail)
En primer lugar, la credibilidad se refiere a la precisión y riqueza con la que el
investigador ha descrito el fenómeno estudiado. La credibilidad presupone que no
existe una realidad objetiva, sino que la realidad se construye y solo existe en las mentes de los informantes y su contexto particular (Erlandson, Harris, Skipper y Allen,
1993). Lincoln y Guba (1985) proponen diversas estrategias para asegurar la credibilidad: a) estrategias que hacen más probable que los resultados e interpretaciones
sean creíbles (participación prolongada, observación persistente y triangulación), b)
las que proporcionan un control externo sobre el proceso de investigación (revisión
por parte de otros investigadores), e) las que permiten refinar la hipótesis de trabajo a
medida que más información está disponible (análisis de casos negativos), d) las que
permiten verificar los resultados preliminares (adecuación referencial) y e) estrategias
dirigidas a probar los resultados con los informantes (validación con los informantes)
(cuadro 1).
1461
.MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO
INFORMACIONAL
Cuadro 1. Criterios y estrategias para asegurar la credibilidad en la investigación cualitativa
(síntesis de Lincoln y Guba, 1985)
CREDIBILIDAD
Participación prolongada: consiste en permanecer suficientemente en el campo con el fin de aprender
o conocer la cultura, contexto social o fenómeno de interés para ser capaz de detectar las distorsiones
que podrían presentarse en los datos (por parte del observador o de los individuos observados), olvidar
sus prejuicios y generar confianza.
Observación persistente: para identificar las características y los elementos de la situación que son
más relevantes para el problema a investigar y poder distinguir lo no relevante de lo relevante. Si la
participación prolongada brinda la posibilidad, la observación persistente proporciona profundidad.
Triangulación: uso de varias fuentes de datos, métodos, investigadores o teorías en una investigación
para producir un estándar que permita valorar el grado de convergencia obtenido desde esos distintos
enfoques.
Revisión por parte de otros investigadores: es la exposición a un compañero ajeno a la investigación de
manera paralela a una sesión de análisis y con el propósito de explorar aspectos de la investigación que
de otra manera solo quedan implícitos en la mente del investigador. El propósito es ayudar a detectar
sesgos, perspectivas y asunciones del investigador.
Análisis de casos negativos: consiste en la revisión de las hipótesis para eliminar todos los valores
extremos y todas las excepciones mediante la continua revisión de esta hipótesis hasta que el ajuste es
perfecto.
Adecuación referencial: implica la recogida de información a través de diversas fuentes (grabaciones,
documentos, imágenes, etcétera) para que reflejen el contexto estudiado y sustenten y den confiabilidad
a los hallazgos de la investigación.
Validación por parte de los informantes: los datos, las categorías analíticas, interpretaciones y conclusiones son testeadas con los individuos pertenecientes al grupo observado.
En segundo lugar, la transferibilidad se refiere al grado en que los resultados de
una investigación pueden ser aplicados en otros contextos con otros informantes.
Como afirman Lincoln y Guba (1985), la aplicación de un criterio como este en
la investigación cualitativa, en sentido estricto, es imposible, ya que el investigador
solo puede aportar su hipótesis de trabajo junto con una descripción del momento
y el contexto en el que transcurre. Pero también, como afirma Pickard (2007), en
la investigación cualitativa, el objetivo es permitir la transferencia de los resultados
en lugar de la generalización que persigue la investigación cuantitativa. Para ello el
investigador ofrece imágenes ricas a nivel individual que son recogidas por otros investigadores que, si evidencian similitudes entre ambos contextos, entonces se puede
considerar razonable aplicar los hallazgos al nuevo contexto.
Para asegurar la transferibilidad, se emplea la estrategia denominada descripción
densa (thick description), que consiste en la descripción de un fenómeno con el suficiente detalle como para que permita evaluar el grado en que las conclusiones son
transferibles en otros momentos, lugares, situaciones y personas. El investigador proporciona al lector un relato completo y útil sobre el contexto, los participantes y el
t. FUNDAMENTOSDE LA INVESTIGACIÓNEN CIENCIASSOCIALES
[47]
diseño de la investigación para que este pueda hacer sus propios juicios acerca de la
posible transferibilidad. Miles y Hubermann ( 1994) proporcionan una lista de preguntas que pueden ser relevantes para valorar esta cuestión y que a la vez dan pistas
acerca de los contenidos que debería tener una descripción para permitir evaluar el
grado de transferibilidad (cuadro 2).
Cuadro 2. Preguntas para valorar la transferibilidad de una investigación cualitativa
(Miles y Hubermann, 1994)
- ¿Las características de la muestra original de personas, entornos, procesos están suficientemente
descritas como para permitir comparaciones adecuadas con otras muestras?
- ¿El informe examina los posibles problemas de la generalización? ¿Se discuten las limitaciones de la
muestra?
- ¿Es la muestra teórica lo suficientemente diversa como para favorecer una mayor aplicabilidad?
- ¿El investigador define el alcance y los límites de una generalización razonable a partir del estudio?
- ¿Los resultados son suficientemente descritos densamente para que los lectores puedan valorar la
potencial transferibilidad, la idoneidad para su propio entorno?
- ¿Se observa congruencia entre los hallazgos y la teoría con la cual se conectan o fundamentan?
En tercer lugar, la dependibilidad consiste en buscar la consistencia de la investigación y se refiere al hecho de que si dicha investigación se repitiera con los mismos
o similares informantes en el mismo o similar contexto, los resultados se repetirían
(Lincoln y Guba, 1985). No obstante, es posible que si esa repetición ocurriera, hubiera cambios no solo debido al diseño de la investigación sino también a las distintas
dimensiones del contexto observado. La estrategia para asegurar esta dependibilidad
es la auditoría externa (auditoria de dependibilidad), en la que el investigador debe
proporcionar un audit trail con la secuencia de la documentación producida en el
curso de la investigación (incidentes, documentos, notas de entrevistas, diarios del
investigador, etcétera).
El estudio de Foster (2005), en el que presenta un modelo de comportamiento
informacional basado en las observaciones realizadas a diversos académicos, documenta el proceso de codificación por medio de los registros del software de análisis
cualitativo Atlas.ti, a modo de audit trail para asegurar la dependibilidad. Por otra
parte, Berryman (2008) detalla ampliamente el proceso de recogida, análisis e interpretación de los datos a través de un registro completo de los materiales generados
en el curso de la investigación.
La cuarta y última dimensión de la confiabilidad es la confirmabilidad, entendida como el hecho de que las conclusiones representen los resultados de la investigación y no los prejuicios de investigadores. El énfasis del investigador cualitativo está
en demostrar cómo los resultados pueden ser confirmados a través de los propios
datos. Las conclusiones, las interpretaciones y las recomendaciones remiten a sus
1481
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL
fuentes (Erlandson y otros, 1993). Esto se consigue normalmente mediante una
auditoría de confirmabilidad, que contiene el proceso utilizado (tal y como antes se
hablaba de audit trail), así como el producto resultante del estudio, lo que permite
a un actor externo juzgar su confirmabilidad. Este audit trail, según Lincoln y Guba
(1985), contendría, entre otros, la información sobre el procedimiento que se ha
seguido en la investigación, los datos brutos obtenidos y el resultado del análisis de
estos datos.
1.6. EL INFORME DE INVESTIGACIÓN
El informe es el documento final que describe el proceso de investigación seguido.
En función del público al cual vaya dirigido tendrá un carácter científico, técnico
o divulgativo. El informe científico será aquel cuyo destino final sea su publicación
en revistas científicas especializadas, el informe técnico se dirigirá principalmente a
informar de los resultados a la propia institución o a los órganos públicos o privados
que hayan financiado la investigación (tabla 5) y, por último, el informe divulgativo
informará sobre el estudio y los resultados al público en general.
En función del tipo de informe, el lenguaje será más o menos formal y la información incluida será más o menos exhaustiva. Generalmente, la extensión y exhaustividad de un informe técnico será mayor que la del informe científico, cuyo destino es la
publicación en una revista y está sometido a los requerimientos de estilo y extensión
de dicha revista. Respecto a los informes divulgativos, suelen ser cortos y centrados
generalmente en los resultados, exponiendo aquellos datos más representativos del
estudio.
Independientemente del tipo de informe, existen unos contenidos básicos que debe
contemplar cualquier publicación que recoja los resultados de una investigación. Estos son introducción, metodología, resultados, discusión y conclusión:
.._ Introducción: se contextualizará la situación que se quiere estudiar. Se expon. drán el marco teórico y los antecedentes o referentes relacionados con el estudio. Se plantearán los objetivos y las hipótesis si las hubiera .
.._ Método: se describirán la selección de la muestra, la construcción del instrumento, el procedimiento que se ha llevado a cabo para recoger los datos, así
como el plan de análisis .
.._ Resultados: se expondrán los principales resultados del estudio. La presentación de los datos también se apoyará en la construcción de tablas y gráficos, si
se considera pertinente, con el fin de que ayuden a visualizar más claramente
la información obtenida.
t. FUNDAMENTOSDE LA INVESTIGACIÓNEN CIENCIASSOCIALES
~
[49]
Discusión y conclusión: se interpretarán los resultados obtenidos en base a los
objetivos o hipótesis planteadas y se presentarán las principales conclusiones
que se deriven.
Tabla 5. Contenidos de un informe técnico
Sección preliminar
Título del estudio
Autores y colaboradores
Instituciones que colaboran
Agradecimientos
Índice
Resumen
Introducción
Planteamiento del problema y justificación del estudio
Exposición del marco teórico, antecedentes y referentes bibliográficos
Pregunta de investigación y/o objetivos
Hipótesis
Metodología
Especificar la población de referencia y la muestra
Técnica de muestreo utilizada
Descripción del diseño del estudio
Proceso de elaboración del instrumento de recogida de información
Método utilizado para la prueba piloto
Procedimiento de la recogida de datos
Análisis de datos
Resultados
Exposición de los resultados
Tablas y gráficos
Discusión y conclusiones
Interpretación de los resultados
Limitaciones del estudio
Sugerencias para futuros trabajos y líneas futuras de investigación
Bibliografía
Anexos
Instrumentos de recogida de información (cuestionarios, formulario de
observación, etcétera)
Otro material adicional empleado en el estudio
En el caso concreto de estudios mediante encuesta, es importante generar además
una ficha técnica que recoja de forma esquemática los aspectos fundamentales del
estudio. Los principales datos que deberían aparecer son los siguientes:
~ Ámbito: indica el ámbito geográfico en el cual se encuadra el estudio.
~
Población: define la población de referencia que se pretende estudiar.
150)
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL
Tamaño de muestra: indica el número de individuos del que está compuesta
la muestra.
<111 Técnica de muestreo: señala la técnica de muestreo empleada para realizar el
estudio.
<111 Precisión: hace referencia a la amplitud del intervalo donde se situará el parámetro poblacional.
<111 Nivel de confianza: indica la probabilidad
de que en el intervalo construido se
sitúe el verdadero valor poblacional.
<111 Tipo de encuesta: se refiere a la forma de administración
por la que se han
obtenido los datos.
<111 Recogida de datos: informa sobre el periodo temporal en el que se llevó a cabo
el trabajo de campo y se obtuvieron los datos.
<111 Empresa responsable: apunta la empresa u organismo que se ha encargado de
llevar a cabo el estudio de encuesta.
<111
1.7. ÉTICA DE LA INVESTIGACIÓN
Cualquier investigación llevada a cabo con humanos implica algún tipo de riesgo, que
puede ir desde el simple sentimiento de vergüenza o incomodidad causados por preguntas intrusivas de un cuestionario, hasta otros efectos físicos o emocionales mucho más
serios. La ética en investigación surge de los conflictos y dilemas a los que se enfrentan los investigadores cuando realizan un estudio. Dentro de una investigación existen
múltiples situaciones en las que el investigador debe decidir entre proseguir con los
procedimientos del estudio para logar el avance en el conocimiento científico o respetar
los derechos de aquellos que participan en la investigación. La ética ayuda a delimitar
lo que es legítimo hacer dentro del contexto de una investigación científica y lo que no.
Los inicios de la ética en investigación tienen un oscuro pasado. Muchos de los
principales avances científicos (médicos, sociales y psicológicos) ocurridos durante el
siglo xx se realizaron con participantes que poco tenían de voluntarios. Prisioneros,
pacientes psiquiátricos, minorías étnicas y grupos desfavorecidos eran escogidos para
formar parte de estudios sin ningún tipo de información sobre los beneficios de su
participación, los riesgos que podían correr y ni tan siquiera esperar su aceptación
a participar. No fue hasta que salieron a la luz los resultados de los primeros juicios
sobre los experimentos realizados con prisioneros durante la segunda guerra mundial
cuando se planteó la necesidad de regular los estudios realizados con humanos. En
194 7 surge el Código de Núremberg como el primer documento con carácter internacional que recoge las principales líneas que deberían guiar toda experimentación
realizada con seres humanos. El eje principal sobre el que descansa el código es la
l. FUNDAMENTOSDE LA INVESTIGACIÓNEN CIENCIASSOCIALES
[51)
necesidad de que los individuos sean capaces de dar su consentimiento voluntario a
participar en el estudio. Su participación no ha de deberse a ningún tipo de coacción,
deben conocer la naturaleza del estudio en el que participarán y aceptar los posibles
riesgos e inconvenientes asociados. El código también resalta la responsabilidad de
los investigadores en diseñar estudios que minimicen los posibles riesgos o sufrimiento que se puede ocasionar a los participantes, así como la necesidad de que valoren
los beneficios científicos y sociales del estudio antes de llevar a cabo la investigación.
A partir de este código se han derivado diferentes documentos que regulan los
principios éticos y las pautas que deberían regir cualquier investigación en la que
participen personas. Algunos de estos códigos tienen un carácter internacional, como
la Declaración de Helsinki, promovida en 1964 y de la que se han realizado diferentes
revisiones, y otros de carácter nacional o bien más específicos dentro de disciplinas
concretas o asociaciones de profesionales. El objetivo de estos códigos es asegurar
que el investigador considere todos los riesgos potenciales y conflictos éticos a la hora
de llevar a cabo una investigación con la idea de proteger en todo momento a los participantes del estudio. Dentro del contexto de las ciencias sociales, se ha de destacar el
código propuesto por la Sociedad Europea de Opinión e Investigación de Mercados
(European Society for Opinion and Marketing Research, ESOMAR). ESOMAR (2008)
publicó un primer código para la práctica de la investigación social y de mercados
en 1948. La propuesta fue posteriormente revisada y en 1977 se propuso, junto con
la Cámara de Comercio Internacional, un único código de carácter internacional
con la finalidad de ofrecer a la comunidad científica, y a la sociedad en general, unas
pautas para garantizar los principios éticos en la investigación social y de mercados.
La última actualización de este código se realizó en el 2007 y se fundamenta en ocho
principios básicos referidos a la responsabilidad que debe asumir el investigador en
todo estudio:
1. Respetar la legislación nacional e internacional vigente relacionada con la investigación.
2. Mantener una conducta ética y no hacer nada que pueda perjudicar la reputación de la investigación ni a los participantes.
3. Tener especial cuidado cuando los participantes sean menores de edad.
4. Asegurar que la colaboración de los participantes es siempre voluntaria y está
basada en la información adecuada sobre los objetivos y el propósito del estudio.
5. Respetar los derechos individuales de los participantes.
6. No permitir que los datos personales recogidos durante un estudio se utilicen
para propósitos ajenos a la investigación que se ha llevado a cabo y sobre la
que se ha informado a los participantes.
[52]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO
INFORMACIONAL
7. Asegurar que el diseño, la puesta en práctica, la emisión de informes y la documentación del estudio y procedimientos sean adecuados y se realicen con
transparencia y objetividad.
8. Actuar de conformidad con los principios reconocidos de la libre competencia.
El principio fundamental de la ética en la investigación social es que el individuo
posea la información suficiente para decidir si desea participar en el estudio o no. El
mecanismo que asegura que al individuo se le ha informado adecuadamente, conoce
los procedimientos que se llevarán a cabo, sus riesgos y los beneficios que podrá
obtener es a partir del consentimiento informado. El consentimiento informado se
traduce en un documento donde se describe la investigación y se explican los derechos de los participantes. Es un documento que debe ser entregado a cada uno de los
sujetos antes de iniciar la investigación y en el que se recoge la información básica del
estudio con un lenguaje claro y adaptado a sus destinatarios. Los participantes deben
tener suficiente tiempo para revisarlo y hacer preguntas sobre cualquier duda que les
pueda surgir. Es habitual que el documento se firme por ambas partes (participante
e investigador) para dejar constancia de que el sujeto ha comprendido la naturaleza
del estudio y da su consentimiento voluntario a participar en él. La información que
debería contener un consentimiento informado es la siguiente:
<11111
<11111
<11111
<11111
<11111
<11111
<11111
<11111
<11111
Datos sobre el participante o su representante legal, si procede (nombre, dirección, número de identidad, teléfono de contacto, etcétera).
Descripción de los objetivos del estudio así como de los procedimientos que se
llevaran a cabo.
La duración aproximada del estudio.
Riesgos e inconvenientes asociados a la participación.
Consideración sobre la participación voluntaria del sujeto y que su colaboración puede acabar en cualquier momento del estudio, si así lo considera, sin
necesidad de dar ninguna razón justificada o que esto implique algún perjuicio
para el sujeto.
Garantías sobre el anonimato o confidencialidad de los datos recogidos durante el estudio.
Beneficios o compensaciones, si las hubiera, por la participación del sujeto en
el estudio.
Identificación de los promotores y responsables del estudio, así como información de contacto en caso de que el sujeto presente dudas sobre cualquier
aspecto de la investigación.
Posibilidad de obtener un informe sobre los principales resultados del estudio
si así lo desea el sujeto.
l. FUNDAMENTOSDE LA INVESTIGACIÓNEN CIENCIASSOCIALES
1531
No obstante, en el ámbito de las ciencias sociales, cuando los riesgos del estudio son bajos (por ejemplo contestar un cuestionario) la firma del consentimiento
es opcional o bien no se requiere un documento escrito. En estos casos, se considera
suficiente un consentimiento implícito. Este tipo de consentimiento implica tan solo
informar adecuadamente sobre el estudio, dado que la colaboración subsecuente del
sujeto da por hecho su aceptación (el hecho de contestar un cuestionario da por supuesto que se acepta contestarlo). Por otra parte, en los casos en que el participante
sea un menor o bien carezca de la madurez suficiente para dar el consentimiento, lo
harán sus representantes legales. No obstante, nuestra legislación indica que el menor
siempre debe estar informado y puede dar su opinión, la cual deberá ser tenida en
consideración.
1.8. RESUMEN
En este primer capítulo se describe el marco metodológico que supone la base del
resto de capítulos de este libro. Como paso previo a la descripción de los aspectos
metodológicos se presentan los principales paradigmas desarrollados dentro de las
ciencias sociales, dado que la elección del investigador por uno u otro paradigma va
a originar un diferente acercamiento metodológico hacia el fenómeno de interés. La
elección de una metodología concreta, sea esta cuantitativa o cualitativa, se basa en
presupuestos ontológicos y epistemológicos de la ciencia. Por lo tanto, se describen
las características más representativas de estas dos orientaciones metodológicas, así
como el proceso de investigación y los criterios de calidad que subyacen en una y en
otra. Por último, se describen los aspectos éticos que implican a cualquier investigación que trate con personas, sea cual sea su orientación metodológica.
CAPÍTULO 2
TÉCNICAS DE MUESTREO
2.1. INTRODUCCIÓN
En cualquier investigación, tras la concreción de los objetivos, el siguiente paso que
debe plantearse es la definición de la población o colectivo de interés. Por población
se entiende aquel conjunto de elementos, también llamados sujetos, individuos, casos
o unidades muestra/es, que comparten alguna característica. Los elementos que configuran una población pueden ser muy variados: personas físicas (usuarios, investigadores, profesionales de un centro de información, ... ), organizaciones (unidades de
información, universidades, colegios, ... ), objetos (puntos de lectura o de conexión a
internet, buzones de retorno de libros, expositores, ... ), documentos (libros, revistas,
artículos, ... ), eventos o acciones (consultas a un catálogo, solicitudes de documentos,
peticiones en una página web, ... ) o incluso espacios de tiempo en donde a partir de
registros (por ejemplo, audiovisuales) se valora la presencia de alguna conducta de
interés. No obstante, cuando una población contiene muchos elementos es inviable
estudiarlos todos. El coste económico y de tiempo que requeriría estudiar todos los
elementos sería tan grande que se desaconsejaría llevar a cabo la investigación. En
estos casos, es necesario seleccionar un subgrupo representativo de elementos de la
población, es decir, una muestra de individuos. El proceso de selección de las unidades muestrales que forman parte de la población es lo que se conoce como muestreo.
Dentro del muestreo se distingue entre el muestreo probabilístico y el muestreo no
probabilístico. En el muestreo probabilístico, los sujetos de la población tienen
una probabilidad conocida de ser seleccionados para formar parte de la muestra y esta
probabilidad es distinta a cero. En cambio, en los procedimientos no probabilísticos
no se conoce la probabilidad de que un sujeto forme parte de la muestra. Seleccionar uno u otro procedimiento depende en buena medida de la naturaleza del estudio
(Marshall, 1996; Patton, 2002; Ritchie, Lewis y El am, 2003; Neuman, 2007). Cuando una investigación tiene una naturaleza cuantitativa, la selección de los individuos
[56)
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL
se rige por el objetivo de que el estudio de la muestra permita la correcta estimación
de los valores poblacionales. Es decir, se persigue generalizar a la población los resultados obtenidos a partir del estudio de la muestra. Lo anterior implica que la muestra
resultante debe contener las mismas características y en las mismas proporciones que
las observadas en la población. Esto se consigue gracias a la selección aleatoria de las
unidades muestrales. Para que un muestreo sea considerado probabilístico la selección
de los individuos se debe regir por un procedimiento aleatorio. En cambio, en un
estudio cualitativo, la selección de las unidades muestrales se rige básicamente por el
objetivo de formar una muestra que permita un mayor conocimiento sobre un determinado fenómeno en un contexto específico. En este caso, el investigador selecciona
a los individuos en base a determinados criterios que considera adecuados y no de
manera aleatoria. De esta manera, los estudios cuantitativos, más preocupados por
su capacidad de ofrecer una generalización de los resultados a partir del estudio de
muestras, preferentemente se realizan en base a muestreos probabilísticos. En cambio,
en los estudios cualitativos se opta por muestreos no probabilísticos.
No obstante, los estudios cuantitativos no siempre pueden realizarse a partir de
procedimientos probabilísticos. Estos procedimientos tienen un mayor coste económico y requieren una mayor inversión de tiempo para conseguir formar las muestras, por
lo que es habitual que muchos estudios, aunque persigan la generalización de los resultados a la población, recurran a procedimientos no probabilísticos. Otra situación
habitual en la que se recurre a utilizar un procedimiento no probabilístico es cuando
se estudian poblaciones en las que no se dispone de un registro exhaustivo de los
individuos, es decir, un marco muestral completo. El marco muestral es el listado de
individuos de la población a la que se tiene acceso. El objetivo que se persigue es que
contenga todos los elementos de la población. No obstante, en la práctica, no existe
un marco perfecto y es habitual encontrar errores, omisiones y duplicidades (Pérez,
2010). Es esencial que el marco muestral represente al conjunto de la población. Un
marco muestral incompleto o que no incluya algún sector de la población pone en
peligro la validez externa de la investigación (por ejemplo, realizar un estudio por entrevistas telefónicas no incluiría aquellos que no disponen de teléfono). En los casos en
que no existe un marco muestra! completo, el investigador debe intentar construirlo,
pero si esto no es posible, la alternativa es aplicar un muestreo no probabilístico. Este
sería el caso de un estudio en el que se quisiera estudiar a los usuarios de una biblioteca pública que no pertenecieran a la comunidad europea. Difícilmente se podría
contar con un listado de estos usuarios y construirlo sería igualmente infructuoso. La
opción más sensata sería posiblemente utilizar un procedimiento no probabilístico.
Es importante señalar que a partir de los procedimientos no probabilísticos, aunque se pueden obtener muestras representativas, no se llega a tener información sobre
el grado de representatividad respecto a la población y existe un mayor riesgo de
[57]
2. TÉCNICASDE MUESTREO
Figura 5. Representación de una muestra representativa y una muestra sesgada
Poblatión
Muestraseigada
introducir sesgos a la hora de seleccionar a los individuos. En la figura 5 se ilustran
una muestra representativa y una muestra sesgada.
Como se puede apreciar en la figura 5, una muestra representativa es un subgrupo
de elementos de la población que mantiene las mismas características que se observan
en la población. En cambio, una muestra sesgada está formada por elementos que
presentan una sobrerrepresentación o infrarrepresentación de alguna de las características de la población. Utilizar un procedimiento no probabilístico puede provocar
que algunos de los sujetos seleccionados presenten una probabilidad más alta de
ser incluidos en la muestra. Los sujetos finalmente incluidos en la muestra pueden
presentar características diferentes respecto a los sujetos no seleccionados y, de esta
manera, disminuir la representatividad de la muestra. Por eso los procedimientos no
probabilísticos se deberían reservar para aquellas situaciones en que la generalización
de las conclusiones a la población no es una prioridad del estudio, como podría ser
en el caso de estudios exploratorios o bien de estudios cualitativos. En estos casos,
el objetivo principal será profundizar en la información que los individuos puedan
aportar más que en la representatividad de esta información.
En el presente capítulo se pretende dar respuesta a dos de los interrogantes que los
investigadores se plantean cuando trabajan con muestras. El primero hace referencia
a qué procedimiento deben utilizar para seleccionar a los sujetos que participarán en
su estudio. El segundo es cuántos sujetos deben estudiar o incluir en la muestra. En
la tabla 6 se recogen los diferentes tipos de muestreo que se expondrán en este capítulo. En este punto, se debe señalar que la literatura sobre el muestreo probabilístico
[58]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INl'ORMACIONAL
muestra un amplio consenso tanto en las técnicas propuestas como en la terminología
usada para referirse a ellas. No ocurre lo mismo con los muestreos no probabilísticos,
donde conviven diversas propuestas sobre los diferentes procedimientos que pueden aplicarse (Patton, 1990; Marshall, 1996; Bernard, 2000; Neuman, 2007). En los
muestreos no probabilísticos se observa una falta de acuerdo tanto en las definiciones
como en la terminología utilizada, lo que en ocasiones lleva a confusión (Marshall,
1996; Coyne, 1997). Así, para los procedimientos no probabilísticos se revisarán
algunas de las principales propuestas existentes en la literatura y se expondrán los
principales tipos de muestreo, intentando esclarecer la terminología. Para finalizar el
capítulo se abordará el tema del tamaño de muestra, diferenciando entre los estudios
cuantitativos y los estudios cualitativos.
Tabla 6. Tipos de muestreo
Muestreo probabilístico
Muestreo aleatorio simple
Muestreo aleatorio sistemático
Muestreo aleatorio estratificado
Muestreo aleatorio por conglomerados
Muestreo no probabilístico
Muestreo accidental
Muestreo intencional
Muestreo teórico
Muestreo por cuotas
Muestreo por bola de nieve
2.2. MUESTREO PROBABILÍSTICO
Las diferentes técnicas de muestreo probabilístico tienen como denominador común el
uso de la aleatorización para la selección de los individuos. La aleatorización permite que cada unidad muestral tenga una probabilidad conocida de formar parte de la
muestra del estudio. De este modo se asegura que la muestra de individuos seleccionada
sea representativa de la población de referencia. Sin embargo, para asegurar la representatividad se ha de contar con un marco muestral bien definido y que no presente
ningún tipo de sesgo. El marco muestral debe contener un listado de todas las unidades muestrales de la población de referencia. De este marco muestral se seleccionará
la muestra de individuos que serán los que participarán en el estudio. Los datos que
se obtengan de esta muestra permitirán la generalización de resultados a la población
de origen. Las técnicas de muestreo probabilístico son el muestreo aleatorio simple, el
[59]
2. TÉCNICASDE MUESTREO
sistemático, el estratificado y el de conglomerados. Las dos últimas variantes, el muestreo estratificado y el de conglomerados, pueden ser consideradas variaciones de las
dos primeras y pueden combinarse entre sí en función de las exigencias del estudio.
2.2.1. Muestreo aleatorio simple
En el muestreo aleatorio simple todos los sujetos de la población tienen la misma
probabilidad de ser seleccionados para formar parte de la muestra (Cochran, 1987).
Para seleccionar una muestra de sujetos a partir de este procedimiento se necesita una
tabla de números aleatorios, o bien generar una serie de números aleatorios mediante
algún programa informático. La tabla de números aleatorios es un conjunto de dígitos organizados en el espacio con una misma frecuencia. Para facilitar el seguimiento
visual, los dígitos se presentan en grupos de filas y columnas (por ejemplo, filas y
columnas de cuatro o cinco dígitos).
El primer paso para seleccionar los elementos de la muestra es numerar los individuos de la población desde O hasta N, el último valor de la población. En la tabla
de números aleatorios los dígitos se deben agrupar en bloques de tantas cifras como
tenga el último valor numerado de la población. A continuación, se seleccionan tantos grupos de números aleatorios como individuos se quiera incorporar a la muestra.
Cada número aleatorio seleccionado indicará el individuo que debe ser incluido en la
muestra. En el cuadro 3 se propone un ejemplo para ilustrar esta técnica.
Cuadro 3. Ejemplo de muestreo aleatorio simple
Imaginemos que se desea seleccionar una muestra de 1O individuos de una población de 100. Los pasos
que deberían seguirse son:
l.
2.
Numerar todos los individuos de la población desde el O hasta el 99.
Seleccionar 10 valores de la tabla de números aleatorios. Los valores se seleccionan en función del
número de cifras que tenga el último dígito numerado a la población. En esta ocasión, como el último valor tiene dos cifras (99), se seleccionan valores de dos cifras. La tabla de números aleatorios
puede leerse en cualquier dirección (de abajo arriba o de arriba abajo y de izquierda a derecha o
al revés). En este caso, para seleccionar los 1O valores de la tabla se sigue la dirección de la lectura
(por filas y de izquierda a derecha).
55659
53364
49927
07243
67879
44105
71726
57715
79931
00544
47361
45690
50423
89292
23410
34833
66334
67372
84767
12740
86679
60332
63116
85693
02540
3. A partir del paso anterior, se obtienen los siguientes 10 grupos de números aleatorios de dos cifras:
el 55, 65, 94, 41, 05, 47, 36, 13, 48 y el 33. Estos valores indican los sujetos que formarán parte
de la muestra
[60]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL
2.2.2. Muestreo aleatorio sistemático
En este tipo de muestreo también se deben enumerar todos los individuos de la población, aunque el procedimiento resulta más sencillo que el anterior. Consiste en seleccionar el primer individuo de la muestra al azar y seleccionar el resto a partir de este.
El primer individuo (i) se selecciona al azar entre los k-1 (k= N/n) primeros elementos
de la población. El valor k se denomina coeficientede elevacióny representa el número
de veces que la muestra estará comprendida en la población. El resto de individuos se
seleccionan a partir del primer individuo sumando cada vez el valor k a cada uno de
los individuos seleccionados. Para asegurar que la muestra sea representativa de lapoblación se debe evitar que la población esté ordenada según algún criterio relacionado
con el objeto de estudio. En el cuadro 4 se propone un ejemplo de este tipo de muestreo.
Cuadro 4. Ejemplo de muestreo sistemático
Siguiendo con el ejemplo anterior, en este caso el procedimiento sería:
l.
Numerar todos los individuos de la población desde el O hasta el 99.
2.
Calcular el coeficiente de elevación k:
3.
Seleccionar al azar el primero individuo (i) de la muestra entre los k-1 primeros sujetos. Es decir,
entre O y 9. Por ejemplo, i podría ser el sujeto 3.
4.
A partir del sujeto i se seleccionan de k en k el resto de individuos de la muestra. Los individuos que
formarán parte de la muestra serán los siguientes: 3, 13, 23, 33, 43, 53, 63, 73, 83 y el 93.
2.2.3. Muestreo aleatorio estratificado
El muestreo aleatorio estratificado es útil cuando se conoce la proporción de una o
varias características de la población relevantes para realizar un estudio particular
(como por ejemplo el género, la edad o el nivel de estudios) y además se quiere asegurar que estas características estén representadas en la muestra. Las diferentes modalidades de estas características (por ejemplo: hombre/mujer, niños/jóvenes/adultos,
etcétera) se denominan estratos, término que proviene de la geología y que se refiere
a una capa homogénea de terreno. Los individuos que pertenecen a un determinado
estrato presentarán características similares entre ellos y, en cambio, presentarán características muy diferenciadas respecto a los individuos de otros estratos. Este hecho
traerá una homogeneidad entre los individuos que pertenecen a un mismo estrato y
una heterogeneidad entre los individuos de diferentes estratos.
[61 I
2. TÉCNICASDE MUESTREO
El proceso de distribución de los individuos en los diferentes estratos se conoce
como a-fijacióny existen diferentes tipos:
A-fijaciónproporcional: para cada estrato, se intenta conservar la variabilidad observada en la población de manera proporcional. En estos casos el número de
sujetos de cada estrato en la muestra será proporcional al que se observa en la
población.
A-fijaciónde compromiso: en algunas ocasiones aplicar una afijación proporcional
puede llevar a generar estratos con un número muy reducido de sujetos. Si el
investigador está interesado en analizar en profundidad cada uno de los estratos, los resultados no serán validos para aquellos estratos que presenten pocos
sujetos. En estos casos, se opta por aumentar el tamaño de los estratos con
menos sujetos hasta que se considere que su número es adecuado.
A-fijaciónuniforme: se trata de una estratificación no proporcional en la que todos
los estratos tienen el mismo número de sujetos independientemente de la proporción que se observa en la población. Esto favorece a los estratos que presentan una proporción menor y perjudica a los que presentan una proporción
mayor. Tal como señala Pérez (2010), este tipo de afijación solo se aconseja
utilizar en los casos en que los estratos presenten una proporción similar en la
población.
A-fijación óptima: en este procedimiento, además de tener en cuenta el peso del
estrato en la población, se valora la variabilidad de cada estrato. Para aplicar
una afijación óptima se necesita conocer la varianza poblacional de cada estrato, lo que requiere que se haya hecho algún estudio previo de la población.
En el muestreo estratificado es frecuente que se considere más de una característica
a la vez, lo que genera diferentes dimensiones. Por ejemplo, en un primer momento, se
puede considerar la característica género y generar dos estratos: hombre y mujer. En
un segundo momento, se puede considerar la variable edad y crear diferentes intervalos: menor de 12 años, de 12 a 18 años, de 19 a 30 años, etcétera. Automáticamente,
cada uno de estos intervalos queda incluido en la categorización previa de hombre y
mujer, como se muestra en la tabla 7:
Tabla 7. Ejemplo de un muestreo aleatorio estratificado
GÉNERO
Hombre
Edad
>12 años
Mujer
Edad
l 12-18 años l t9-30 años >12 años l 12-18 años l 19-30 años
[62]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL
Una vez se ha fijado el tamaño de cada estrato, se seleccionan los individuos que
formarán parte de cada uno. La selección de cada uno de los individuos se puede
realizar mediante un procedimiento aleatorio simple o bien sistemático.
Se debe tener en cuenta que los resultados que se deriven de muestras generadas
por procedimientos de afijación no proporcionales (de compromiso y uniforme) no
podrán ser directamente generalizables a la población y deberán hacerse ajustes para
poder informar correctamente sobre la población. En el cuadro 5 se propone un
ejemplo para ilustrar esta técnica de muestreo.
En general, si la información de la que se dispone sobre la población es precisa,
las muestras obtenidas mediante este tipo de muestreo aseguran mejor la representatividad que las muestras generadas a partir de la aplicación directa del muestreo
aleatorio simple (Rodríguez Osuna, 1991). Esto es así porque en el muestreo estratificado se asegura que, pese a que un estrato presente un porcentaje pequeño respecto a
la población, este quedará representado en la muestra. Un muestreo aleatorio, en un
caso así, podría omitir este estrato y no quedar representado en la muestra. Además,
el muestreo estratificado evita las oscilaciones debidas al azar y conserva los mismos
parámetros observados en la población. Por ejemplo, si se conoce que el porcentaje
de hombres y de mujeres en la población de usuarios del servicio de préstamo es de
48 % y 52 % respectivamente, utilizando un muestreo estratificado se puede obtener una muestra exactamente con un 48 % de hombres y un 52 % de mujeres. En
cambio, si se aplicara un muestreo aleatorio simple, este porcentaje podría variar
ligeramente respecto al observado en la población de referencia.
2.2.4. Muestreo aleatorio por conglomerados
En algunos casos los individuos de una población se agrupan de manera natural
formando grupos con características muy heterogéneas. Estas agrupaciones reciben
el nombre de conglomerados. Interesa que los conglomerados presenten una gran
diversidad dentro de ellos mismos, pero sean similares a otros conglomerados (Pérez,
2010). De esta manera pueden considerarse poblaciones «en pequeño».
Por ejemplo, una biblioteca A podría ser considerada un conglomerado. Dentro
del conglomerado se pueden encontrar usuarios con características muy diversas (en
edad, nivel educativo, frecuencia de uso, etcétera). Si se compara esta biblioteca A con
otra biblioteca, B, posiblemente se encuentren más similitudes entre los usuarios de
estas dos bibliotecas que diferencias (en las dos habría individuos con edades diversas, con diferente nivel educativo, frecuencia de uso, etcétera). Cada conglomerado
actuaría como una pequeña representación de la población. No obstante, se debe
tener en cuenta que entre conglomerados puede haber diferencias importantes. En
2. TÉCNICASDE MUESTREO
(63)
Cuadro 5. Ejemplo de un muestreo aleatorio estratificado
Se quiere seleccionar una muestra de 300 individuos para elaborar un estudio sobre el uso de diferentes
servicios en una biblioteca pública. Se sabe que el uso de los servicios está relacionado con el nivel
educativo de los usuarios, por lo que para seleccionar la muestra se opta por utilizar la información
disponible sobre el nivel educativo de la población a la cual da servicio la biblioteca. En la siguiente
, tabla se expone el porcentaje observado en la población para cada uno de los estratos.
Estratos
Porcentaje observado en la población
Estudios primarios
Estudios secundarios
Estudios universitarios
54 %
30 %
16 %
Para calcular el número de sujetos necesarios en cada estrato mediante afijación uniforme, se divide el
total de la muestra que se quiere obtener por el número de estratos. En este caso, cada estrato estaría
formato por 100 sujetos:
n
n._.,.w= numero de estratos
300
nestr.tro
3
O
.
= 1 O su1etos
En el caso de que se quisiera realizar mediante una afijación proporcional,
de sujetos para cada uno de los estratos a partir de la siguiente expresión:
se calculará la proporción
p ·n
nC'\trJ(O
::::::-~--
100
Donde P, es el porcentaje de sujetos de la población que presentan la característica concreta en el
estrato y n es el tamaño de la muestra que se quiere estudiar. En el ejemplo propuesto quedaría de la
siguiente forma:
54 · 300
.
162 su1etos
nC'\lr.llC)'\rrJITI.Um'\
----=
n ..ir.uu,-unJJrios
30 · 300
=---=90 sujetos
11l"~U JW'\ Unl\'C'í\lf;:UIO~
100
100
16 · 300
----
= 48 sujetos
100
En siguiente tabla se detalla, para cada uno de los estratos, el número de sujetos necesarios si se utiliza
una afijación uniforme o una afijación proporcional.
Estrato
Estudios primarios
Estudios secundarios
Estudios universitarios
Afijación uniforme
Afijación proporcional
100
100
100
162
90
48
Finalmente, para seleccionar los sujetos de cada uno de los estratos sería necesario aplicar un muestreo
aleatorio simple o sistemático.
(64]
MÉTODOSY TÉCNICASPARALA INVESTIGACIÓNDEL COMPORTAMIENTOINFORMACIONAL
este sentido, no sería lo mismo estudiar una biblioteca de una gran ciudad que otra
ubicada en un núcleo rural. En estos casos, para conseguir una buena representación
de la población, sería necesario seleccionar dos muestras diferenciadas, una con bibliotecas ubicadas en núcleos urbanos y otra en núcleos rurales.
Se dice que el muestreo por conglomerados es polietápico cuando los conglomerados seleccionados en un primer momento forman nuevos conglomerados dentro de
ellos y se procede a una nueva selección de estos. Este procedimiento se puede repetir
hasta que se llegue a la selección final de los individuos de la muestra. Este sería el
caso si se quisiera estudiar el comportamiento informacional de los usuarios del conjunto de bibliotecas de un determinado municipio. Seleccionar todas las bibliotecas
seria un procedimiento muy costoso, por lo que se podrían seleccionar en primer
lugar unas determinadas poblaciones (primer conglomerado) y de estas seleccionar
unas determinadas bibliotecas (segundo conglomerado). De las bibliotecas finalmente incluidas en la muestra se seleccionarían de manera aleatoria los individuos que
formarían parte del estudio.
Para seleccionar unos conglomerados u otros se utiliza un procedimiento aleatorio, como por ejemplo un muestreo aleatorio simple o estratificado. Una vez se
han seleccionado los conglomerados que formarán parte de la muestra, se pasará a
seleccionar las unidades muestrales. Si los conglomerados están formados por pocas
unidades muestrales, se pueden seleccionar todos los elementos que forman parte del
conglomerado. En cambio, si el número de unidades muestrales dentro del conglomerado es grande, se deberá realizar una nueva selección aleatoria de las unidades muestrales a partir de un procedimiento aleatorio simple o sistemático. Una de las ventajas
más destacadas de este tipo de muestreo es su ahorro en tiempo y coste económico.
La concentración de las unidades muestrales evita los costes de desplazamiento, permitiendo que la selección de la muestra sea más rápida y barata.
Decidir el número de conglomerados necesarios para un estudio depende de la
variabilidad observada entre los conglomerados. Si se observa una gran diversidad
entre conglomerados, para poder conseguir una buena representación de la población será necesario seleccionar un número más grande de conglomerados. En cambio,
si las diferencias entre conglomerados no son importantes, la representatividad de la
población se podrá conseguir con unos pocos conglomerados. De manera análoga, si
se observa una variabilidad más alta dentro del conglomerado, será necesario seleccionar más individuos dentro del conglomerado y, en cambio, si los individuos que
forman el conglomerado presentan características homogéneas entre ellos, no serán
necesarios tantos individuos para conseguir una buena representación.
La siguiente situación ilustra el procedimiento a seguir en este tipo de muestreo:
un grupo de investigadores se propone realizar un estudio sobre los hábitos lectores
de los alumnos de educación secundaria obligatoria en España. Para elaborarlo pre-
2. TÉCNICASDE MUESTREO
(65]
renden estudiar una muestra de alumnos que estén cursando en la actualidad estos
estudios. La mejor manera para acceder a la muestra es dirigirse a las escuelas de
educación secundaria del territorio. Sin embargo, contactar con todas las escuelas
(públicas y privadas, urbanas y rurales, etcétera) sería una tarea impracticable. Los
investigadores optan por seleccionar de manera aleatoria unas determinadas comarcas dentro de cada comunidad autónoma, dentro de cada comarca se seleccionan determinadas poblaciones en función del número de habitantes y, por último, de nuevo
de manera aleatoria, un grupo asequible de escuelas dentro de cada población. Con
el fin de conseguir una mayor representación de la población se tiene en cuenta la
característica pública o privada de la escuela y también la ubicación (urbana o rural).
Una vez seleccionadas las escuelas, se pasa a seleccionar los alumnos de manera aleatoria (a partir de un muestreo aleatorio simple o sistemático). Para cada escuela se
entrevista a un número determinado de alumnos en función del tamaño de la escuela
y del curso donde están matriculados (primero, segundo, etcétera). En este ejemplo,
la comunidad autónoma, la comarca, las poblaciones y la escuela actúan como conglomerados. El interés de los investigadores es conseguir una muestra de alumnos,
pero para acceder a ellos la estrategia es centrarse en una organización que agrupa
a la población de interés. Además, en este ejemplo se tienen en cuenta características
intrínsecas de la escuela, como su carácter privado o público o su ubicación. Estas características actúan como estratos, por lo que convierten a este procedimiento en un
muestreo mixto: muestreo aleatorio estratificado y por conglomerados polietápico.
2.3. MUESTREO NO PROBABILÍSTICO
En general, por las ventajas que representa, los investigadores que pretenden llevar a
cabo un estudio cuantitativo preferirían trabajar con muestras probabilísticas. En la
práctica, en ciencias sociales, el coste y el tiempo que requiere obtener una muestra
a partir de un muestreo probabilístico lo hace, en muchas ocasiones, inviable. En
otros casos, es imposible construir el marco muestral de la población. Esto es, si no
se dispone de una lista exhaustiva de los sujetos que forman parte de la población,
no es posible seleccionar una muestra a partir de un procedimiento probabilístico. La
alternativa que tiene el investigador, en estas situaciones, es utilizar un procedimiento
no probabilístico.
Como se ha comentado al inicio del capítulo, un procedimiento no probabilístico
puede provocar una selección sesgada de los individuos. No obstante, cuando el objetivo del estudio es básicamente descriptivo y no se pretenden extraer conclusiones
generalizables al conjunto de la población, un muestreo no probabilístico puede ser
perfectamente válido.
166]
MÉTODOS Y TÉCNICASPARA LA INVESTIGACIÓNDEL COMPORTAMIEN"TO
INFORMACIONAL
Con todo, el muestreo no probabilístico no debe ser contemplado como un tipo
de muestreo alternativo en aquellos casos en que no sea posible llevar a cabo una
selección aleatoria de los sujetos. De hecho, los procedimientos no probabilísticos
son generalmente la opción más acertada en los casos en que el investigador se
propone realizar un estudio de carácter cualitativo. En este tipo de estudios, los
individuos se seleccionan en base a sus características particulares o bien por su
capacidad para proporcionar información rica para el estudio. En estos casos, no
sería apropiado utilizar un procedimiento probabilístico. Tal como señala Marshall
( 1996), escoger a los sujetos de manera aleatoria para realizar un estudio cualitativo sería tan poco adecuado como ante la situación de que se nos estropee el coche
en medio de la calle, parar al primer transeúnte que pase por nuestro lado y esperar
que sepa cómo reparar un coche averiado. Sin duda, lo más acertado, en un caso
como este, es acudir directamente a un buen mecánico y no esperar a que el azar
proporcione al mejor informante.
Existen diferentes propuestas de clasificación de los procedimientos no probabilísticos. Marshall propone tres tipos: accidental, intencional y teórico. Neuman
(2007) distingue entre muestreo accidental, por cuotas, intencional, por bola de
nieve, de casos «desviados» y secuencial (que sería equivalente al teórico propuesto
por Marshall). Bernard (2000) resume la propuesta anterior en cuatro tipos: muestreo accidental, por cuotas, intencional y por bola de nieve. Otros autores (Trochim, 2006; Singh, 2007) reconocen dos grandes tipos de muestreo: el muestreo
accidental y el muestreo intencional. En el primero, el investigador no tiene ningún
criterio para seleccionar a los sujetos de la muestra y acepta aquellos que voluntariamente acceden a participar en el estudio. En el segundo, el investigador selecciona a los individuos en función de unos criterios previamente establecidos. Otros
autores (Coyne, 1997; Patton, 1990), en cambio, consideran que, en última instancia, todos los procedimientos no probabilísticos tienen la característica común de
que el investigador es quien determina las particularidades que deben cumplir los
sujetos como candidatos óptimos para el estudio. Según este criterio, los distintos
procedimientos podrían clasificarse básicamente en uno: el muestreo intencional y,
dentro de él, se hallarían diferentes subtipos. Patton (1990, 2002) distingue un total
de quince variantes (tabla 8). Según este autor, el muestreo no probabilístico para
una investigación cualitativa debe basarse en la selección de sujetos que el investigador considere que pueden aportar información rica al estudio (lo que el autor
llama information-rich cases). Estos informantes serán aquellos sujetos que pueden
aportar más y mejor información sobre la investigación, permitiendo la adecuada
comprensión del fenómeno de interés.
1671
2. TÉCNICASDE MUESTREO
Tabla 8. Subtipos de muestreo intencional según Patton ( 1990, 2002)
TIPO DE MUESTREO
Muestreo de casos extremos
o inusuales
Muestreo de casos intensos
Muestreo de variación máxima
Muestreo de casos homogéneos
Muestreo de casos típicos
Muestreo intencional estratificado
Muestreo de casos críticos
Muestreo por bola de nieve
Muestreo de criterio
Muestreo teórico
Muestreo de casos confirmatorios
o desconfirmatorios
Muestreo oportunista
Muestreo aleatorio intencional
Muestreo de casos políticamente
importantes
Muestreo de conveniencia
CARACTERÍSTICAS
Selección de casos por sus características especiales. Son casos que
sobresalen del resto de sujetos de la población. A partir de estos
sujetos poco habituales se pretende obtener información sobre el
objeto o fenómeno de interés.
Se trata de un muestreo similar al anterior, pero los casos no llegan
a ser considerados casos extremos.
Selección de casos que presentan rasgos variables respecto al fenómeno de interés. Se trata de conseguir una muestra lo más heterogénea posible respecto a las características de los sujetos.
Al contrario que el muestreo de variación máxima, pretende construir una muestra que presente características homogéneas. Es el
tipo de muestreo utilizado en los grupos de discusión.
Selección de casos que presentan características habituales respecto
al conjunto de la población. Representan el promedio o la normalidad. No obstante, la definición de «típico» no se basa en la
normalidad estadística sino en la opinión de los informantes claves.
Sigue la lógica del muestreo aleatorio estratificado, aunque, a diferencia de este, el tamaño de los estratos es más pequeño y no
implica una selección aleatoria de los individuos. Se forman grupos
de sujetos homogéneos, lo que facilita la comparación entre ellos.
Se basa en una selección de casos que se consideran importantes y
representativos para estudiar el fenómeno de interés. Los informantes claves son los agentes capaces de identificar estos casos.
Los casos se seleccionan a partir de referencias de los sujetos que
inicialmente forman parte de la muestra. Los nuevos sujetos serán
los encargados de derivar a otros sujetos.
Se seleccionan los casos que cumplen una o más condiciones que a
criterio del investigador son importantes para el estudio.
La selección de casos se realiza de forma progresiva. Se parte de
una selección inicial, la inclusión de los siguientes casos va reconsiderándose en función de los datos. El muestreo se rige por la capaciclad de los casos para estudiar y elaborar los conceptos teóricos.
Este tipo de muestreo permite elaborar y profundizar en los conceptos y teorías emergentes, buscar excepciones y valorar la variabilidad de los sujetos. Los casos confirmatorios añaden información y credibilidad, mientras que los desconfirmatorios ayudan a
formar los límites y las excepciones a la regla.
La selección se lleva a cabo sin previa programación, aprovechando
las oportunidades de selección de casos que ofrece el trabajo de
campo.
Se selecciona una pequeña muestra de casos a partir de un procedímiento aleatorio con la finalidad de aumentar la credibilidad (no la
representatividad estadística) de la información recogida.
Se seleccionan los actores principales del fenómeno de interés que
intervienen directamente en la acción o en la toma de decisiones.
Los casos son seleccionados por su accesibilidad con el fin de reducir tiempo, costes y recursos.
168)
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO
INfORMACIONAL
De lo anterior se desprende que la literatura sobre los procedimientos no probabilísticos no muestra una clasificación unitaria. Parece lógica la opción de englobar
las diferentes variantes en un único tipo de muestreo, dado que todas comparten una
misma característica y es que se basan en el criterio del investigador. No obstante,
dadas las características particulares de cada procedimiento, a continuación se comentan de manera más amplia el muestreo accidental, el intencional, el teórico, por
cuotas y por bola de nieve.
2.3.1. Muestreo accidental
El muestreo accidental selecciona a los individuos en función de la posibilidad de
acceder a ellos y de su voluntad de participar en el estudio y no por el hecho de que
sean representativos de la población. En la clasificación propuesta por Patton (1990;
2002) este tipo de muestreo corresponde a un muestreo de tipo oportunista o bien
de conveniencia.
Formar muestras a partir de este procedimiento es relativamente rápido y barato,
pero se corre el peligro de que los individuos aporten información distorsionada y en
absoluto representen a la población de referencia. Es posible que, pese a que el tamaño de la muestra sea adecuado, el hecho de seleccionar los individuos a partir de este
procedimiento provoque un sesgo importante en los resultados obtenidos. Por lo que
los estudios que se realicen a partir de esta estrategia de muestreo deberán ser cautos
a la hora de interpretar los resultados que obtengan.
No obstante, por su comodidad y rapidez este tipo de muestreo es una estrategia
óptima para los estudios piloto o exploratorios, en los que se pretende recoger datos
de manera rápida para tener una idea general de lo que se quiere estudiar. Posteriormente se puede realizar una investigación con un procedimiento de muestreo diferente que permita un estudio más profundo. Este puede ser el caso de un estudio piloto
de un cuestionario, en el que se quiere valorar la adecuación de los ítems del instrumento administrándolo a una pequeña muestra, para posteriormente administrar el
cuestionario final a una muestra representativa. Imagínese una situación en que un
investigador ha construido un cuestionario para valorar el grado de satisfacción de
los usuarios sobre los servicios de una biblioteca, pero antes de realizar el estudio
quiere valorar la comprensión de los ítems. Para seleccionar a los usuarios, el investigador se traslada a la biblioteca y propone a algunos sujetos que se encuentran en
el recinto que participen en el estudio contestando el cuestionario. La muestra estará
formada por todos los sujetos que finalmente accedan a ser entrevistados. Aunque
la muestra puede ser válida para valorar la comprensión de los ítems, se debe tener
en cuenta que este tipo de selección puede generar una muestra sesgada, por lo que
2. TÉCNICAS DE MUESTREO
[69J
no sería adecuada para el objetivo último del estudio: conocer la satisfacción de los
usuarios con determinados servicios. Es fácil suponer que los usuarios que visitan
la biblioteca en una hora y día determinados (cuando el investigador está presente)
no tienen por qué representar al conjunto de usuarios que utilizan la biblioteca. Los
usuarios finalmente seleccionados pueden tener características diferentes del resto de
sujetos que no asisten a la biblioteca en aquel momento. Otra fuente de sesgo es dejar
a criterio del investigador la selección de los sujetos a quienes se va a preguntar. El investigador de manera involuntaria puede escoger a aquellos individuos que presenten
una serie de características que considere «idóneas» para la realización del estudio y
evite la selección de otros (personas mayores, con algún tipo de discapacidad, personas que parezcan muy atareadas o con prisa, etcétera).
Otro caso de muestreo accidental sería aquel en el que la composición de la muestra se forma a partir de sujetos que acceden a un cuestionario desde una página web.
En este caso una biblioteca, con el fin de valorar la satisfacción de diferentes servicios,
incorpora un enlace en su página de inicio para que los usuarios puedan acceder
al cuestionario. Todos aquellos que entren a contestar el cuestionario formarán la
muestra del estudio. Sin embargo, no todos los usuarios utilizan o tienen acceso a la
web de la biblioteca, por lo que una buena parte de la población no podría acceder
al cuestionario y no quedaría representada en la muestra. Además, se sabe que las
personas que navegan por Internet tienen características diferentes de aquellas que no
usan Internet. Probablemente, los individuos que finalmente participen en el estudio
sean aquellos con mayor interés por la cuestión particular que se pretende estudiar,
presenten unas expectativas determinadas, tengan más tiempo para contestar el cuestionario o bien estén más motivados a participar en este tipo de estudios.
2.3.2. Muestreo intencional
El muestreo intencional, también denominado opinático, de iuicio o experto, añade
algunas restricciones respeto al muestreo accidental a la hora de aceptar la inclusión
de sujetos a la muestra. La principal característica de este tipo de muestreo es que el
investigador utiliza la experiencia o sus conocimientos previos, de un experto o de
la literatura disponible para decidir qué sujetos deben ser incluidos en la muestra.
Los sujetos son seleccionados porque son los que se consideran más adecuados para
lograr el objetivo del estudio. En ocasiones es recomendable generar una lista de
características que deberá tener el individuo para que sea considerado un candidato
óptimo para el estudio. Es un método simple, no requiere disponer de un listado exhaustivo del marco muestral y tiene la ventaja de que la muestra se puede conseguir
de manera rápida. Este tipo de muestreo contempla de manera clara la subjetividad
[70J
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO
INFORMACIONAL
del investigador a la hora de seleccionar los casos que investigará. Lo cual visto desde
la óptica de la investigación cuantitativa, que busca la representatividad estadística,
supondrá un sesgo en la composición de la muestra final.
La siguiente situación ejemplifica este tipo de muestreo: una biblioteca pública se
propone conocer las motivaciones de los usuarios adultos que hacen uso de la sala
de lectura. Con este objetivo, seleccionan un grupo de usuarios mayores de 18 años
con el objetivo de entrevistarlos. El equipo de investigadores decide que para asegurar que los usuarios conocen bien los diferentes aspectos de la sala de lectura, deben
cumplir una serie de requisitos: haber utilizado la sala como mínimo durante los
últimos seis meses, visitarla al menos una vez cada quince días y utilizar siempre material de la biblioteca (revistas, libros, cedés, etcétera). Los sujetos de la muestra serán
seleccionados entre los asistentes a la sala en diferentes momentos del día de lunes a
sábado. Seleccionar los sujetos en función de los criterios escogidos por el equipo de
investigadores asegura que los usuarios estén en mejores condiciones para participar
en el estudio, dado que la sala de lectura será para ellos un espacio conocido.
2.3.3. Muestreo teórico
El muestreo teórico está íntimamente ligado al desarrollo de la teoría fundamentada. Concretamente, la teoría fundamentada, desarrollada inicialmente por Glaser
y Strauss en 1967 (Glaser y Strauss, 1967), se basa en la idea de que de los datos
emerge la teoría. Se trata de un proceso iterativo de recogida de datos a partir de una
muestra inicial, un análisis de estos datos y una nueva selección de casos guiada por
los resultados obtenidos. Así, a diferencia de los anteriores procedimientos comentados, la selección de los individuos en el muestreo teórico no se realiza a priori del
estudio. El muestreo tiene lugar en diversos momentos temporales a lo largo de la
investigación y los criterios de esta selección pueden variar en función de los datos
recogidos y analizados hasta el momento. La inclusión de casos corre paralela a la
propia investigación. Los nuevos sujetos que van incorporándose al estudio se seleccionan en función de su capacidad para validar y desarrollar la teoría emergente. El
proceso continúa hasta que se llega a una saturación informativa o saturación teórica
en la que los nuevos sujetos dejan de aportar datos relevantes para el desarrollo de la
teoría (Strauss y Corbin, 1998).
Algunos autores consideran este tipo de muestreo como una variante dentro del
muestreo intencional (Ritchie, Lewis y El am, 2003; Coyne, 1997), dado que los sujetos son seleccionados en base a su capacidad para desarrollar y evaluar los conceptos
teóricos que van surgiendo. Así, en un primer momento, los sujetos son seleccionados
por su capacidad de proporcionar datos sobre el fenómeno que se pretende estudiar.
2. TÉCNICASDE MUESTREO
1711
Estos primeros datos se codifican y se analizan permitiendo la generación de categorías o conceptos teóricos. La selección de los siguientes casos se basa en su capacidad
para proporcionar información que permita contrastar la existencia de las categorías
o de los conceptos teóricos, así como redefinidos o concretarlos.
El siguiente ejemplo ilustra este tipo de muestreo: se pretende llevar a cabo un estudio para valorar si las herramientas 2.0 son consideradas útiles por la comunidad científica. Se valora si los investigadores utilizan este tipo de herramientas para su trabajo,
qué opinión les merecen y qué ventajas o reticencias encuentran a la hora de utilizarlas.
Para realizar el estudio se opta por entrevistar a investigadores y docentes de diferentes
universidades públicas. Se empieza a entrevistar a algunos catedráticos y titulares de
universidad con una larga trayectoria docente e investigadora. No se establece un número concreto de sujetos a entrevistar, se opta por ir entrevistando a diferentes sujetos
hasta que se consiga una variabilidad de opiniones amplia que permita un conocimiento
suficiente sobre el objeto de estudio. Después de entrevistar a tres investigadores, se
considera necesario incluir en la muestra a investigadores más jóvenes, con una carrera
profesional más corta y con perfiles más variados (perfil con una orientación más enfocada hacia la docencia, perfil más orientado hacia la investigación, etcétera). Después de
realizar quince entrevistas a diferentes investigadores se considera que se ha llegado a un
suficiente conocimiento de las diferentes opiniones que les merecen este tipo de herramientas, las razones de su uso o de su no uso. La saturación informativa se ha logrado
tras entrevistar a siete investigadores con una larga carrera profesional (tres investigadores tenían un perfil fundamentalmente investigador, dos investigadores un perfil más
docente y dos un perfil mixto) y a ocho investigadores jóvenes (tres investigadores tenían
un perfil investigador, dos investigadores un perfil más docente y tres un perfil mixto).
En este ejemplo se usa el muestreo teórico. La selección de los individuos de la
muestra arranca sin determinar cuántos sujetos serán necesarios. Tampoco se determina a priori si la tipología de los sujetos escogidos al inicio del estudio permitirá
estudiar el fenómeno de interés en toda su amplitud y complejidad. A partir de los
resultados de las primeras entrevistas se considera la necesidad de ampliar la tipología de sujetos a entrevistar para poder abordar el objeto de estudio en su conjunto.
La inclusión de sujetos finaliza cuando se considera que se ha llegado a una saturación informativa y los nuevos sujetos que pudieran incorporarse dejarían de aportar
información relevante.
2.3.4. Muestreo por cuotas
El muestreo por cuotas asegura que determinadas características de la población estarán representadas en la muestra. El muestreo homogéneo y el muestreo intencional
[721
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO
INFORMACIONAL
estratificado propuesto en la clasificación de Patton (2002) entrarían dentro de esta
categoría. Consiste en que el investigador previamente identifica una o varias características de la población que, en principio, son relevantes para el estudio (por ejemplo:
género, edad, nivel de estudios, etcétera) y determina cuántos individuos deben presentar estas características en la muestra. La selección de la muestra finaliza cuando se
logra el número de individuos necesarios para cada cuota. Este procedimiento presenta cierta similitud con el muestreo aleatorio estratificado, que también tiene en cuenta
determinadas características de los sujetos para formar parte de la muestra, pero se
diferencia en que la selección de los sujetos no se lleva a cabo de manera aleatoria.
A continuación se presenta una situación que ilustra este tipo de muestreo: una
biblioteca universitaria situada en un campus especializado en ciencias humanas y
sociales pretende estudiar a partir de un estudio de encuesta la percepción de los
estudiantes sobre los servicios que ofrece la biblioteca y sus necesidades. La idea que
se persigue es conocer cuál es la percepción de los estudiantes sobre los actuales servicios y las necesidades no cubiertas con el fin de identificar nuevos servicios necesarios
para la comunidad de usuarios. Dado que los estudiantes de las diferentes facultades
utilizan de manera diferente la biblioteca, se ha decidido seleccionar un número proporcional de sujetos entre los estudiantes matriculados en las tres facultades presentes
en el campus: formación de profesorado, pedagogía y psicología. Otra variable que
se considera importante para el estudio es el curso en el cual están matriculados los
estudiantes. Los investigadores consideran necesario diferenciar entre estudiantes de
primer curso de grado, de segundo a cuarto curso de grado y de posgrado (máster o
doctorado). La selección de los estudiantes se realizará entre los asistentes a la biblioteca en diferentes momentos del día, de lunes a sábado. Suponiendo que se quisiera
seleccionar una muestra de mil estudiantes, las diferentes cuotas podrían quedar repartidas como se muestra en la tabla 9.
Tabla9. Ejemplo de un muestreo por cuotas
FACULTAD
Formación de profesorado (25 % )
1 Pedagogía (30 %)
Psicología (45 %)
250 estudiantes
1300 estudiantes
450 estudiantes
CURSO
1." curso 2.º-4." curso
(50 %)
(42 %)
125
105
Posgrado
(8 %)
20
l!' curso 2.º-4.º curso
(42 %)
(45 %)
126
135
Posgrado
(13 %)
39
l!' curso 2.º-4.º curso
(48 %)
(36 %)
216
162
Posgrado
(16 %)
n
El investigador entrevistará a los usuarios siempre que estos cumplan las características indicadas. Ahora bien, cuando el investigador consiga la cuota máxima de
2. TÉCNICASDE MUESTREO
1731
sujetos en alguna de las categorías, dejará de incorporar nuevos usuarios en esa categoría y pasará a centrarse en la selección de las cuotas todavía no cubiertas.
Este ejemplo muestra cómo el muestreo por cuotas asegura que determinadas características, que se consideran importantes para el objetivo del estudio, estén incluidas en la muestra (facultad y curso académico). No obstante, la muestra que resulta
de este procedimiento puede presentar igualmente un sesgo por motivos parecidos a
los ya comentados en el muestreo accidental. El hecho de que el investigador decida
preguntar a uno u otro usuario puede provocar un sesgo en la composición final de la
muestra. Pese a la objetividad que se le presupone al investigador, este puede escoger,
de manera involuntaria, a aquellos usuarios que le parezcan «más adecuados» para
la investigación, o «más accesibles» o con «mejor predisposición» a participar, entre
aquellos usuarios que se encuentren en la biblioteca durante el tiempo en que él esté
seleccionando la muestra.
2.3.5. Muestreo por bola de nieve
El muestreo por bola de nieve consiste en seleccionar los sujetos a partir de las referencias aportadas por el primero o por los primeros sujetos a los cuales se ha tenido
acceso. El procedimiento empieza con uno o pocos sujetos y se completa la muestra
a partir de los vínculos de estos con otros sujetos. Así, la primera persona que se selecciona para el estudio sirve de enlace para incorporar la siguiente o las siguientes;
estas, a la vez, servirán de vínculo para incorporar otras y así sucesivamente. Este
método permite ir aumentando la muestra, como una bola de nieve, que al principio
es pequeña, pero que a medida que se hace rodar por la nieve se va haciendo más
grande. La incorporación de nuevos sujetos finaliza cuando se consigue el tamaño de
muestra prefijado o bien cuando la información que se obtiene de los nuevos sujetos
es redundante o deja de aportar datos relevantes para el estudio. Este tipo de muestreo se utiliza en poblaciones de difícil acceso en las cuales no hay un registro, como
por ejemplo, inmigrantes o personas con algún tipo de enfermedad o discapacitados
(personas ciegas, sordas, con problemas de lectura, con déficits cognitivos, etcétera).
A continuación, se presenta una situación que ejemplifica este tipo de muestreo.
En los últimos años, una biblioteca pública ha detectado un aumento importante
de los usuarios procedentes de otros países. Por esta razón, un equipo investigador
de la biblioteca se propone elaborar un estudio para conocer las necesidades informacionales de esta población. Los investigadores responsables del proyecto han
identificado un grupo pequeño de usuarios de diferentes nacionalidades y les han
administrado un cuestionario. Para conseguir el número de sujetos deseado para
el estudio, al finalizar el cuestionario los investigadores preguntan a cada usuario
[74]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAl.
si les podría indicar a otras personas, de su misma nacionalidad o de otra, que
puedan participar en el estudio. Los investigadores anotan el teléfono o el correo
electrónico de estos nuevos sujetos para ponerse en contacto con ellos e invitarlos
a participar en la investigación.
Una desventaja clara del muestro por bola de nieve es que el investigador depende
de los participantes para poder completar la muestra. Las derivaciones que se hagan
dependerán de la comprensión del estudio que estos hayan alcanzado. Solo si los
participantes conocen suficientemente la búsqueda que quiere llevar a cabo el investigador, podrán conducirlo a nuevos sujetos que puedan ser adecuados para completar
la muestra.
2.4. TAMAÑO DE LA MUESTRA
Al igual que se ha comentado que existen procedimientos de muestreo más acordes
en función de la naturaleza del estudio, el número de sujetos que debe estudiarse para
llevar a cabo un estudio depende en buena medida de si se trata de una investigación
de carácter cualitativo o cuantitativo.
En los estudios cualitativos, en donde la generalización de los resultados pasa a un
segundo plano, el tamaño de la muestra se basa en la capacidad de los datos obtenidos para dar respuesta al objetivo planteado. En estos casos, la muestra no necesita
tener un tamaño grande porque no persigue ser estadísticamente representativa de la
población. Así, es frecuente que el tamaño de la muestra de los estudios cualitativos
se establezca por la saturación de información y teórica que aporten los datos o bien
por cuestiones de coste.
Por cuestiones prácticas, los estudios cualitativos se basan en muestras pequeñas
por el coste económico y de tiempo que requiere la recogida y el análisis de los datos.
Obtener y analizar las respuestas de mil cuestionarios contestados a partir de una
web es perfectamente asumible para una investigación; en cambio, los costes se multiplicarían en el caso de que la recogida de datos se pretendiera realizar a partir de
una entrevista en profundidad cara a cara.
Otro de los aspectos que delimita el tamaño de muestra de los estudios cualitativos es la saturación informativa o teórica. La saturación se produce cuando la
incorporación de nuevos sujetos deja de aportar datos adicionales o información relevante para el estudio del fenómeno de interés. Este aspecto tiene especial relevancia
en el muestreo teórico, donde la selección de casos corre paralela a la investigación.
En los estudios cuantitativos el tamaño de la muestra se basa fundamentalmente
en tres aspectos: la precisión de la estimación, la certeza de esta estimación y la variabilidad de la característica que se pretende medir.
2. TÉCNICAS DE MUESTREO
[75]
El primer aspecto que debe plantearse el investigador es la precisión que se quiere
conseguir con los datos. Si lo que se persigue es estimar un parámetro de la población a partir del estudio de una muestra, se necesitará que los datos que se obtengan
de ella informen adecuadamente sobre la población. Se necesita que los datos sean
precisos. Sin embargo, al trabajar con muestras se debe asumir que siempre existirá
un error muestra}, una diferencia entre el valor obtenido a partir del estudio de las
diferentes muestras que pueden extraerse de la población y el verdadero valor en esta
población. El investigador debe decidir qué precisión quiere para sus datos. Por un
lado, debe valorar qué diferencia entre el valor obtenido en la muestra y el verdadero
valor de la población será asumible y a la vez resultará informativo y, por otro, qué
diferencia será excesiva y carecerá de valor informativo. Si el investigador exige una
alta precisión en los datos, necesitará más sujetos para estimar los parámetros de la
población, y al contrario, si su nivel de exigencia no es tan alto, aceptará una mayor
diferencia y el tamaño de la muestra podrá ser menor. Si por ejemplo se optase por
una diferencia de cuatro puntos, se aceptaría como una estimación aceptable aquella
que difiriera en cuatro puntos (por debajo o por encima) del verdadero valor de la
población. La distancia entre estos dos puntos, el valor mínimo y el valor máximo de
la estimación, se conoce como intervalo de confianza. Imaginemos que se quiere estudiar el porcentaje de usuarios que utilizan el servicio de préstamo cuando acuden a
una biblioteca universitaria. Si el resultado de la muestra aleatoria fuera que un 32 %
de los usuarios utiliza el servicio, el intervalo de confianza se situaría en realidad entre el 28 % y el 36 %. De esta manera, si se pudiese estudiar a toda la población de
usuarios, se obtendría un valor que oscilaría entre un 28 % y un 36 %.
El segundo aspecto que influye en el tamaño de la muestra es la confianza que
se desea depositar en que el verdadero valor de la población caiga dentro de este
intervalo de confianza. Como es lógico, se desea tener una confianza alta, por lo que
normalmente se trabaja con niveles de confianza entre el 95 % y el 99 %. Esto quiere
decir que de 100 muestras de igual tamaño que se extrajeran de una población, en el
95 % (o en el 99 %) de ellas el valor poblacional estaría dentro del intervalo. Solo se
aceptaría error, es decir que el verdadero valor de la población cayera fuera del intervalo, en un 5 % (o en un 1 %) de las muestras. Por supuesto, si se desea conseguir un
nivel de confianza alto (del 99 %) será necesario incluir más sujetos en la muestra, en
cambio, si el nivel de confianza es menor (del 95 %), el número de sujetos necesarios
será menor.
Por último, el tercer aspecto a tener en cuenta es la variabilidad que presenta la
característica que se pretende estudiar. Si la población es heterogénea respecto a la
característica que se quiere medir, será necesario incluir más sujetos en la muestra
para poder representar esta diversidad. En la práctica, son pocas las ocasiones en que
se conoce la diversidad de aquello que se pretende investigar, por lo que es habitual
[76]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL
trabajar con el supuesto de la máxima indeterminación, lo que equivale a asumir la
máxima variabilidad posible del parámetro que se pretende medir.
Es frecuente que una investigación pretenda abordar más de un objetivo a la vez y
valore más de una característica. No obstante, para calcular el tamaño de la muestra
el investigador deberá centrarse en una característica concreta que considere fundamental para el estudio (Lorh, 1999). El investigador deberá conocer (o bien suponer)
la variabilidad de esta característica en la población y decidir con qué precisión y certeza desea trabajar. Existen diferentes fórmulas para calcular el tamaño de la muestra
en función del parámetro que se desea estimar. En la práctica, las más utilizadas son
aquellas que calculan el tamaño de muestra para medias y proporciones. En cualquier
texto básico de estadística pueden consultarse estas fórmulas o bien puede optarse
por utilizar alguna de las muchas calculadoras en línea que pueden encontrarse en
la Red.
Por último, es importante señalar que contar con un tamaño de la muestra adecuado o con una muestra «grande» no es suficiente para garantizar la precisión del
estudio. Tal y como se ha ido comentando en los diferentes procedimientos de muestreo, una muestra mal seleccionada o no representativa, aunque sea grande, puede
provocar resultados distorsionados.
2.5. EJEMPLOS DE INVESTIGACIONES
Ejemplo 1. Necesidades de información generadas por los médicos de atención
primaria
Los trabajos llevados a cabo por González-González y otros (2005, 2006) estudian
las necesidades de información de los médicos de atención primaria a partir de un
estudio observacional. Se registra a partir de vídeo la consulta médica y se analizan
las preguntas que los médicos se plantean durante la visita al paciente, así como las
fuentes de información que utilizan para dar respuesta a estas preguntas. El estudio
tiene como población de referencia a los médicos de atención primaria. Los investigadores cuentan con un marco muestral bien definido que engloba a todos los médicos
de atención primaria de determinadas áreas de salud de Madrid, eliminando a médicos residentes, suplentes y a aquellos que participan en comisiones de investigación
y desempeñan labores docentes en la universidad. Concretamente, el marco muestral
construido se compone de 1.182 médicos de atención primaria. A partir de este marco muestral, los investigadores seleccionan la muestra de 208 médicos a partir de un
procedimiento aleatorio estratificado. Utilizan dos estratos: la ubicación de la consulta (zona rural o urbana) y la especialidad médica (médico de familia o pediatra).
2. TÉCNICASDE MUESTREO
[77]
La selección de las unidades muestrales se realizó mediante un muestreo aleatorio
simple utilizando el programa estadístico SPSS. De los 208 médicos invitados a formar parte del estudio, solo 112 aceptaron participar. Así, la muestra de médicos final
estuvo compuesta por 112 médicos, 90 médicos de familia y 22 pediatras. No se proporciona información sobre la composición final según la ubicación de la consulta
(rural o urbana). Se analizaron dos horas de grabación por médico y se recogieron
todas las preguntas que se formularon. Del estudio se desprende que las dudas más
habituales eran referentes a enfermedades infecciosas y a farmacología (19 % y 10 %
del total de preguntas). El 71 % de las preguntas requirió buscar información para su
resolución. Se resolvieron el 86 % de las preguntas en las que se buscó información
utilizando fundamentalmente el vademécum y libros de texto.
Este estudio presenta un ejemplo de muestreo estratificado. Se debe señalar que,
aunque se hace un muestreo de los médicos, en realidad la unidad de análisis del
estudio son las preguntas que estos formulan durante una consulta médica. En este
caso se analizaron todas las preguntas generadas por la muestra de médicos que participaron. En el proyecto previo al estudio (González-González, 2005) se determina
el número de preguntas que sería necesario recoger a partir del cálculo de tamaño de
muestra de proporciones. Los investigadores se proponen trabajar con una precisión
del 1,7 % y un nivel de confianza del 95 % y asumen que el tipo de pregunta más
frecuente supondrá un 9 % del total de preguntas. A partir de este cálculo determinan
que será necesario recoger 1.089 preguntas. Sin embargo, finalmente solo recogen
635 preguntas, dado que consideran que en este punto de la investigación se llega a
una saturación de la información.
Ejemplo 2. Factores que rodean la conducta de compra de libros y su relación
con la consulta de opiniones sobre libros en Internet
El estudio de Kuei y Yang (2008) valora los factores que rodean la conducta de compra de libros y su relación con la consulta de opiniones sobre libros en Internet. Los
autores utilizan la técnica de grupo de discusión para estudiar los motivos que llevan
a los consumidores a consultar estas opiniones así como el efecto que tiene esta consulta sobre la conducta de compra. Para conseguir la muestra publican anuncios en
las revistas de su universidad con el fin de captar a sujetos que de manera frecuente
consulten las opiniones sobre libros que otros publican en Internet. Una vez obtenida
la muestra, se organizaron diferentes grupos de discusión. Los miembros de cada
grupo fueron seleccionados en función de su similitud. Se organizaron grupos con
estudiantes de grado, con estudiantes ya graduados y con personas no estudiantes
derivadas de la población general.
[78]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO
INFORMACIONAL
En este estudio se utilizan diferentes procedimientos de muestreo. Inicialmente, la
selección de la muestra se realiza a partir de un muestro no probabilístico e intencional. La captación de los participantes se realiza a partir de anuncios y recomendaciones de amigos y colegas. Este tipo de captación hace que la inclusión de los sujetos se
base fundamentalmente en la posibilidad de acceder a los sujetos. No obstante, los
investigadores optan por utilizar un criterio para seleccionar a los participantes óptimos; no todos los voluntarios que muestren interés en el estudio serán incluidos en la
muestra, sino solo aquellos sujetos que manifiesten que de manera habitual consultan
en Internet las opiniones de libros realizadas por otros.
Una vez seleccionada la muestra, la composición de cada uno de los grupos de
discusión sigue un muestreo homogéneo (muestreo propuesto por Patton, 1990). Tal
como recomiendan diferentes autores (Margan, 1997; Edmunds, 1999), los participantes de los grupos de discusión deben tener características similares para lograr un
mejor flujo de información y participación de los miembros. Congruentemente, en esta
investigación, los participantes son ubicados en diferentes grupos en función de si son
estudiantes de grado, estudiantes ya graduados o bien sujetos de la población general.
2.6. RESUMEN
Se entiende por muestreo el procedimiento de selección de sujetos de una población
con el fin de formar una muestra. Se distingue entre procedimientos de muestreo probabilístico y no probabilístico. Los procedimientos probabilísticos utilizan la aleatorización para seleccionar a los sujetos. Su objetivo es formar muestras que presenten
un sesgo mínimo y permitan la generalización de resultados a la población de origen.
Los principales procedimientos son el muestreo aleatorio simple, el sistemático, el
estratificado y el de conglomerados. Los procedimientos no probabilísticos se basan
fundamentalmente en el criterio del investigador para seleccionar a los sujetos de la
muestra. Persiguen la representatividad del colectivo estudiado y conseguir una cierta
transferencia de los resultados, pero no en el sentido estadístico. En este capítulo se
han presentado las características del muestreo accidental, el intencional, el teórico,
por cuotas y por bola de nieve.
Determinar el número de sujetos de una investigación es un aspecto que dependerá del tipo de estudio que quiera llevarse a cabo. El tamaño de muestra de los estudios
cualitativos suele regirse por cuestiones prácticas y por la saturación informativa. En
cambio, en los estudios cuantitativos el tamaño de muestra se determina en función
de la precisión que se desee conseguir, del nivel de certeza de que el verdadero valor
poblacional se sitúe dentro del intervalo alrededor del resultado obtenido y de la
variabilidad de la característica que se pretende medir.
CAPÍTULO 3
LOS ESTUDIOS DE ENCUESTA
3.1. DEFINICIÓN Y ÁMBITO DE APLICACIÓN
La encuesta es una estrategia de investigación que aplica un procedimiento estandarizado con el objetivo de obtener información de una muestra de individuos que represente a una población o subgrupo relativamente amplio. La finalidad de un estudio
de encuesta es la de describir, explicar o bien predecir determinadas características de
una población. De la anterior definición es importante destacar los siguientes puntos:
Orientación a la consecución de unos objetivos previamente formulados. Estos
objetivos pueden responder a una mera descripción de la situación a valorar
(encuestas descriptivas) o bien ir más allá e intentar encontrar explicaciones
a la situación estudiada (encuestas explicativas), o incluso predecir cómo esta
situación se desarrollará en el futuro (encuestas predictivas).
Recogida de datos estandarizada a través de la construcción de un instrumento de
recogida de datos que se administrará procurando mantener las mismas condiciones para todos los individuos participantes en la encuesta.
Obtención de información estandarizada a través de la respuesta a las mismas preguntas de todos los participantes. Las preguntas se formularán de igual manera
para todos, en el mismo orden y preferentemente manteniendo la misma forma
de administración (con intervención de un entrevistador o de forma autoadministrada). De esta manera, se asegura que las respuestas puedan compararse.
Creación de un instrumento de recogida de datos a medida, el cuestionario, que
permitirá obtener la información de manera estandarizada. El cuestionario va
a permitir obtener tanto datos cuantitativos (valores numéricos sobre conductas, valoraciones, hechos concretos, etcétera) como cualitativos (opiniones,
observaciones, etcétera) sobre los aspectos que respondan a los objetivos planteados en la investigación.
180)
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL
Representatividad de las respuestas, puesto que el cuestionario se administrará a
una muestra seleccionada con el fin de que esta sea representativa (véase capítulo 2) del conjunto de la población.
En el ámbito de la información y documentación, la encuesta es el método que con
mayor frecuencia se ha utilizado en los estudios empíricos del área. Así lo demuestra el análisis secundario que Delgado López-Cózar (2000) realiza de las revisiones
bibliográficas que describen los métodos de investigación empleados en los últimos
treinta años del siglo xx. Igualmente, en el estudio del comportamiento informacional el cuestionario ha sido el enfoque metodológico más utilizado a la vista de las
revisiones de Julien y Duggan (2000), Hider y Pymm (2008) y Julien, Pecoskie y Reed
(2011 }. A grandes rasgos se observa que muchos de los estudios valoran las opiniones de usuarios, su satisfacción, conductas, intereses, etcétera, en determinados contextos y situaciones (Nicholas, Rowlands, Clark, Huntington, Jamali y Olle, 2008;
Parthasarathy y Bhattacherjee, 1998; Dickerson, Reinhart, Feeley, Bidani, Rich, Garg,
y Hershey, 2004; Sheehan, 2002; Smith-Mclallen, Fishbein, Hornik, 2011 ). Otros,
en cambio, pretenden conseguir evidencia empírica sobre aspectos de la práctica y
el desarrollo de distintas profesiones, en especial la de académicos y investigadores
(Curtís, 1997; Brown, 1999; Borrego, Anglada, Barrios y Camellas, 2007; Jamali y
Nicholas, 2008; Andrews, Pearce, Ireson y Lave, 2005; Baldwin y Rice, 1997; Dalton,
y Charnigo, 2004).
A pesar de la abundancia de estudios basados en la encuesta, en el ámbito del
comportamiento informacional, la aplicación de esta técnica no ha estado exenta de
críticas, principalmente por la falta de rigor con la que se han realizado algunos estudios. En este sentido, Menzel, ya en el año 1966, describía el hecho de que algunos
investigadores tenían buenas ideas, pero al desarrollar la metodología obtenían resultados de dudosa fiabilidad y validez debido a diversas carencias metodológicas como,
por ejemplo, muestreos incorrectos que ponían en duda la posterior generalización
de resultados. A este respecto, Wilson (1994 ), sin rechazar la vertiente cuantitativa de
la investigación, señala que, si se utilizan técnicas cuantitativas, estas deberían estar
bien aplicadas en cuanto a la selección de muestras representativas, a la obtención de
porcentajes de respuestas aceptables y al uso de técnicas estadísticas multivariantes
adecuadas. Por lo tanto, a la vista de las dificultades que a lo largo de la historia de
los estudios de usuarios ha encontrado la aplicación de la encuesta, antes de optar
por ella es necesario asegurar el máximo rigor en su planteamiento y valorar si es la
mejor opción para dar respuesta a los objetivos propuestos.
En general, un estudio de encuesta permite obtener una gran cantidad de datos
de un amplio abanico de individuos en un breve espacio de tiempo. Dado que se
trata de un procedimiento estandarizado, los estudios de encuesta permiten com-
3. LOS ESTUDIOSDE ENCUESTA
[81 J
parar los datos recogidos en diferentes momentos temporales y ver su evolución
a través del tiempo, examinar cómo el cambio de una situación contribuye a una
modificación en las respuestas de los individuos o incluso estudiar un mismo aspecto en áreas geográficas diferentes y analizar sus diferencias. Igualmente al partir de
muestras representativas, sus resultados y conclusiones pueden ser generalizados a
la población de referencia en condiciones similares y por lo tanto ayudar a tomar
decisiones que afectarán a esa población. Por ejemplo, un estudio de encuesta que
se lleva a cabo en una biblioteca podría repetirse de manera anual o bianual para
valorar la satisfacción de los usuarios con la colección. Sin duda, su análisis permitirá obtener una valoración de la adecuación de la colección a lo largo del tiempo.
Si en un momento dado se ha efectuado una inversión importante para aumentar el
fondo documental con el fin de ofrecer más variedad y calidad al servicio, el cambio
de situación probablemente refleje cambios de actitud y opinión sobre la colección.
Los resultados de un estudio de este tipo pueden ser igualmente interesantes para
comparar las respuestas de usuarios en diferentes áreas geográficas y comparar, por
ejemplo, las respuestas de usuarios de núcleos rurales aislados con otros que pertenecen a núcleos urbanos.
Sin embargo, antes de optar por el uso de esta técnica hay que tener en cuenta las
características de la población que se quiere estudiar. Dado que los datos se obtienen
a partir de la información proporcionada por un grupo de individuos, se hace imprescindible que estos posean determinadas competencias lingüísticas y, en concreto, que
sean capaces de comprender el cuestionario y que tengan capacidad suficiente para
elaborar y articular respuestas orales o escritas. Así, no es aconsejable llevar a cabo
este tipo de estudios en poblaciones con dificultades en la comunicación verbal, como
niños, personas analfabetas o con escasas capacidades lingüísticas.
Por otra parte, tal y como se expondrá a lo largo del capítulo, los datos que se
obtengan a través de una encuesta estarán condicionados tanto por la formulación
de las preguntas como la forma de administración del cuestionario y por el efecto del
entrevistador en el caso de encuestas personales cara a cara. Estos aspectos influirán
en la validez de los datos, así como en la veracidad de las respuestas emitidas por
los participantes. El objetivo será reconocer y minimizar el efecto de estos aspectos a
partir de una redacción metódica y minuciosa de las preguntas, así como de la selección y entrenamiento cuidadoso del entrevistador en el caso de que intervenga. Las
ventajas e inconvenientes concretos de un estudio de encuesta variarán, entre otros
aspectos, en función de la forma de administración del cuestionario que se aplique,
por lo que en los siguientes apartados se profundizará en los pros y en los contras de
cada método de administración.
(82]
MÉTODOS Y Tf:CNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL
3.2. FASESY PRINCIPALESELEMENTOSEN UN ESTUDIO DE ENCUESTA
Llevar a cabo un estudio de encuesta requiere seguir un proceso estandarizado que
se repite independientemente del ámbito de estudio o de la situación que se pretende
analizar. Tal y como se ha expuesto en el primer capítulo, un estudio de encuesta compartirá con otras técnicas de investigación algunas de las fases del diseño del estudio:
el planteamiento del problema a investigar, la revisión de la literatura, el desarrollo de
objetivos, la formulación de la hipótesis y la selección de una muestra.
El primer paso será el planteamiento del problema. Aquí se explicita qué es lo
que se quiere estudiar, lo que ayuda a concretar y definir el correcto diseño del
estudio. El siguiente paso obligado será la revisión de la literatura para valorar los
antecedentes sobre la situación planteada, trabajos que han estudiado situaciones
similares o bien trabajos no directamente relacionados con el tema a tratar pero
que ayudan a concretar, orientar y estructurar tanto teórica como metodológicamente el estudio. La revisión de la literatura cumple con un doble propósito: por
una parte, permite un mayor conocimiento de la situación, descubriendo lagunas
o interrogantes que han dejado los estudios previos y evitar ser redundantes en
aspectos que son bien conocidos y ya han sido tratados en profundidad; por otra
parte, la revisión de la literatura facilita la generación de ideas para proceder en las
siguientes fases del estudio, la selección de la muestra, la concreción de las dimensiones a tratar en el cuestionario, la redacción de preguntas, etcétera. Vale la pena
enfatizar la importancia que tiene revisar otros cuestionarios de estudios previos,
con el fin de basarse en instrumentos que han demostrado su eficacia o bien para
evitar cometer los mismos errores.
La fase en la que se desarrollan los objetivos tiene obvias implicaciones para las
siguientes fases del estudio: delimitación de la población de referencia, determinar el
tipo de estudio, la forma de administración, el diseño del cuestionario, la selección
de la muestra, etcétera. Pero es importante resaltar que las preguntas del cuestionario han de llegar a ser la operacionalización de los objetivos que en esta fase se
planteen.
El diseño del cuestionario debe estar basado en los objetivos del estudio, adecuado
a la población que se quiere estudiar y adaptado a la forma de administración que
se seleccionará. Una vez se han redactado las preguntas y las categorías de respuesta,
se han ordenado y se ha propuesto la mejor presentación de las mismas, es necesario
realizar una prueba piloto del cuestionario. La finalidad principal será comprobar
que las preguntas son adecuadas y suficientes para dar respuesta a los objetivos planteados en la investigación. Superada la prueba piloto, se está en disposición de iniciar
el trabajo de campo, es decir, la fase en la que se recogen los datos a partir de la administración del cuestionario a la muestra de individuos seleccionada.
3. LOS ESTUDIOSDE ENCUESTA
[83J
A medida que se van recogiendo los datos, estos serán introducidos en la base
de datos para su depuración y posterior análisis estadístico. El análisis estadístico es
evidente que debe ser posterior a la recogida de datos, pero no así su planificación. El
plan de análisis de los datos debe llevarse a cabo juntamente con la elaboración del
cuestionario. El análisis de la información obtenida a partir de las preguntas del cuestionario debe, de nuevo, asegurar que responde a los objetivos propuestos. El paso
final del estudio será la elaboración del informe. Tal como se ha tratado en el primer
capítulo, en este informe se presentará la información más relevante del estudio, los
resultados obtenidos y las conclusiones que se deriven.
A continuación se describe cada uno de estos aspectos siguiendo el orden cronológico en el que lógicamente ocurren. No obstante, tal y como se ha explicado,
no se trata de fases independientes, sino que en todo momento están relacionadas.
Por ejemplo, no es posible formular las preguntas de un cuestionario sin tener en
cuenta el modo en que se administrará o el análisis estadístico que finalmente se
llevará a cabo.
3.2.1. Elaboración del cuestionario
El primer aspecto a tener en cuenta en la elaboración de un cuestionario es que este
debe reflejar los objetivos que previamente se han planteado. En concreto, se deben
identificar los conceptos, conductas, acciones o situaciones implicados en el estudio
y traducirlos a indicadores y variables que puedan ser valorados y observados. Se
trata de operacionalizar aquello que se pretende medir para que el cuestionario
realmente permita valorar y observar aquello que se quiere estudiar. Por ejemplo,
si un centro tiene como objetivo estudiar la satisfacción de los usuarios con los
servicios que ofrece, lo primero que se debe definir es qué se considera satisfacción
y cómo esta puede ser valorada (¿a partir de la calidad percibid a en los servicios?,
¿por su efectividad?, ¿en función del grado de cumplimiento de los objetivos del
usuario?, etcétera). Se deberán determinar los aspectos del servicio que son relevantes para el usuario y que determinarán su satisfacción, por ejemplo la flexibilidad
en el servicio, su fiabilidad, la precisión, la competencia técnica del personal o la
accesibilidad y, por último, determinar la relación que se establece entre el usuario
y el servicio (conocimiento del servicio, para qué lo utiliza, con qué frecuencia, etcétera), con el propósito de conocer las razones que pueden explicar los resultados
de una mayor o menor satisfacción.
Un segundo aspecto que se debe tener en cuenta para una adecuada redacción de
las preguntas es la forma en que se administrará el cuestionario. Cada forma de administración tiene una serie de características y estas deben ser tenidas en cuenta a la
[84]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO
INFORMACIONAL
hora de redactar las preguntas y las alternativas de respuesta. Por ejemplo, cuando es
el propio individuo quien lee y contesta las preguntas sin intervención de un entrevistador, es posible generar preguntas más largas y con más alternativas de respuesta, ya
que podrá leer y revisar la pregunta tantas veces como considere. En cambio, cuando
el cuestionario es administrado por un entrevistador, justamente se deberán evitar
ítems con una redacción larga o con un elevado número de alternativas de respuesta.
De esta forma, se evita que el entrevistador deba repetir la pregunta para su correcta
comprensión o bien que el encuestado no recuerde alguna de las alternativas de respuesta.
Por último, es también necesario considerar las características de la población a
la que el cuestionario va dirigido. El vocabulario deberá adecuarse a los sujetos en
función del grado de conocimiento que presumiblemente poseen sobre aquello que se
pretende valorar. No será lo mismo dirigirse a profesionales que al público en general.
Otras características, como la edad o el nivel de estudios, también determinarán la
manera en que deberán formularse las preguntas.
3.2.r.r.
TIPOLOGÍA Y GENERACIÓN DE PREGUNTAS DE UN CUESTIONARIO
Existen dos grandes categorías de preguntas de un cuestionario o ítems: abiertos y cerrados. Los ítems abiertos son aquellos en los que no existen alternativas de respuesta
y el sujeto debe elaborarla. Dentro de los ítems abiertos se distinguen dos tipos: los
ítems de respuesta restringida, en los que se solicita normalmente un dato concreto, y
aquellos de respuesta extensa, en los que se requiere que el sujeto exponga de manera
más o menos amplia su respuesta (cuadro 6).
Cuadro 6. Ejemplo de preguntas abiertas
Respuesta restringida
Indique su fecha de nacimiento: __ / __ / ___ _
Respuesta extensa
¿Cuáles son las razones principales por las que no usa el servicio de préstamo?
Las principales ventajas de los ítems abiertos son que permiten obtener una
información más rica y extensa evitando el posible sesgo del investigador cuando
genera las alternativas de respuesta en un ítem cerrado. Como los participantes
pueden expresarse libremente sin estar limitados a unas determinadas alternativas
de respuesta, existe una menor reactividad a la pregunta. En este caso, los participantes no sienten que deben encasillarse en una alternativa de respuesta que quizá
no logra expresar todos los matices de su opinión. Las preguntas abiertas son muy
útiles en los estudios exploratorios, cuando no se tiene suficiente conocimiento de
3. LOS ESTUDIOSDE ENCUESTA
[85]
las posibles respuestas de los encuestados para generar las alternativas de respuesta
de un ítem cerrado.
No obstante, las preguntas abiertas tienen más tendencia a dejarse en blanco,
sobre todo en los cuestionarios autoadministrados (Groves, Dillman, Eltinge y Little, 2002). Son preguntas que requieren un mayor esfuerzo, dado que el sujeto debe
organizar las ideas y expresarlas en un orden y manera coherente. Se observa que
con frecuencia desencadenan respuestas poco ajustadas a lo que se pregunta debido
a errores en la interpretación del ítem (Fowler, 2002). Desde el punto de vista del investigador, este tipo de preguntas son también más difíciles de interpretar y codificar,
puesto que, para analizarlas se requiere la creación de categorías de respuesta que
resuma las diferentes aportaciones del conjunto de participantes.
Los ítems cerrados son aquellos en los que el investigador genera las alternativas
de respuesta y el sujeto solo debe marcar cuál o cuáles de las opciones se adecua
más a su postura. Es necesario que las alternativas de respuesta sean exhaustivas
(contemplen todo el abanico de respuestas posibles) y mutuamente excluyentes (las
alternativas de respuesta no deben solaparse unas con otras, salvo que se trate de
una pregunta de elección múltiple). Existe una amplia variedad de posibilidades en la
redacción de los ítems cerrados, la tabla 1O recoge algunas de ellas.
Al contrario de lo que se ha comentado sobre los ítems abiertos, los ítems cerrados suponen un menor esfuerzo para el encuestado dado que las alternativas de respuesta ya están construidas y tan solo necesita escoger una o varias de las opciones.
Igualmente, para el investigador representa una interpretación fácil y rápida de las
respuestas, así como un análisis estadístico más sencillo.
Sin embargo, el hecho de dar por cerradas unas determinadas alternativas de respuesta puede provocar, por un lado, no recoger toda la información sobre aquello
que se pretende estudiar y, por otro, una mayor reactividad del encuestado. De hecho, al proporcionar las diferentes posibilidades de respuesta se le obliga al sujeto a
ceñirse a unas cuantas opciones que pueden no contemplar su verdadera postura. Si
la opinión del sujeto no está contemplada como una alternativa de respuesta, será
una información que no podrá ser recogida (sobre lo que no se pregunta, no podrá
ser contestado) y el sujeto puede sentirse frustrado por no poder expresar su opinión.
Otro aspecto que debe tenerse en cuenta es que la presencia de unas alternativas concretas puede influir en la respuesta del encuestado.
[86]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIO~AL
Tabla 10. Ejemplos de preguntas cerradas de un cuestionario
ELECCIÓN DICOTÓMICA
¿Para realizar su trabajo de bibliotecario cree necesario conocer las necesidades de información de los
usuarios?
D Sí
D No
ELECCIÓN POLICOTÓMICAESCALAR
¿Con qué frecuencia visita la biblioteca?
D Cada día
D Al menos una vez a la semana
D Al menos una vez cada quince días
D Al menos una vez al mes
D Al menos una vez cada seis meses
D De manera muy esporádica (una vez al año o menos)
ELECCIÓN POLICOTÓMICA DE ELECCIÓN MÚLTIPLENO ESCALAR
¿Cuáles han sido los motivos principales para visitar la biblioteca? (marque tantas opciones como
considere)
D Consulta del catálogo
D Consultar dudas con el bibliotecario
D Utilizar el ordenador
D Hacer fotocopias
D Utilizar el espacio de la biblioteca para estudiar
D Solicitar o devolver un documento en préstamo
D Otros motivos, especificar:
ESCALASGRADUADAS:LIKERT
¿En qué grado considera útil el curso? (1: poco útil, 7: muy útil)
D
1
D
2
D
3
D
4
D
5
D
6
D
7
ESCALASGRADUADASDE ACUERDO
Considero que el curso ha sido útil:
D Absolutamente de acuerdo
D Bastante de acuerdo
D Ligeramente de acuerdo
D Indiferente
D Ligeramente en desacuerdo
D Bastante en desacuerdo
D Absolutamente en desacuerdo
ESCALASGRADUADASDE FRECUENCIA
¿Cuando accede a la página web de la biblioteca utiliza el buscador?
D Siempre
D Usualmente
D Bastantes veces
D Raramente
D Nunca he utilizado el buscador
1871
3. LOS ESTUDIOSDE ENCUESTA
3.2.1.2.
RECOMENDACIONES
PARA LA REDACCIÓN DE LAS PREGUNTAS
Antes de pasar a la fase de redacción de las preguntas es muy recomendable revisar
otros cuestionarios que traten el mismo tema o similar y que sirvan de guía para
la redacción de las preguntas. En la mayoría de manuales que tratan el diseño de
cuestionarios se encuentran múltiples recomendaciones para mejorar la redacción de
preguntas y respuestas (Dillman, 2007; Foddy, 1993; Fowler, 1995, 2002; Graves,
Fowler, Couper, Lepkowski, Singer y Tourangeau, 2004 ). A continuación se detallan
algunas de estas recomendaciones referidas tanto a ítems abiertos como cerrados.
<1111
<1111
Utilizar una redacción sencilla.
Redactar las preguntas de manera breve pero evitar un lenguaje telegráfico
que pueda provocar confusión en la respuesta. Por ejemplo, un ítem como el
siguiente podría interpretarse de diferentes maneras puesto que no se especifica
si se está preguntando por la ciudad de residencia, por la ciudad dónde nació
o la ciudad donde trabaja:
Ciudad: _______
_
La siguiente redacción más precisa ayudaría a evitar errores de interpretación:
Indique la ciudad donde reside: ________
_
<1111
<1111
Utilizar un lenguaje adecuado a las personas a las que va dirigido el cuestionario. Evitar un lenguaje técnico y especializado si el cuestionario va dirigido a
usuarios y reservar un lenguaje más preciso cuando los sujetos sean profesionales con conocimientos amplios sobre el tema que se aborda.
Evitar términos abstractos que pueden ser interpretados de manera diferente
por los individuos (joven, grande, muy frecuente, caro, mucho, etcétera). El
siguiente ejemplo indica la ambigüedad de este tipo de términos, en este caso
recientemente para un sujeto puede indicar hace una semana, mientras que
para otro puede abarcar los últimos meses.
¿Ha solicitado algún libro en préstamo recientemente?
La pregunta puede ser fácilmente mejorada si se especifica un periodo de tiempo concreto.
¿Ha solicitado algún libro en préstamo en el último mes?
<1111
Formular preguntas en las que solo se pregunte una cosa a la vez. Por ejemplo, el
siguiente ítem no sería adecuado dado que se pregunta por dos cosas distintas al
mismo tiempo y, en cambio, solo se puede emitir una única respuesta.
(88)
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO
INFORMACIONAL
Valore la utilidad y la calidad de la formación recibida en el curso:
1
2
3
4
5
6
7
DO
D
D
D
D
D
En estos casos se recomienda realizar dos preguntas diferentes con el fin de
que el participante pueda dar su opinión para cada uno de los aspectos por
separado.
<111 Evitar utilizar condicionales o preguntar sobre aspectos hipotéticos. En el siguiente ejemplo, se observa que en primer lugar se tiene que dar el caso que la
persona utilice la biblioteca para poder contestar la pregunta:
En el caso de que utilices la biblioteca ¿con qué frecuencia utilizas el servicio
de préstamo de documentos (libros, revistas, DVD, cedés, etcétera)?
D Al menos una vez a la semana
D Al menos una vez cada quince días
D Al menos una vez al mes
D Al menos una vez cada seis meses
D De manera muy esporádica (una vez al año o menos)
<111
Diseñar la pregunta de manera que permita verificar que se ha leído y se ha intentado contestar la pregunta. En el caso de cuestionarios en que intervenga un
entrevistador, es necesario asegurar que este ha registrado todas las respuestas
emitidas por el encuestado. En el siguiente ejemplo, formado por una matriz
de preguntas, se acepta que el participante deje en blanco algunas, lo cual no
permite asegurar que se ha dejado el ítem en blanco por un olvido o despiste o
bien porque no aplicaba su respuesta:
Valore de 1 a 7 la utilidad que tienen para usted los siguientes recursos (deje en
blanco aquellos que no usa) (1: poco útil, 7: muy útil):
Bases de datos
Revistas electrónicas
Sumarios electrónicos
Guías temáticas
Guías generales de referencia
Prensa digital
1
2
3
4
5
6
7
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
1891
3. LOS ESTUDIOSDE ENCUESTA
Este problema tiene fácil solución si se incorpora la opción de «no uso ese
recurso» como una alternativa más de respuesta, tal y como aparece en el siguiente ejemplo:
Valore de 1 a 7 la utilidad que tienen para usted los siguientes recursos (deje en
blanco aquellos que no usa) (1: poco útil, 7: muy útil):
No lo uso 2
3
4
5
6
7
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
Bases de datos
Revistas electrónicas
Sumarios electrónicos
Guías temáticas
Guías generales de referencia
Prensa digital
~
o
o
o
o
o
o
Cuando se redacten preguntas de opinión, se debe intentar redactar la pregunta de una forma neutra. Se evitará añadir en el texto de la pregunta alguna consideración positiva o negativa respecto a la respuesta. Por ejemplo,
la siguiente pregunta incorpora una opción favorable en su redacción, lo que
puede motivar más respuestas favorables:
¿Considera adecuada la oferta de títulos disponibles en la actualidad?
D Sí
D No
Una redacción más neutra podría ser la siguiente:
Considera que la oferta de títulos disponibles es:
D Muy amplia
D Amplia
D Suficiente
D Reducida
D Muy reducida
~
Evitar preguntar sobre aspectos demasiado específicos y solicitar respuestas demasiado detalladas. Por ejemplo, preguntar ¿cuántos libros ha leído en el último
año? no sería adecuado. En el caso de que se pregunte sobre aspectos del pasado
se deberán proporcionar marcos temporales adecuados para que los individuos
puedan recordar con facilidad aquello sobre lo que se les pregunta. Para facilitar
1901
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO
INFORMACIONAL
el recuerdo se recomienda ofrecer información adicional sobre la situación que
se quiere valorar o bien contextualizar la pregunta. Otra alternativa es realizar
varias preguntas sobre el mismo aspecto con el objetivo de ayudar al recuerdo.
En cuanto a la redacción de alternativas de respuesta debe considerarse que su
número deberá variar en función de la forma de administración seleccionada. A continuación se exponen algunas consideraciones que la mayoría de manuales recomiendan tener en cuenta a la hora de redactar las alternativas de respuesta (Dillman,
2007; Foddy, 1993; Fowler, 1995, 2002; Graves y otros, 2004).
~
~
~
~
Se debe asegurar que las alternativas de respuesta sean exhaustivas, es decir, contemplen todas las posibles opciones de respuesta. En caso de que las alternativas
sean múltiples y no sea posible contemplarlas todas, se debe optar por incluir la
categoría «otros» y dar la posibilidad de que el encuestado detalle su respuesta.
Si solo puede marcar una única opción de respuesta entre las propuestas, es importante asegurar que las diferentes alternativas sean mutuamente excluyentes
y no se produzcan solapamientos entre ellas.
En el caso de encuestas telefónicas o encuestas en las que intervenga un entrevistador no se aconseja que el número de alternativas sea superior a cinco, con
el fin de evitar los efectos de primacía y de recencia (recordar solo las primeras
o las últimas opciones).
El número de alternativas de respuesta en escalas graduadas debe ser equilibrado, de manera que contenga el mismo número de categorías «positivas» y
«negativas». En el siguiente ejemplo se observa un desequilibro entre las alternativas de respuesta a favor de las opciones «positivas»:
Indique su grado de satisfacción en relación con los servicios ofrecidos por el
centro:
O Muy satisfecho
O Satisfecho
O Más o menos satisfecho
O Insatisfecho
~
~
Los adverbios de las escalas graduadas ubicados a uno u otro lado del continuo deben ser complementarios, respetando la correspondencia entre los extremos, sean estos absolutos (siempre/nunca) o no absolutos (muy frecuentemente/muy raramente).
Cada alternativa de respuesta solo debe contener una idea o aspecto para ser
valorado.
[91)
3. LOS ESTUDIOSDE ENCUESTA
En las escalas graduadas se debe valorar la necesidad de incluir o no un punto
central en las respuestas. Si las alternativas de respuesta se han diseñado de manera equilibrada, incluir un punto central en las respuestas (número impar de respuestas) implica que se incorpora una opción de indecisión o de respuesta neutral.
En las escalas tipo Likert numéricas, esta opción se indica con el número central
de la serie. En las escalas con adjetivos o adverbios graduales la respuesta puede
expresarse con diferentes términos: indiferente, indeciso, etcétera (tabla 11 ).
Tabla 11. Ilustración del punto central en una escala adverbial
y en otra tipo Likert
Escala adverbial
Totalmente de acuerdo
De acuerdo
Indeciso
En desacuerdo
Totalmente en desacuerdo
Escala Likert
1
2
Punto central
3
4
5
.... No existe un acuerdo claro sobre la conveniencia de incorporar una respuesta
central. Las personas que realmente no tienen una opinión formada sobre el
aspecto que se pregunta se pueden sentir forzadas a decidir, a favor o en contra,
y decantarse finalmente por dejar el ítem en blanco. Parece entonces razonable
incorporar un punto central cuando el aspecto que se esté valorando presente
una gradación en la que puede existir un punto de indecisión. No obstante, se
observa que cuando el punto central está presente resulta en un aumento de
respuestas neutras, supuestamente porque las personas optan por la vía rápida
de responder sin reflexionar demasiado sobre la pregunta o bien por no querer
manifestar de manera clara su postura.
.... Aplicando la lógica comentada en el punto anterior, en los cuestionarios autoadministrados se desaconseja incluir la opción «no sabe/no contesta», salvo
que realmente sea una cuestión que pueda ser desconocida por el que responde. En cambio, en los cuestionarios administrados por un entrevistador,
la opción puede incluirse para que, en el caso de que el encuestado la exprese
de manera espontánea, esta pueda ser registrada. Las razones son similares a
las comentadas en el apartado anterior. La inclusión de la opción «no sabe/no
contesta» puede llevar a un aumento de esta respuesta por no querer plantearse la pregunta de manera seria o evitar manifestar su opinión.
.... Evitar solicitar «marcar todas las opciones que considere» en los cuestionarios
autoadministrados sobre todo si incluyen numerosas opciones de respuesta. En
estos casos se observa que los participantes tienden a responder unas cuantas
1921
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL CO.MPORTA.MIEN'TO INFORMACIONAL
alternativas, normalmente a las primeras, y dejan de prestar atención a las
siguientes (Dillman, Tortora y Bowker, 1998). En el siguiente ejemplo se presenta una muestra de esta situación:
¿Qué servicios utiliza cuando visita la web de la biblioteca? Marque todos
los que considere:
D El catálogo
D Las revistas electrónicas
D Los libros electrónicos
D Las bases de da tos
D Las guías temáticas
D Los gestores de bibliografía
D Los enlaces a otras bibliotecas
D Pregunta al bibliotecario
D La lista de novedades
D Los blogs
D El préstamo
D El préstamo interbibliotecario
D Otros
3.2.1.3.
ESTRUCTURA Y DISEÑO DEL CUESTIONARIO
Una vez generadas las preguntas y sus correspondientes alternativas de respuesta, llega el momento de distribuirlas dentro del cuestionario. Lograr diseñar un buen cuestionario en cuanto al orden y estructura de las preguntas es de suma importancia con
el fin de minimizar el impacto de la no respuesta, reducir el efecto de la ubicación de
la pregunta en su respuesta y, en general, para que el cuestionario parezca interesante,
corto y sencillo de contestar. Esto tiene más importancia, si cabe, en el caso de los
cuestionarios autoadministrados, en los que no interviene un entrevistador. En estas
situaciones, si el diseño del cuestionario resulta atractivo, motivará al encuestado a
la lectura de las preguntas, le resultará más sencillo comprender qué es lo que se le
pregunta y cómo debe responder.
Respecto al orden en que se presentan las preguntas, las iniciales tienen la función
de introducir al encuestado en la temática y despertar su interés por participar en el
estudio. Cuando en la administración interviene un entrevistador, es recomendable
iniciar con una pregunta abierta para romper el hielo. Sin embargo, en los cuestionarios autoadministrados es preferible iniciar con una pregunta simple, cerrada y con
pocas alternativas de respuesta. Además, las preguntas iniciales deberían implicar a
todos los posibles perfiles de sujetos a los que se dirige el estudio con el fin de evitar
193]
3. LOS ESTUDIOSDE ENCUESTA
que nadie se sienta excluido y rechace contestar al cuestionario debido a que considera que su participación no es pertinente.
Las preguntas siguientes serán aquellas que se consideren claves para responder a
los objetivos del estudio y aquellas que requieran una reflexión más profunda como,
por ejemplo, preguntas de opinión.
Por último, si el cuestionario es autoadministrado, es conveniente reservar la última parte para las preguntas sociodemográficas (edad, profesión, situación laboral, nivel de estudios, ingresos, lugar de residencia, etcétera). En algunas ocasiones
y para algunos sujetos, las preguntas sociodemográficas pueden resultar incómodas
de contestar, por lo que situarlas al final, cuando se ha dejado claro los objetivos
que se persiguen con el cuestionario y se han contestado la mayoría de las preguntas
precedentes, hace disminuir esta reticencia. Este tipo de preguntas son básicas para
estudiar la relación que pueden tener con otro tipo de variables y obtener grupos de
comparación (por edad, nivel de estudios, etcétera) o bien generar diferentes perfiles
de usuarios que resuman las diferentes respuestas obtenidas.
Respecto a la estructura del cuestionario, existen diferentes recursos para conseguir atraer la atención del encuestado. Una estrategia es distribuir secuencialmente
las preguntas de manera que formen una batería o una matriz de preguntas que traten
sobre cuestiones similares. Estas preguntas se presentan bajo un enunciando común y
es posible introducir títulos o breves preámbulos para indicar la introducción de un
nuevo tema. Un ejemplo de este tipo de preguntas sería el del cuadro 7.
Cuadro7. Ejemplo de matriz de preguntas
Valore el grado de adecuación que para usted tienen los siguientes aspectos de la biblioteca
(1: poco adecuado, 7: muy adecuado):
Iluminación
Silencio
Climatización
1
D
D
D
2
D
D
D
3
D
D
D
4
D
o
o
5
D
o
o
6
D
D
D
7
o
o
o
La combinación de diferentes formatos de pregunta (abiertas, cerradas de distintos tipos, incorporación de matriz de preguntas, etcétera) ayuda a evitar la monotonía
del cuestionario y el cansancio del encuestado, manteniendo su interés y motivación
por el estudio. No obstante, se debe ser cauteloso, porque abusar de la diversidad de
ítems puede provocar el efecto contrario, y convertir la respuesta al cuestionario en
algo desconcertante y falto de unidad.
A continuación se exponen de forma resumida otras recomendaciones para el
diseño del cuestionario sugeridas por Dillman, Smith y Christian (2009):
[94]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFOR.MACIONAL
<1111
<1111
<1111
<1111
<1111
<1111
<1111
<1111
<1111
<1111
Utilizar un tipo y tamaño de letra que facilite la lectura.
El color del papel del cuestionario preferiblemente deberá ser claro y que contraste de manera clara con el color de la letra del texto.
Ordenar las alternativas de respuesta en sentido vertical.
Identificar las preguntas con un número.
Numerar las preguntas de manera secuencial de la primera hasta la última.
Proporcionar un espacio adecuado en las preguntas abiertas para que se pueda
responder con comodidad. El espacio que se deje para responder será la indicación de la extensión que debe tener la respuesta.
Proporcionar las instrucciones para responder a las preguntas en el momento
en que sea necesario. En el caso de que el cuestionario lo administre un entrevistador, se deberán resaltar adecuadamente estas instrucciones para que
puedan ser identificadas con facilidad por el entrevistador y no las omita por
error.
Indicar las preguntas filtro (aquellas que en función de su respuesta redirigen
a los encuestados hacia la siguiente pregunta que deben contestar) mediante
instrucciones claras y si es necesario utilizar elementos gráficos (flechas, líneas,
recuadros, etcétera) que ayuden al sujeto a orientarse hacia la siguiente pregunta que debe contestar.
Evitar resaltar partes o palabras de las preguntas con negrita o subrayado
puesto que dificulta que la pregunta se lea de manera lineal. Leer solo la parte
resaltada puede provocar errores en la interpretación de la pregunta.
Seguir las leyes de organización perceptiva descritas por los psicólogos de la
Gestalt (cuadro 8).
3.2.2. La prueba piloto
El cuestionario no puede darse por acabado hasta que haya sido revisado por medio de una prueba piloto. La finalidad de esta prueba piloto es comprobar que el
cuestionario tal y como ha sido diseñado es adecuado y consigue dar respuesta a los
objetivos planteados.
Esta fase puede aprovecharse también para conocer aspectos no suficientemente
conocidos por el investigador para posteriormente poder plantearlos por medio de
ítems cerrados. Estos aspectos pueden ser explorados a partir de preguntas abiertas
en esta fase y a partir de las respuestas de los individuos reformularse en una pregunta cerrada con diferentes alternativas de respuesta. Además, para los cuestionarios
administrados por un entrevistador, la prueba piloto en un grupo reducido de sujetos
puede servir de entrenamiento.
[95]
3. LOS ESTUDIOSDE ENCUESTA
Cuadro 8. Leyes de organización perceptiva
Ley de proximidad: uso adecuado del espacio entre preguntas y alternativas de respuesta para ayudar a
una rápida identificación de las mismas. De esta manera, los elementos que están próximos se perciben
como una unidad y se diferencian de aquellos que se encuentran más alejados.
Conforme a la ley de proximidad
Disconforme a la ley de proximidad
El uso que hace del equipamiento informático de
la biblioteca es de:
1. El uso que hace del equipamiento informático
de la biblioteca es de:
D Al menos una vez por semana
D Al menos una vez al mes
D Al menos una vez cada seis meses
D Una vez al año o menos
D Nunca lo ha usado
D Al menos una vez por semana
D Al menos una vez al mes
D Al menos una vez cada seis meses
D Una vez al año o menos
D Nunca lo ha usado
Ley de la similitud: uso de atriburos similares (color, forma, tamaño, etcétera) para que los elementos
se perciban de manera conjunta. El encuestado, a medida que va rellenando el cuestionario, va aprendiendo que determinados atributos del cuestionario transmiten informaciones diferentes: inicio de una
pregunta, lugar donde debe señalar la respuesta, donde puede encontrar instrucciones sobre cómo
debe contestar la pregunta, etcétera. En el ejemplo de la izquierda se utilizan diferentes formas, tipos
y tamaños de letra para distinguir cada una de las partes de la pregunta, lo que facilita la lectura y la
respuesta al ítem.
Conformea la ley de la similitud
Disconforme a la ley de la similitud
Habitualmente utiliza la biblioteca por:
2. Habitualmente utiliza la biblioteca por:
(marque tantas opciones como considere)
Motivos profesionales
Motivos académicos
Interés personal
Otros motivos. Especificar: ___
_
(marque tantas opciones como considere)
D Motivos profesionales
D Motivos académicos
D Interés personal
D Otros motivos. Especificar: ___
_
Ley de Pragnanz: las figuras que mantienen una simplicidad, regularidad y simetría son mejor percibidas y recordadas que aquellas que muestran irregularidades o son más complejas. Se puede apreciar
que un cuestionario que presentara las preguntas tal como se muestran en el ejemplo siguiente dificultaría la respuesta. En una situación de este tipo el encuestado debe plantearse cada vez cómo están
orientadas las alternativas de respuesta y cómo responder a la pregunta.
1. ¿Cuál es el horario habitual en que usa la biblioteca?
D Mañana
D Tarde
D Noche
2. ¿Cuál es el motivo principal de su utilización?
1. Solicitar información
2. Uso del equipamiento informático
3. Consultar las publicaciones periódicas
4. Estudiar
5. Hacer fotocopias
6. Consultar libros
7. Realizar una búsqueda bibliográfica
8. Otras razones (especificar): ____
¿El motivo por el cual acude a la biblioteca queda satisfecho?
( ) Siempre ( ) La mayoría de las veces ( ) Pocas veces ( ) Nunca
_
196)
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO
INFORMACIONAL
Algunos de los aspectos que deberán valorarse en una prueba piloto son:
<1111
<1111
<1111
<1111
<1111
<1111
<1111
<1111
<1111
Valorar que los encuestados entienden correctamente las preguntas.
Asegurar que los encuestados interpretan de la misma manera las preguntas y
las alternativas de respuesta.
Confirmar que el vocabulario es adecuado para el nivel cultural y el nivel de
especialización de los participantes.
Comprobar que las respuestas a las preguntas, especialmente en las abiertas,
son las esperadas.
Verificar que las respuestas muestran suficiente variabilidad. Las preguntas que
concentran las respuestas en una o dos alternativas son preguntas que no proporcionarán variabilidad y no permitirán la identificación de diferentes tipologías de usuarios o grupos con comportamientos diferenciales. Es recomendable
revisar la redacción o las alternativas de aquellas preguntas que concentran un
número importante de respuestas en una sola categoría. Especialmente si esta
concentración se observa en un punto central o en la categoría de no opinión.
Mediante la siguiente expresión, se puede calcular la preferencia por una alternativa de respuesta:
f.
Porcentaje de elección = ...!.• 100
n
Donde f¡representa la frecuencia de elección de la alternativa de respuesta y n
el total de respuestas emitidas.
Revisar que el orden o secuencia de las preguntas no afecta a la respuesta de
las siguientes preguntas del cuestionario.
Comprobar que las instrucciones son las oportunas y necesarias para poder
contestar el cuestionario adecuadamente.
Valorar el porcentaje de no respuesta de las preguntas. En caso de que algún
ítem presente un porcentaje de no respuesta más alto que el resto, se deberán
estudiar las causas y replantear la pregunta.
Comprobar que la duración del cuestionario es adecuada.
Tras la prueba piloto, será necesario corregir los errores detectados y verificar que
los cambios realizados mejoran el cuestionario. Posteriormente será necesario reevaluarlo antes de administrarlo a la muestra definitiva de sujetos.
La prueba piloto puede llevarse a cabo de diversas formas. A continuación, se
exponen algunas de las más comunes:
<1111
Consulta a expertos: los expertos pueden ser personas con una amplia experiencia en la construcción de cuestionarios o ser especialistas en el tema que se
3. LOS ESTUDIOSDE ENCUESTA
<1111
<1111
<1111
[97]
pretende estudiar. El procedimiento que se suele seguir es enviar el cuestionario
a un grupo reducido de expertos (tres o cuatro suele ser suficiente), para que
lo examinen, y al cabo de unos días, se programa una entrevista individual con
cada uno ellos con el fin de que puedan informar de los errores detectados o de
las posibles mejoras que pueden ser incorporadas.
Grupos de discusión: un grupo de participantes valora la adecuación de las
preguntas y detecta posibles dificultades en la cumplimentación del cuestionario. Los miembros de ese grupo pueden ser expertos o sujetos con características similares a la muestra que se pretende estudiar. En el capítulo 7 se trata con
más detalle esta técnica, por lo que derivamos al lector interesado en realizar
una prueba piloto de este tipo a la lectura de este capítulo.
Administración del cuestionario a una muestra reducida de sujetos: es el procedimiento que se emplea con más frecuencia. Consiste en administrar el cuestionario a una muestra reducida que, preferiblemente, comparta las características de la población de referencia que se quiere estudiar. La administración del
cuestionario puede realizarse con o sin mediación de un entrevistador, aunque
en algún momento deberá llevarse a cabo una prueba piloto siguiendo la misma forma de administración que se pretende llevar a cabo en el estudio. En
los métodos autoadministrados, al ser más económicos, es posible aumentar el
número de sujetos que participan en la prueba. Esto va a permitir la valoración
de aspectos más cuantitativos como la no respuesta al ítem o la variabilidad
de las respuestas.
Entrevistas cognitivas: consiste en solicitar al participante que verbalice en
todo momento los pensamientos que se le pasan por la cabeza mientras está
contestando al cuestionario (entrevista cognitiva simultánea). Otra versión de
la técnica consiste en que una vez el participante ha contestado el cuestionario
se le pide que explique las sensaciones, dificultades o dudas que ha tenido sobre las preguntas del cuestionario y aclare sus respuestas (entrevista cognitiva
retrospectiva). Este tipo de entrevista es muy útil para conocer los procesos
mentales que experimenta el encuestado en el momento de contestar al cuestionario y permite detectar errores de comprensión de las preguntas. Esta técnica debe llevarse a cabo en laboratorios o entornos controlados, donde puede
ser registrada la intervención del entrevistador y el encuestado para posteriormente ser analizada. Por su complejidad y requerimientos este tipo de prueba
piloto se realiza con pocos sujetos (unos diez o menos).
1981
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL
3.2.3. Administración del cuestionario
Finalizada la prueba piloto, se está en condiciones de iniciar la administración definitiva del cuestionario a la muestra seleccionada. Tal y como se ha avanzado en los
anteriores epígrafes, generalmente se distinguen dos formas de administración: cuestionario con intervención de un entrevistador y cuestionario autoadministrado. En
los siguientes a parrados se presenta cada uno de ellos. En el caso de las encuestas con
intervención del entrevistador se exponen las características principales de las encuestas cara a cara y telefónicas. Dentro de las encuestas autoadministradas se tratan las
encuestas por correo tradicional, encuestas web y encuestas en grupo.
3.2.3.1.
CUESTIONARIO
ADMINISTRADO
CON INTERVENCIÓN DE UN ENTREVISTADOR
a) Encuestas cara a cara
En la administración de una encuesta cara a cara interviene un entrevistador, preferentemente con experiencia en este tipo de estudios, con la función de realizar las preguntas y registrar las respuestas. Esta intervención permite acceder a personas cuya
participación en un estudio de encuesta puede ser difícil, por ejemplo personas con
problemas de audición, vista o problemas de lectura y comprensión. Además, de esta
forma será posible tener más certeza sobre que la persona que responde al cuestionario es realmente la persona que inicialmente ha sido seleccionada para participar,
aspecto sobre el que nunca se estará completamente seguro cuando el cuestionario
sea autoadministrado.
El papel que desempeña el entrevistador es de gran importancia para asegurar y
aumentar la validez de los datos. Este no puede variar la formulación de la pregunta,
pero puede detectar cuándo se comenten errores por la falta de comprensión de las
preguntas. Así, en los casos en que el encuestado responda algo que no esté incluido
en las opciones de respuesta, el entrevistador puede repetir la pregunta o bien solicitar que aclare su respuesta. El entrevistador puede percibir respuestas contaminadas
por otras preguntas, por la presencia de otras personas que pueden hacer variar sus
opiniones e incluso detectar si las respuestas parecen sinceras o si la persona está
perdiendo interés, se siente cansada o está distraída. Junto con lo anteriormente expuesto, las encuestas cara a cara son una buena alternativa para tratar temas de cierta
complejidad o cuestionarios largos con un número extenso de preguntas. Sin duda,
la actuación de un entrevistador experimentado proporciona una mayor naturalidad
al cuestionario, permitiendo una selección de las preguntas adecuadas en función de
las respuestas de los encuestados (las llamadas preguntas filtro), reduciendo así el
tiempo de la entrevista. No obstante, se debe tener en cuenta que la misma presencia
3. LOS ESTUDIOSDE ENCUESTA
[99)
del entrevistador puede provocar que la persona emita respuestas estereotipadas o
socialmente aceptadas ante determinadas cuestiones.
Comparadas con otras formas de administración, las encuestas cara a cara son las
que presentan un mayor porcentaje de respuesta. Principalmente, el contacto visual
que se genera entre el entrevistador y el encuestado aumenta la motivación a contestar y hace menos probable que este abandone la encuesta.
A la hora de plantear un estudio mediante una administración cara a cara, es importante tener en cuenta cómo se va acceder a la muestra, el calendario previsto para
el estudio, el presupuesto ylos medios humanos y materiales con los que se contará.
Si la muestra está dispersa en el territorio, repercutirá en el tiempo para completar el
estudio, así como en el coste económico. Para reducir el impacto de esta dispersión
geográfica de la muestra es posible optar por un muestreo por conglomerados. No
obstante, si el estudio tiene limitaciones presupuestarias y/o es necesario recabar los
datos con cierta celeridad, se desaconseja utilizar esta forma de administración y
optar por medios no presenciales, como la encuesta telefónica o bien formas autoadministradas como la encuesta por correo o electrónica. En el cuadro 9 se resumen
las principales ventajas y desventajas de las encuestas cara a cara.
Cuadro 9. Ventajas y desventajas de las encuestas cara a cara
VENTAJAS
•
•
•
•
•
•
Es posible acceder a determinados colectivos cuya colaboración sería inviable por otros medios.
El papel del entrevistador evita errores provocados por la comprensión de preguntas y posibilita
la congruencia de las respuestas.
Presenta un mayor porcentaje de respuesta total y al ítem.
Permite tratar temas complejos.
Permite diseñar cuestionarios más extensos.
Es posible obtener información sobre la conducta no verbal y sobre aspectos que rodean a la
administración del cuestionario.
DESVENTAJAS
•
•
•
•
Aumenta los costes económicos del estudio.
Aumenta el tiempo para la recogida de datos.
La presencia del encuestador puede provocar respuestas estereotipadas o socialmente aceptadas.
Posibilidad de cometer errores en la transcripción de los datos.
b) Encuestas telefónicas
Este tipo de encuestas son similares a las administradas cara a cara, aunque en este
caso no de manera presencial sino por teléfono. No obstante, las particularidades
del medio en que se desarrollan estas últimas hacen que deban considerarse aspectos
referidos al diseño del cuestionario y a la posible participación de algunos colectivos.
(100]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL
Cuadro 10. Ventajas y desventajas de las encuestas telefónicas
VENTAJAS
•
•
•
•
•
Presentan un menor coste económico que las encuestas cara a cara.
Posibilidad de obtener los datos del estudio en un breve periodo de tiempo.
Facilidad en acceder a los individuos a pesar de que la muestra esté dispersa por el territorio.
El papel del entrevistador permite evitar errores provocados por la comprensión de preguntas y
posibilita la congruencia de las respuestas.
Presenta un porcentaje de respuesta total y al ítem adecuado, aunque menor que las encuestas
cara a cara.
DESVENTAJAS
•
•
•
•
No es aconsejable utilizar cuestionarios largos.
La presencia del encuestador puede provocar respuestas estereotipadas o socialmente aceptadas,
aunque en menor medida que en la encuesta cara a cara.
Posibilidad de cometer errores en la transcripción de los datos.
No es posible obtener información sobre la conducta no verbal u otros aspectos que rodean la
administración del cuestionario.
En este sentido, es evidente que en las encuestas telefónicas no es posible proporcionar ayudas visuales para facilitar el recuerdo de las alternativas de respuesta, por lo
que será necesario evitar preguntas excesivamente largas y complejas o bien con un
número elevado de alternativas de respuesta. Por otra parte, se debe tener en cuenta
que las personas que presenten problemas auditivos, problemas de comprensión o
dificultad para la comunicación oral serán más reacias a colaborar en el estudio.
En comparación con la encuesta cara a cara, el uso de encuestas telefónicas permite reducir los costes del estudio y es posible una recogida de datos mucho más
rápida. En este sentido, deja de tener importancia el hecho de que la muestra esté dispersa por el territorio y los gastos por desplazamiento y dietas desaparecen. Aunque
el porcentaje de respuesta es menor que en las encuestas cara a cara, las encuestas
telefónicas permiten aumentar el número de contactos hasta conseguir localizar a los
sujetos sin incrementar excesivamente los costes del estudio (Dillman y otros, 2009).
Con el fin de disminuir la no respuesta, no se aconseja el uso de cuestionarios largos.
Mientras que una duración de veinte minutos puede ser adecuado para una encuesta
cara a cara, para una encuesta telefónica se considera excesiva.
Antes de decantarse por esta forma de administración es importante comprobar
previamente que el marco muestral disponible posibilita llevar a cabo el estudio. Por
ejemplo, no sería adecuado plantear una encuesta telefónica a los usuarios de una
biblioteca cuando los datos de que se dispone sobre sus números de teléfono no están
actualizados o son incompletos.
En el caso de que el marco muestra! esté actualizado resulta relativamente sencillo utilizar técnicas de muestreo probabilísticas. Los costes del estudio no se verán
aumentados aunque exista una dispersión de la muestra por el territorio, por lo que
3. LOS ESTUDIOSDE ENCUESTA
11011
será posible un muestreo aleatorio simple o sistemático, sin necesidad de recurrir a un
muestreo por conglomerados. En la cuadro 1O se resumen las ventajas y desventajas
de las encuestas telefónicas.
Las características de las encuestas cara a cara y telefónicas hacen que estén más
expuestas a presentar sesgos en sus respuestas. Aspectos como el hecho de administrarse oralmente, la intervención de un entrevistador para recoger los datos y que el
sujeto deba contestar al cuestionario en un espacio de tiempo y lugar concreto, entre
otros, afectan a la calidad de la respuesta. En concreto, los efectos de primacía y de recencia, aquiescencia y deseabilidad social tienen un peso más importante en este tipo
de encuestas que en las encuestas autoadministradas (Tourangeau, Rips y Rasinski,
2000). A continuación se comentan estos tres tipos de efectos.
En este tipo de encuestas es más evidente el llamado efecto de primacía y de recencia
a la hora de escoger las categorías de respuesta. En estos casos, en que no es posible la
utilización de ayudas visuales, se observa que es más frecuente la selección de las primeras o últimas alternativas de respuesta, por un efecto de recuperación de la información
en memoria. Así, las alternativas de respuesta que se perciben en primer o último lugar
son recordadas mejor que las intermedias, por lo que tendrán más probabilidades de
ser seleccionadas por los individuos. Una manera de evitar este fenómeno es reducir
el número de alternativas de respuesta con el fin de que todas puedan ser recordadas.
Un segundo aspecto que se observa en este tipo de encuestas es el llamado efecto
de aquiescencia,que se refiere a la tendencia de algunos sujetos a mostrar acuerdo (o
desacuerdo) con aquello que se pregunta independientemente del contenido del ítem (Lavrakas, 2008). En este sentido, la redacción cuidadosa de la pregunta y de las alternativas
de respuesta se ha observado que puede ayudar a paliar este fenómeno (Lepkwski, 2008).
Un último aspecto que se observa aumentado es el efecto de la deseabilidad social.
En concreto se observa que existe una mayor tendencia de algunos sujetos a contestar
de una manera más socialmente aceptada en comparación con su postura real. Los
entrevistados pueden proyectar una imagen más favorable de ellos mismos con el fin
de evitar una evaluación negativa por parte del entrevistador (Lavrakas, 2008). De
nuevo, una redacción meticulosa de los ítems junto con un adecuado entrenamiento
del entrevistador para evitar su influencia puede ayudar a conseguir que las respuestas sean más sinceras.
3.2.3.2.
CUESTIONARIO AUTOADMINISTRADO
a) Encuestas por correo
La encuesta por correo implica enviar a los sujetos de la muestra, por medio del
correo postal, una carta de presentación, el cuestionario, las instrucciones para cum-
1102)
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACJO:,.¡AL
plimentarlo, así como un sobre para remitir de vuelta el cuestionario contestado. La
finalidad es que el sujeto, cuando reciba la información, cumplimente el cuestionario
de manera autónoma, sin la presencia del entrevistador y lo remita de nuevo al investigador. El hecho de ser un método autoadministrado lo hace una alternativa económica. Se elimina el gasto del entrevistador, aunque se añade el gasto de las copias del
cuestionario, sobres y correo postal.
La no presencia del entrevistador hace imposible conocer en qué situaciones se ha
contestado el cuestionario (ruido, distracciones, influencia de otras personas, etcétera) e impide la resolución de dudas o aclaración de las preguntas. No obstante, un
cuestionario autoadministrado puede reforzarse con ayudas visuales (figuras, imágenes, gráficos, fotografías, etcétera) que ayuden a la comprensión o que faciliten el
recuerdo sobre aquello que se pregunta. Para facilitar la comprensión se recomienda
una redacción clara y sencilla de las preguntas, así como la incorporación de ítems
cerrados evitando una presencia excesiva de preguntas abiertas. En estos casos, con
frecuencia se observa que las preguntas abiertas acaban siendo inútiles para la investigación porque el sujeto interpreta mal la pregunta y contesta de manera incorrecta
o de forma no adecuada a aquello que se le preguntaba.
Sin duda, el mayor inconveniente de este tipo de encuesta es el alto porcentaje de
no respuesta al cuestionario y al ítem. Aunque es difícil conocer las causas de la no
respuesta, Groves y otros (2002) asocian distintas características de los sujetos como
responsables de la baja participación. Se observa que aquellos individuos con un bajo
nivel cultural y educativo, mayor edad o aquellos que se consideren poco relevantes
para el estudio presentarán un mayor porcentaje de no respuesta. Dado que las encuestas por correo muestran un porcentaje de no respuesta más alto que otras formas
de administración (Groves y otros, 2002), es necesario realizar varios recordatorios a
aquellos que no responden, para evitarla y lograr un porcentaje de respuesta suficiente. Esto último implica disponer de más tiempo para completar y recabar los datos
de la investigación.
Una ventaja clara de esta forma de administración es la sensación de privacidad
que percibe el sujeto sobre sus respuestas. El encuestado puede completar el cuestionario cuando considere y dedicarle el tiempo que necesite para reflexionar sobre
las preguntas, sin necesidad de compartirlas con el entrevistador. Tal como indica
Dillman (2007), la no presencia del encuestador hace que en este tipo de encuestas
se consigan respuestas más sinceras y se vean menos afectadas por el fenómeno de la
deseabilidad social. En el cuadro 11 se presentan las principales ventajas y limitaciones de las encuestas por correo postal.
3. LOS ESTUDIOSDE ENCUESTA
[103]
Cuadro 11. Ventajas y desventajas de las encuestas por correo postal
VENTAJAS
•
•
•
•
•
•
•
•
Menor coste económico respecto a los métodos en que interviene un entrevistador.
Facilidad de acceder a los individuos a pesar de que la muestra esté dispersa en el territorio.
Posibilidad de incorporar ayudas visuales que faciliten la comprensión.
Permite un número más elevado de alternativas de respuesta y preguntas más largas.
Permite una mayor reflexión en las respuestas.
Mayor sensación de privacidad de las respuestas.
Mayor sinceridad en las respuestas y menor deseahilidad social.
Posibilidad de aumentar el número de contactos sin aumentar el coste del estudio.
DESVENTAJAS
•
•
•
•
•
•
•
Imposibilidad de obtener información sobre cómo y quién ha rellenado el cuestionario.
Imposibilidad de aclarar dudas o precisar las respuestas.
Mayor porcentaje de respuesta total y al ítem.
Mayor no respuesta a preguntas abiertas.
Mayor presencia de respuestas ininteligibles en las preguntas abiertas.
Posibilidad de errores en la transcripción de los datos en la fase de codificación de datos.
Es necesario más tiempo para conseguir un porcentaje de respuesta adecuado.
b) Encuestas web
Las encuestas web son aquellas en las que se envía generalmente por correo electrónico
una invitación para participar en el estudio junto con un enlace para acceder al cuestionario. Además de los aspectos que se han comentado en el apartado anterior sobre las
encuestas por correo postal, esta forma de administración presenta algunas propiedades que la caracterizan. Respecto a las encuestas por correo tradicional, se economiza
aún más el proceso del estudio. En este sentido, no es necesario imprimir el cuestionario
y este se puede diseñar, si se prefiere, utilizando algún tipo de software específico.
Una de las ventajas más destacadas es la posibilidad de acceder a los datos en
tiempo real. La entrada de datos es automática, dado que, a medida que el sujeto
contesta el cuestionario, las respuestas se incorporan en la base de datos. De esta
manera, el acceso a los datos es mucho más rápido y se evitan posibles errores de
transcripción.
Este tipo de encuesta se distingue por su flexibilidad en el diseño. Permite incorporar ayudas gráficas complejas que faciliten la comprensión, tales como imágenes,
vídeos, fotografías, etcétera, así como flexibilizar el orden de las preguntas y que estas aparezcan en función de las respuestas previas (preguntas filtro). En este sentido,
aunque se diseña un único cuestionario, el orden o las preguntas que visualice cada
participante pueden variar en función de sus respuestas.
Esta flexibilidad resulta atractiva porque el diseño del cuestionario puede ayudar
a reducir errores producidos por falta de comprensión en las preguntas o bien a la
[104]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL
hora de responder a las cuestiones. En este sentido, se puede tener un mayor control
sobre las respuestas si el cuestionario se diseña para que solo acepte determinadas
respuestas como válidas o bien solo se permita señalar una única respuesta por pregunta. Por ejemplo, en un estudio sobre usuarios de una biblioteca universitaria,
cuando se pregunta sobre la edad, se pueden acotar los años a la franja de edad que
se considere válida, evitando respuestas que no se adecuen a la muestra estudiada.
En comparación con los cuestionarios autoadministrados en papel, las encuestas web
permiten, entre otros, reducir los errores producidos por la selección de más de una
alternativa de respuesta (cuando se solicitaba optar por una única respuesta) y descartar respuestas por caligrafías ininteligibles en las preguntas abiertas (lo que provocaría un aumento de la no respuesta al ítem).
A partir de las encuestas web es posible acceder a información adicional mediante
el estudio de los ficheros log. Concretamente, los ficheros log permiten conocer cuántas
personas han accedido al cuestionario, cuántas han abandonado tras contestar unas
pocas preguntas o incluso qué pregunta o preguntas provocan un mayor abandono
del cuestionario. A partir de los ficheros log se puede saber cuál es el promedio de
tiempo para contestar a las preguntas, cuándo contestan (día, hora, etcétera), desde
dónde contestan, etcétera. Estos aspectos pueden aportar información adicional sobre
la validez de los datos. Por ejemplo, si para responder adecuadamente el cuestionario
son necesarios unos diez minutos, podemos sospechar de la calidad de aquellos cuestionarios que han sido contestados en un tiempo demasiado breve. Probablemente, estos
cuestionarios correspondan a participantes que contestaron de manera inapropiada,
sin el suficiente interés y sus respuestas no proporcionen datos válidos para el estudio.
Sin duda, las encuestas web presentan características muy atractivas, lo que ha
provocado que en los últimos años se observe un aumento exponencial en su uso (Barrios, Cosculluela y Tubany, 2008). No obstante, hay que destacar que la aplicación
de esta forma de administración está supeditada a las características de la población
del estudio. En este sentido, si la penetración de Internet en la población de referencia
es medio-baja o su conocimiento del medio es limitado, se desaconseja este tipo de
administración. Además, otro aspecto que debe tenerse en cuenta es asegurar el correcto acceso a la encuesta independientemente de la plataforma o sistema operativo
que use cada participante. En algún momento del proceso será necesario verificar que
todos los sujetos puedan acceder a la misma información.
Este tipo de encuesta, al igual que en el caso de las encuestas por correo postal,
también se caracteriza por tener un alto porcentaje de no respuesta total. En este
caso, se intensifica el problema por cuestiones de abuso del recurso, el correo basura
y el miedo a los virus informáticos. Algunas investigaciones sostienen que este tipo de
encuestas presentan incluso un peor porcentaje de no respuesta total en comparación
con las encuestas por correo postal (Hayslett y Wildemuth, 2004; Manfreda, Bosn-
3. LOS ESTUDIOSDE ENCUESTA
[105]
jak, Berelak, Haas y Vehovar, 2008; Wolfe, Converse y Oswald 2008). Sin embargo,
otros trabajos indican que en determinadas condiciones y cuando se conoce que la
población destinataria presenta una buena penetración de Internet, las encuestas vía
web pueden conseguir un mayor porcentaje de respuesta (Barrios, Villarroya, Borrego y Ollé, 2011; Millar y Dillman, 2011; Kiernan, Kiernan, Oyler y Gilles, 2005). En
el cuadro 12 se presentan las principales ventajas y desventajas de las encuestas web.
Cuadro 12. Ventajas y desventajas de las encuestas web
VENTAJAS
•
•
•
•
•
•
•
•
•
Menor coste económico respecto a los métodos en que interviene un entrevistador.
Facilidad para acceder a los individuos a pesar de que la muestra esté dispersa en el territorio.
Posibilidad de incorporar ayudas visuales complejas que faciliten la comprensión.
Alta flexibilidad en el diseño del cuestionario y posibilidad de acotar las respuestas.
Mayor sensación de privacidad de las respuestas.
Mayor sinceridad en las respuestas y menor deseabilidad social.
Posibilidad de aumentar el número de contactos sin aumentar el coste del estudio.
Acceso a información adicional mediante el estudio de los ficheros log.
Los errores de transcripción de los datos desaparecen.
DESVENTAJAS
•
•
•
•
•
Mayor posibilidad de que algunos sujetos queden excluidos del estudio por su falta de acceso al
medio (error de cobertura).
Imposibilidad de obtener información sobre cómo y quién ha rellenado el cuestionario.
Imposibilidad de aclarar dudas o precisar las respuestas.
Mayor no respuesta total por abuso del recurso, el correo basura y el miedo a los virus informáticos.
Es necesario más tiempo para conseguir un porcentaje de respuesta adecuado.
e) Encuestas en grupo
Este tipo de administración se caracteriza por la reunión de un grupo de sujetos en
un momento y lugar concreto con el fin de que contesten a la vez el cuestionario de
manera autoadministrada. Durante la administración, un entrevistador está presente
para explicar los objetivos del estudio, las instrucciones para rellenar el cuestionario
y está disponible para resolver dudas y aclarar preguntas. Este tipo de administración garantiza un alto porcentaje de respuesta total, dado que, una vez las personas
se encuentran en el lugar donde se administrará el cuestionario, raramente rechazan
colaborar. Aunque interviene un entrevistador, el hecho de que la administración sea
colectiva reduce el coste económico del estudio respecto a las encuestas cara a cara o
por teléfono. Se ha de señalar que, en los casos en que el individuo deba trasladarse
para contestar al cuestionario, provocará un sesgo en la composición de la muestra,
la cual estará formada básicamente por individuos altamente motivados por el estu-
[1061
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIOJSAL
dio. De hecho, es frecuente que los estudios de encuestas en grupo utilicen muestras
accidentales, lo cual impide conocer la representatividad de esta muestra respecto a
la población.
Sin duda, la encuesta en grupo comparte buena parte de las ventajas comentadas
en apartados anteriores con los métodos autoadministrados (privacidad de las respuestas, posibilidad de incorporar ayudas visuales, bajo coste, menor efecto por la
mediación del entrevistado), y en aquellos en que interviene un entrevistador (evita
errores por fallos en la comprensión de preguntas, mayor colaboración de los sujetos,
menor porcentaje de no respuesta total, etcétera). En el cuadro 13 se resumen las
principales ventajas y desventajas de este tipo de administración.
Cuadro 13. Ventajas y desventajas de las encuestas en grupo
VENTAJAS
•
•
•
•
•
•
•
Menor coste económico respecto a las encuestas cara a cara y telefónicas.
Obtención de los datos para el estudio en un breve periodo de tiempo.
Posibilidad de incorporar ayudas visuales que faciliten la comprensión.
Mayor sensación de privacidad de las respuestas.
Mayor sinceridad en las respuestas y menor deseabilidad social.
Posibilidad de aclarar dudas o precisar las respuestas.
Menor porcentaje de no respuesta total.
DESVENTAJAS
•
•
Dificultad de conseguir muestras representativas.
Posibilidad de errores de transcripción de los datos.
3.2.4. Procedimiento para la administración del cuestionario
Sea cual sea la forma que se esté pensando para administrar el cuestionario, la fase
de administración debe ser planificada con detalle. En el caso de que en un estudio de
encuesta intervenga un entrevistador es un requisito indispensable que esté suficientemente entrenado antes de iniciar el trabajo de campo. Debe conocer de forma detallada los objetivos del estudio y además debe disponer de una guía de la entrevista en
la que se especifique el procedimiento para administrar el cuestionario.
Para el entrenamiento del encuestador pueden programarse las entrevistas con
roles cambiados, donde un encuestador hace de sujeto mientras otro desempeña el
papel de entrevistador o bien programar entrevistas con personas voluntarias u otros
miembros del equipo que participan en el estudio. Es importante atender las dudas o
situaciones complejas que pueden surgirle al encuestador, por lo que se recomienda
realizar reuniones periódicas entre los encuestadores y los miembros del equipo para
[107]
3. LOS ESTUDIOSDE ENCUESTA
tratar estas cuestiones. También es conveniente que el entrevistador disponga de una
ficha de campo del estudio para rellenar las cuotas de sujetos que va entrevistando.
En la tabla 12 se presenta un ejemplo de ficha de campo, donde se registran las cuotas
por edad y sexo.
Tabla 12. Ficha de campo de una encuesta
Edad
Hombres
Mujeres
18-30
31-40
41-55
56-65
1
2
3
4
5
6
7
8
9
10
1
2
3
4
5
6
7
8
9
10
Si se trata de un cuestionario autoadministrado por correo postal o web, se debe
tener en cuenta que estas formas de administración están asociadas a un mayor porcentaje de no respuesta total. Por este motivo, será necesario solicitar la colaboración
de los individuos de la muestra en diferentes ocasiones y, siempre que sea posible, por
diferentes vías (correo postal, teléfono, correo electrónico). De hecho, las últimas investigaciones indican que los procedimientos que consiguen un mayor porcentaje de
respuesta son los que utilizan diferentes medios para contactar con los participantes
(Converse, Wolfe, Huang y Oswald, 2008; Millar y Dillman, 2011).
El llamado tailored design method propuesto por Dillman a finales de la década
de 1970 (Dillman, 1978) propone un método para incrementar el porcentaje de respuesta en este tipo de cuestionarios basado en la teoría del intercambio social. Este
método implica que, además de presentar un cuestionario bien diseñado, mantener
una correspondencia personalizada con los encuestados e incluir algún tipo de recompensa, se contacte en diferentes ocasiones con los sujetos que no responden para
conseguir su colaboración. A continuación se presentan las características que debería incluir cada uno de los contactos para un estudio por correo postal:
• Primer contacto: en un primer contacto se recomienda enviar una carta de
preaviso una semana antes del envío del cuestionario explicando el objetivo
del estudio. Se considera que esta carta proporciona confianza respecto a los
siguientes envíos que contendrán el cuestionario y según diversas investigaciones (Dillman, Clark y Sinclair, 1995; Dillman, 1991), su uso aumenta la
probabilidad de que el sujeto participe en el estudio. En este primer contacto
se debería incluir información sobre:
1108]
MÉTODOSY TÉCNICASPARALA INVESTIGACIÓNDEL COMPORTAMIENTOINFORMACIONAL
•
•
•
•
•
Por qué se contacta.
La finalidad del estudio.
La utilidad de la respuesta para el propio individuo y para el estudio.
Dar las gracias por la futura colaboración.
Informar sobre si la participación se asocia a algún incentivo (regalo, sorteo, obtención de puntos, etcétera).
,. Segundo contacto: en este segundo contacto se acompaña la carta con el cuestionario. La carta debería contener la siguiente información:
• Solicitar la colaboración del sujeto.
• Explicar cómo el sujeto ha sido seleccionado para el estudio.
• Informar sobre la utilidad de la colaboración para el propio individuo y
para el estudio.
• Tratar aspectos sobre la confidencialidad de los datos.
• Comentar el carácter voluntario de la respuesta.
• Proporcionar una persona de contacto (teléfono, correo electrónico, etcétera) para que en caso de duda el sujeto pueda contactar.
• Informar sobre el calendario de respuesta.
• Agradecer la colaboración.
• Comentar si la participación se asocia a algún incentivo o bien, si el incentivo es directo (independiente de si el sujeto decide responder o no), enviar
junto con el cuestionario.
,. Tercer contacto: el tercer contacto permite agradecer a los que ya han contestado y a la vez sirve de recordatorio para aquellos que todavía no lo han hecho.
En el caso del correo postal, Dillman (2007) contempla este tercer contacto
como una postal de agradecimiento sin la necesidad de enviar de nuevo el
cuestionario. En el cuadro 14 se presenta un ejemplo de este tercer contacto.
Se trata de un correo electrónico que se envió a una muestra de investigadores
para participar en un cuestionario web.
,. Cuarto contacto: este cuarto contacto solo se envía a aquellos individuos que
todavía no han contestado e incorpora un tono de insistencia respecto a los anteriores mensajes. Algunos de los nuevos aspectos que el autor aconseja incluir son:
• Comentar que se ha recibido respuesta de otros usuarios pero se observa
que aún no se cuenta con la participación del sujeto.
• Insistir sobre la utilidad de su colaboración.
• Recordar, si existe, la recompensa que se asocia a la participación.
,. Quinto contacto: este representa el último esfuerzo para que el sujeto participe
en el estudio. En este contacto se recordarán aspectos similares de los contactos previos, aunque debe remarcase que el estudio debe finalizar y que esta será
la última posibilidad de participar.
J. LOS ESTIJDIOSDE ENCUESTA
[109]
Cuadro 14. Ejemplo de tercer contacto siguiendo el procedimiento del tailored design method
Apreciado Dr. XXX,
Hace unos días, le invitamos a participar en un estudio, que está llevando a cabo un grupo de investigadores de la Universidad de Barcelona, contestando un cuestionario sobre la investigación en España
dentro del área de neurociencias.
En el caso de que ya hubiera completado el cuestionario, quisiéramos agradecerle su colaboración. Si
todavía no lo hubiera completado, le animamos a hacerlo a lo largo de la próxima semana. Ello no le
llevará más de diez minutos y su respuesta permitirá realizar un diagnóstico de la actual situación que
se vive en España y, sobre todo, diseñar propuestas de mejora dentro de esta área de la ciencia.
Tal y como le comentamos en el anterior mensaje, los datos que nos proporcione serán tratados de
forma confidencial. Como gratificación por su tiempo participará en el sorteo de un lote de libros junto
con todas las personas que hayan contestado el cuestionario. Asimismo, si lo desea, el equipo investigador se compromete a enviarle los principales resultados una vez finalizado el estudio.
Puede acceder al cuestionario haciendo click sobre el enlace indicado a continuación:
http://XXXX.
Esperamos que pueda enviárnoslo antes del día 20 de abril del 2009. Si tiene cualquier duda o desea
ampliar cualquier información, puede ponerse en contacto con nosotros mediante el correo electrónico
mbarrios@ub.edu.
Agradeciéndole de antemano su colaboración, reciba un cordial saludo.
Dra. Maite Barrios
Investigadora principal del proyecto
Universidad de Barcelona
EA2007.O194@ub.edu
De Leeuw (2005) sugiere que una manera de aumentar el porcentaje de respuesta
es cambiar la forma de administración entre aquellos que no responden a los contactos iniciales. Cambiar la forma de administración ofrece una oportunidad adicional para contestar a la encuesta utilizando una vía de contacto que posiblemente se
adecue más a algunos de los participantes potenciales. En la última versión del tailored design method (Dillman y otros 2009), se propone como una alternativa válida
utilizar formas de administración mixtas (por correo, teléfono, correo electrónico,
etcétera) en el último contacto con el fin de obtener la respuesta de los que aún no
han contestado al cuestionario.
3.2.5. Codificación y depuración de los datos
Aunque se ha situado esta fase al final del proceso, los aspectos sobre codificación
y revisión de los datos deben preverse juntamente con la fase de diseño del estudio.
11101
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO
INFORMACIONAL
En primer lugar, a las opciones de respuesta de las preguntas cerradas se les debe
asignar un código que permita su posterior tratamiento (cuadro 15). En el caso de las
preguntas abiertas, su codificación se realizará partiendo del análisis de contenido de
las respuestas obtenidas y su codificación y clasificación en categorías similares (en
el capítulo 11, de análisis cualitativo, se trata este aspecto en mayor profundidad).
Para los ítems sin respuesta, se asignará un código numérico que indicará que no
se dispone del dato. Son los llamados valores ausentes o valores missing (del inglés
missing values). Generalmente, se asignan números que no pueden coincidir con los
datos obtenidos en el cuestionario, por ejemplo el valor -9.
Cuadro 15. Ejemplo de codificación de pregunta cerrada
¿Con qué frecuencia visita la biblioteca? (VAR. 1)
1
2
3
4
5
6
D
D
D
D
D
D
Cada día
Al menos una vez a la semana
Al menos una vez cada quince días
Al menos una vez al mes
Al menos una vez cada seis meses
De manera muy esporádica (una vez al año o menos)
A medida que se van obteniendo las respuestas, estas deben introducirse en una
base de datos diseñada para este propósito. Esto no será necesario si la respuesta
y el registro de la respuesta se realizan de forma simultánea como en el caso de las
encuestas realizadas a través de la web. No obstante, en el caso de que el registro no
sea automático, cada respuesta codificada debe ser introducida como variable en la
base de datos. En la figura 6 se presenta un ejemplo de matriz de datos. Cada fila de
la base de datos representa un sujeto y cada columna una variable. En el caso de las
variables, deberá asignársele un nombre con el fin de que se identifique fácilmente
con la pregunta del cuestionario a la que corresponde.
Figura 6. Ejemplo de matriz para la codificación de datos de una encuesta
Var.1
Sujeto 1
Sujeto 2
Sujeto 3
...
Sujeto n
Var.2
Var.3
...
Var.n
l 111)
3. LOS ESTUDIOSDE ENCUESTA
Para asegurar la calidad de los datos, una vez introducidos, es necesario realizar una revisión de la base de datos con el fin de corregir cualquier posible error.
Pequeños errores pueden causar distorsiones importantes en los resultados y en las
conclusiones del estudio. La mayoría de estos errores se deben al registro de los datos
por parte del encuestador, a la incongruencia en las respuestas de los sujetos o bien
a fallos en la fase de entrada de datos. Existen diversos procedimientos para revisar
la base de datos, los más habituales son la comprobación de los datos a partir de la
selección de una muestra de casos, la comprobación univariable y la comprobación
bivariable. A continuación se comenta brevemente cada una de ellos .
.,.. Comprobación de datos a partir de la selección de una muestra de casos
Consiste en seleccionar al azar un subgrupo de sujetos del total de casos introducidos en la base de datos (entre un 10 % y un 20 % suele ser suficiente) y
cotejar de nuevo el dato que se registró en el cuestionario con el introducido
en la base de datos .
.,.. Comprobación univariable
Consiste en analizar las variables a partir de tablas de frecuencias y gráficos
para comprobar si existe algún dato fuera del rango permitido. En la figura
7 se expone un ejemplo de cómo detectar errores a partir de una tabla de frecuencias.
Figura 7. Ejemplo de depuración univariable de datos
Género
Frecuencia Porcentaje
Válidos Hombre
40,8
89
Mujer
58,7
128
11,00
f,
11
1
Total
100,0
218
1
Porcentaje
válido
40,8
58,7
,5
100,0
Porcentaje
acumulado
40,8
99,5
100,0
~
Error
.,.. Comprobación bivariable
Permite valorar la coherencia entre las respuestas, en el caso de que la respuesta de alguna variable dependa de la respuesta previa en alguna otra pregunta.
Este tipo de comprobación puede valorase a partir de tablas de contingencia.
En la figura 8 se presenta un ejemplo de comprobación bivariable. Una de las
variables preguntaba sobre si el sujeto había acudido durante el último mes a
[112]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL
la biblioteca, mientras que la segunda variable preguntaba si se había tomado en préstamo algún libro en el último mes. Si la respuesta es negativa a la
primera pregunta (filas), la respuesta a la segunda pregunta ha de ser también
negativa (columnas). Por consiguiente, si el sujeto responde «No» a la primera
pregunta, no puede responder «Sí» a la segunda. Estos datos serán considerados errores y deberían ser eliminados de la base de datos.
Figura8. Ejemplo de comprobación bivariable de datos
Tablade contingencia
Ira la biblioteca
en el úhlmomes•
préstamo
en el últimomes
Recuento
préstamoen el último
No
Ir a la bibliotecaen
el últimomes
SI
36
126
162
IJ[]
Total
Total
90
128
218
Error
Finalmente, una vez se ha depurado la base de datos de errores, se está a punto
para iniciar el análisis estadístico con el fin de dar respuesta a los objetivos propuestos en el estudio.
3.3. ERRORES ASOCIADOS A UN ESTUDIO DE ENCUESTA
Principalmente son cuatro los errores que se comenten en un estudio de encuesta: el
error muestra!, el error de cobertura, el error de medida y el error de no respuesta.
Estos errores son inherentes a cualquier estudio de encuesta, pero está en manos del
investigador intentar minimizarlos en función de las características del estudio que
pretenda llevar a cabo.
El error muestra! es el resultado de estudiar un subgrupo de la población y no a
toda la población de interés. De hecho, solo se estudia una de las muchas posibles
muestras que podrían ser extraídas de la población. Esto supone que siempre se observará una divergencia entre la estimación que se realice de un determinado aspecto
a partir de los datos obtenidos de una muestra y el verdadero valor poblacional de
ese aspecto. El error muestra! depende fundamentalmente de dos factores: del tama-
3. LOS ESTUDIOSDE ENCUESTA
[113]
ño de la muestra y de lo representativa que sea la muestra de la población. Tal como
se ha presentado en el capítulo 2, trabajar con un tamaño de muestra adecuado y
utilizar técnicas de muestreo probabilísticas aseguran una mayor representatividad
de la muestra.
Una segunda fuente de error en los estudios de encuesta es el llamado error de
cobertura. Este error se produce cuando el marco muestral disponible no incluye la
totalidad de los individuos de la población. En esta situación es imposible conseguir que todos los individuos de la población presenten la misma probabilidad de
ser seleccionados para formar parte del estudio. Un ejemplo de error de cobertura
sería el hecho de que se quisiera realizar un estudio de encuesta vía web enviando
un cuestionario por correo electrónico a los usuarios adultos de la biblioteca con
carné. Si en la base de datos existen usuarios de los que no se dispone el correo electrónico, la omisión de estos a la hora de seleccionar la muestra daría lugar al error
de cobertura. Este tipo de error afecta a la representatividad de la muestra y abre
la posibilidad a introducir un importante sesgo en los resultados del estudio. La
importancia que puede cobrar el error de cobertura depende fundamentalmente de
dos factores: la proporción de sujetos afectados y las diferencias que existan entre
los individuos incluidos en la muestra y los no incluidos. En el primer caso, el error
de cobertura será mayor en función de la proporción de individuos de la población
que no estén presentes dentro del marco muestral. Se considera que la muestra irá
perdiendo representatividad respecto a la población cuanto mayor sea la proporción de individuos que no se encuentren dentro del marco muestra} disponible. El
segundo factor, hace referencia a la existencia de características diferenciales entre
los individuos presentes en el marco muestral y aquellos que no lo están, sospechándose que estas características pueden provocar respuestas distintas a las preguntas
del cuestionario.
El error de medida es otra fuente importante de error y se produce cuando la
respuesta del encuestado a las preguntas es errónea, inadecuada o imprecisa. Este
error se produce frecuentemente por errores en la construcción del cuestionario. Una
redacción de preguntas que conlleve interpretaciones erróneas o diferentes entre los
participantes o bien un uso de términos en las preguntas no suficientemente claro
llevarán a aumentar el error de medida. También la actitud o predisposición del encuestado al contestar el cuestionario, la influencia del entrevistador en las encuestas
cara a cara, el registro que se haga de las respuestas, así como la codificación de los
datos pueden provocar errores de medida. Como se ha comentado a lo largo del capítulo, las diferentes formas de administración del cuestionario tienen importantes y
diferentes efectos en este tipo de error.
Por último, el error de no respuesta ocurre cuando un número importante de individuos no contesta al cuestionario (no respuesta total) o bien no responde a alguna
l 1141
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL
de las preguntas (no respuesta parcial). Como en el caso del error de cobertura, si los
que no contestan presentan características diferenciales de aquellos que sí contestan
y las respuestas de unos y otros son diferentes, esto provocará un sesgo en los datos
obtenidos. La importancia del error de no respuesta depende de la proporción de
individuos que no contestan al cuestionario o al ítem en particular. Si esta proporción
es importante, provocará una disminución de la calidad de los datos, una pérdida de
la representatividad de la muestra obtenida, así como un sesgo en los resultados del
cuestionario.
La prueba piloto del cuestionario juega un papel básico para evitar muchos de los
posibles errores de medida y no respuesta. Por ejemplo, con una consulta a expertos
puede conseguirse una selección del vocabulario más apropiado, una redacción de
preguntas más adecuada e incluso evitar errores de especificación, es decir, aquellos
que se producen cuando alguna pregunta del cuestionario no se corresponde con ningún objetivo concreto del estudio. En cambio, con una administración del cuestionario a una muestra reducida se puede valorar la no respuesta parcial. Una no respuesta
al ítem puede indicar dificultades en la comprensión de las preguntas o bien en las
alternativas de respuesta.
3.4. EJEMPLOS DE INVESTIGACIONES
Ejemplo 1. El estudio del comportamiento informacional en la empresa
La investigación llevada a cabo por Marchand, Kettinger y Rollins (2000) que lleva
como título Navigating Business Success y recogida de manera mucho más extensa
en su libro Information orientation. The link business performance representa uno de
los trabajos más destacados sobre el comportamiento informacional dentro de la empresa. En el contexto en el que se realizó el estudio, las investigaciones sobre uso de
la información, capacidades de esa información y ejecución empresarial eran escasas,
por lo que en cierto sentido las conclusiones dieron pie a muchas otras publicaciones.
En concreto, Marchand y otros (2000), llevados por la falta de investigaciones empíricas y por la necesidad de recoger una cantidad importante de observaciones que
les permitiera desarrollar un modelo teórico, se decantaron por realizar un estudio de
encuesta de carácter internacional implicando a empresas de 22 países diferentes. El
objetivo que se propusieron fue estudiar cómo el uso de la información se relacionaba con una mejor actividad empresarial.
Inicialmente la muestra fue seleccionada a partir de un conjunto de 3.800 empresas públicas y privadas inscritas en la base de datos internacional de IMD que habían
participado en los últimos años en las actividades de la institución. Las empresas
3. LOS ESTUDIOSDE ENCUESTA
[115]
variaban en cuanto al número de años de existencia, tamaño (pequeñas, medianas
y multinacionales) y sector empresarial al que se dedicaban. De manera aleatoria se
invitó a 376 empresas a participar en el estudio y 103 (27 %) de ellas accedieron a
participar. A estas compañías se les pidió que identificaran a su directivos y encargados de departamentos o secciones para completar el cuestionario. En total la muestra
estuvo compuesta por 1.009 directivos y encargados de estas empresas.
El cuestionario se diseñó a partir de la literatura relacionada con la temática y, en
los casos en los que se consideró que la literatura no cubría las necesidades para generar las preguntas del cuestionario, estas se desarrollaron a partir de la experiencia
de los autores. El cuestionario fue valorado por numerosos académicos, investigadores y estudiantes de doctorado con el objetivo de valorar la validez de contenido del
instrumento y mejorar su presentación. En esta fase de construcción del cuestionario
se valoró también el significado de los términos usados en las preguntas y la duración
del cuestionario. Posteriormente, se realizó una prueba piloto con 151 directivos que
estaban realizando un curso en el IMD con la finalidad de asegurar la suficiente variabilidad en las respuestas y una correcta comprensión de las preguntas. De nuevo a
partir de esta prueba piloto se añadieron cambios que mejoraron el instrumento. El
cuestionario final estuvo compuesto por 58 ítems que pretendían valorar:
-'4 Las prácticas sobre tecnología de la información (13 preguntas).
-'4 Las prácticas en gestión de la información (19 preguntas).
-'4 Valores y comportamiento informacional (23 preguntas).
Los datos que se derivaron del estudio de encuesta fueron analizados a partir de
técnicas estadísticas cuantitativas avanzadas, como el análisis factorial confirmatorio
y modelos de ecuaciones estructurales. Sin duda, esta investigación es un excelente
estudio de encuesta en el que se cuidaron los detalles metodológicos más básicos y
que permitió dar una importante validez a los resultados.
Ejemplo 2. Conducta de búsqueda de información entre los pacientes oncológicos
Buena parte de la literatura de búsqueda de información se ha centrado en la búsqueda de información médica por parte de pacientes y familiares. En este sentido, la
investigación de Smith-Mclallen y otros (2011) se centra en el estudio de los factores
que motivan a los pacientes diagnosticados de cáncer a buscar información sobre su
enfermedad.
De una base de datos de 26.608 pacientes con cáncer se seleccionó una muestra
aleatoria estratificada por tipo de cáncer de 3.994 pacientes. A todos ellos se les
[116]
MÉTODOS Y TÉCNICAS PARALA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL
envió una carta de preaviso explicando el objetivo del estudio y solicitando su colaboración. Tres días más tarde se envió el cuestionario junto con una carta y dinero
en metálico como gratificación. Dos semanas más tarde se volvió a enviar la carta
junto con el cuestionario a aquellos que aún no habían contestado. El porcentaje de
respuesta fue del 60 % para los pacientes con cáncer colorrectal, 68 % para los de
cáncer de pecho y de 64 % para los de cáncer de próstata.
Un año más tarde se volvió a enviar un cuestionario de seguimiento a los 1.390 pacientes que respondieron en la fase anterior. Se recibieron un total de 1.049 respuestas,
lo que representaba entre un 82 % y un 83 % de respuesta entre los tres tipos de cáncer.
Ambos cuestionarios estaban formados por ítems cerrados. En el primer cuestionario, los participantes debían valorar lo probable que era que en los próximos doce
meses buscasen información sobre su enfermedad, utilizando para ello una escala de
tipo Likert de 1 a 7 puntos (1: muy improbable, 7: muy probable). Mientras que en
el segundo, enviado un año más tarde, debían indicar si habían buscado información
durante ese tiempo. Previamente al envío del cuestionario, se realizaron entrevistas
con pacientes diagnosticados de cáncer con el fin de valorar que las preguntas se
entendían correctamente.
El presente trabajo se diferencia de muchos otros que tratan sobre la misma temática por dos motivos: por el diseño del estudio y por su método. No es habitual
encontrar estudios de encuesta longitudinales y tampoco que este tipo de estudios
presente un porcentaje de respuesta tan alto en la segunda administración del cuestionario. Una de las razones de este éxito posiblemente se deba a una buena planificación del método y del instrumento de medida. En este sentido, los autores aplican
una modificación del tailored design method propuesto por Dillman (1978) y contactaron en diferentes ocasiones con los pacientes, lo que les permitió conseguir un
mayor porcentaje de respuesta.
3.5. RESUMEN
La encuesta es el procedimiento de investigación más utilizado en información y documentación y en concreto en el estudio del comportamiento informacional. Es una
técnica cuantitativa que persigue la generalización estadística de resultados a una
población de referencia. Se basa en el estudio de muestras representativas aplicando
un procedimiento estandarizado de recogida de información. La estandarización se
consigue tanto a partir del instrumento de recogida de datos, el cuestionario, como
a partir del procedimiento de recogida. No obstante, debe tenerse en cuenta que
cualquier estudio de encuesta presenta de manera inherente cuatro tipos de error:
muestra), de cobertura, de medida y de no respuesta.
3. LOS ESTUDIOSDE ENCUESTA
[1171
En el presente capítulo se describen las principales fases de un estudio de encuesta,
desde la elaboración del cuestionario hasta la depuración de la base de datos para
dar paso al análisis estadístico. Se presentan los tipos de ítems que son más utilizados
en los cuestionarios y las principales recomendaciones para una adecuada redacción
de las preguntas y las categorías de respuesta correspondientes. En la actualidad conviven diferentes formas de administración del cuestionario, cada una con sus peculiaridades, que presentan diferentes ventajas e inconvenientes. Fundamentalmente se
distinguen entre cuestionarios administrados con intervención de un entrevistador y
cuestionarios autoadministrados, donde es el propio individuo quien lee y contesta
las preguntas del cuestionario. Según la forma de administración el procedimiento
para llevar a cabo el estudio, el trabajo de campo, variará considerablemente. A lo
largo del capítulo se subraya cómo las diferentes fases y elementos de un estudio
por encuesta (el diseño del cuestionario, su forma de administración, la población a
la que va dirigida, etcétera) se influyen mutuamente. Una adecuada aplicación de la
técnica implica tener siempre presente estos aspectos, así como desarrollar estrategias
para minimizar los errores asociados a este tipo de estudios.
CAPÍTULO 4
ENTREVISTA
4.1. DEFINICIÓN Y ÁMBITO DE APLICACIÓN
Una entrevista es una forma de comunicación oral interpersonal que tiene como finalidad obtener información en relación a uno o más objetivos y en la que uno de
los intervinientes tiene el papel de entrevistador. Este proceso de comunicación se
desarrolla a partir de unas preguntas que tienen la finalidad de guiar dicha entrevista. En función de la estructuración y la posibilidad de variación de las preguntas
la entrevista se clasifica en no estructurada, semiestructurada y estructurada. De ese
modo, las preguntas pueden servir tan solo como una guía para el entrevistador con
el objetivo de que recuerde los temas o aspectos que deben ser tratados o bien formar un bloque de preguntas bien definido y del cual no es posible variar demasiado.
Este capítulo tiene algunos aspectos en común con el capítulo 3, donde se trató
el tema de los estudios de encuesta. Ambas técnicas, entrevista y encuesta, hacen uso
de un cuestionario y en algunos casos comparten la presencia de un entrevistador,
como es el caso de encuestas administradas cara a cara o por teléfono. Sin embargo,
a pesar de que ambas técnicas pueden compartir el instrumento de recogida de datos
y la vía de administración, las diferencias entre ellas son evidentes. En primer lugar,
los estudios de encuesta son esencialmente cuantitativos, su objetivo es cuantificar la
conducta, pensamientos, sentimientos, etcétera, de los usuarios. Para ello se valen de
una serie de preguntas bien definidas y de categorías de respuesta previamente establecidas (ítems cerrados). En cambio, la entrevista es una técnica básicamente cualitativa que pretende comprender el fenómeno que estudia a partir de la perspectiva del
entrevistado. Igualmente se vale también de preguntas, pero en esta ocasión no parte
de cuestiones preconcebidas y predefinidas de antemano, sino de preguntas preferentemente abiertas. Con este tipo de preguntas, se pretende obtener información de cómo
los individuos perciben y entienden la realidad desde su propia perspectiva. En el caso
de la encuesta, las preguntas son un instrumento para la recogida de datos en el que
(1201
MÉTODOS Y TÉCNICASPARA LA INVESTIGACIÓNDEL COMPORTA.MIENTOINFORMACIONAL
el entrevistador considera que dispone de suficiente información sobre el fenómeno
estudiado para proponer diversas alternativas de respuesta y valorar su peso a partir
de las respuestas de los sujetos. En la entrevista las preguntas funcionan como estímulo para los entrevistados, con el fin de que estos aporten la información necesaria
para comprender el fenómeno que se pretende estudiar desde su propio punto de vista.
Si las preguntas de una entrevista son esencialmente abiertas, difícilmente podrá
llevarse a cabo en muestras grandes, dado que el coste en tiempo y recursos sería
excesivo. Si la muestra no consigue un determinado tamaño, no podrá asegurarse la
suficiente precisión ni representatividad de los datos en la población de referencia. De
aquí se deriva la segunda diferencia básica y es que, mientras que el punto clave de un
estudio de encuesta es la representatividad de la muestra y la generalización de los resultados obtenidos a la población de referencia, el objetivo que persigue la entrevista
es fundamentalmente conocer el fenómeno que se pretende estudiar en profundidad.
En este sentido, Corbetta (2010) afirma que la entrevista no persigue la representatividad estadística, sino la representatividad sustantiva, la cual permite alcanzar una
comprensión global del objeto de estudio. Por consiguiente, no es necesario que los
sujetos sean seleccionados de manera aleatoria, sino que el mejor participante será
aquel que pueda proporcionar la información de manera más clara.
Existen numerosas situaciones en las que una entrevista es la técnica de investigación más lógica. Su utilidad radica en que permite obtener información sobre aspectos no directamente observables: pensamientos, actitudes, sentimientos, etcétera,
y para poder estudiar estos aspectos es necesario preguntar a los individuos. En este
sentido, tal como apuntan Arksey y Knight (1999), la entrevista es una técnica capaz
de hacer explícitos determinados aspectos que hasta el momento eran implícitos. El
fin que se persigue es llegar a comprender, desde la óptica del propio individuo, aquellos aspectos no observables que subyacen en su comportamiento.
Hasta hace relativamente pocas décadas la investigación sobre la técnica y su
uso en la investigación ha corrido por caminos distintos. Kvale y Birnkmann (2009)
destacan que, de manera paradójica, aunque la entrevista ha sido utilizada por
los investigadores de las ciencias sociales de manera extensa a lo largo de todo
el siglo xx, la referencia en los libros de texto como técnica de investigación o la
aparición de investigación exclusiva sobre la técnica cuenta con pocas décadas de
existencia. El cruce de caminos posiblemente se deba a Glaser y Strauss, pioneros
en la investigación cualitativa, cuando la incorporan como técnica de investigación
en su libro The Discovery of Grounded Theory: Strategies for Qualitative Research
(1967). A partir de su obra, se observa el aumento de monografías así como de
manuales sobre metodología que introducen la entrevista como técnica de investigación. En la actualidad, la entrevista es una técnica de investigación consolidada
dentro de las ciencias sociales que disfruta de un uso creciente y cuenta con una
4. ENTREVISTA
[121)
extensa literatura que aborda los aspectos metodológicos sobre cómo llevar a cabo
una entrevista de investigación.
Dentro de la disciplina de información y documentación y, en concreto, dentro del
estudio del comportamiento informacional, la entrevista se ha utilizado ampliamente
para dar luz a diferentes contextos. Su introducción dentro de la disciplina no dista
mucho de lo que se ha comentado en el párrafo anterior. En este sentido, encontramos
al final de la década de los años setenta el trabajo de Wilson, Streatfield y Mullings
(1979), sobre el estudio del comportamiento informacional de los trabajadores sociales británicos con el objetivo de conocer sus necesidades y hábitos informacionales
relacionados con su profesión. Este trabajo es la segunda fase de un estudio conocido
como estudio INISS (Jnformation Needs and Services in Social Services Departments),
en el que la entrevista fue la técnica que sirvió para validar los resultados obtenidos
de una fase anterior en la que se había aplicado la observación. En este caso los resultados de la entrevista sirvieron además para profundizar sobre diferentes aspectos
relacionados con la investigación. En el último epígrafe de este capítulo se describen
los detalles de la fase de entrevistas del estudio INISS. En general, la revisión de la
literatura muestra que la entrevista ha sido ampliamente utilizada como técnica para
el estudio del comportamiento informacional y las necesidades informativas de diferentes colectivos y en contextos muy diversos. Algunos ejemplos son los siguientes:
~
El estudio del comportamiento de búsqueda de información en situaciones de
la vida diaria (Julien y Michels, 2004) o académicas (George, Bright, Hurlbert,
Linke, St. Clair y Stein, 2006).
~ El comportamiento informacional dentro del ámbito de Internet ha sido ampliamente estudiado en los últimos años. En este contexto se encuentran los
estudios de Rieh (2004 ), que investiga el uso de Internet para la búsqueda de
información, o bien el de Savolainen y Kari (2004a, 2004b) sobre la valoración
de Internet entre aquellos que buscan información sobre las necesidades de su
vida diaria y para su desarrollo personal.
~ De manera más concreta, se encuentran el trabajo de Zhang (2008), que estudia la concepción de los estudiantes universitarios sobre Internet como sistema
de recuperación de información, o bien Kim, Park y Bozeman (2011), que
centran su investigación en el comportamiento de búsqueda de información
de los estudiantes utilizando este medio. Qayyum, Williamson, Liu y Hider
(2010) abordan la temática en adultos jóvenes, mientras que Ostrander (2008)
se centra en el comportamiento informacional de los usuarios de entornos
virtuales como Second Life.
~ El estudio de las necesidades de información de pacientes con diferentes patologías o bien las que presentan sus familiares (Andreassen, Randers, Naslund,
(122]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL
Stockeld y Mattiasson, 2006; Andreassen, Randers, Naslund, Stockeld y Mattiasson, 2005; Friis, Elverdam y Schmidt, 2003; Baker, 1998}.
_,..El perfil de búsqueda de información de profesionales tales como artistas (Cobbledick, 1996}, enfermeras (McKnight, 2006}, asistentes sociales (Cooper y
Urquhart, 2005} y médicos (Cullen, Clark y Esson, 2011) entre muchos otros.
Dentro de este campo, en el que se estudia el comportamiento informacional en
base al perfil profesional del usuario, se encuentra el trabajo de Landry (2006),
que estudia cómo Internet ha influido en el comportamiento informacional
en el colectivo de dentistas e investiga cuáles son las fuentes que seleccionan
para la práctica profesional. En el apartado de ejemplo de investigaciones se
estudian los detalles de esta investigación.
_,..Uso de recursos electrónicos entre los académicos (Stewart, 1996; Vibert,
Rouet, Ros, Ramond y Deshoullieres, 2007; Ollé y Borrego, 2010).
En este capítulo se van a exponer los diferentes tipos de entrevista en función del
grado de estructuración. A continuación se presentará la estructura básica de una
entrevista y cómo preparar y formular las preguntas. Posteriormente, se abordarán
las características de los agentes implicados (el entrevistado y el entrevistador} y se
tratará el modo de registrar y transcribir las conversaciones. Por último, se presentan
las principales ventajas y limitaciones de la técnica.
4.2. TIPOS DE ENTREVISTA EN FUNCIÓN DEL GRADO DE ESTRUCTURACIÓN
Fundamentalmente, se distinguen tres tipos de entrevista: no estructurada, semiestructurada y estructurada. Los elementos comunes de estas tres estrategias son básicamente dos: por un lado, la información se obtiene a partir de preguntas abiertas y,
por otro, se permite a los entrevistados responder libremente con sus propias palabras y desde sus perspectivas personales. En cambio, la diferencia básica entre ellas
radica en el grado de definición de las preguntas antes de iniciar la entrevista. Escoger
una u otra estrategia para la recogida de datos cualitativos depende en gran parte de
los objetivos de la investigación.
En las entrevistas no estructuradas normalmente las preguntas no están diseñadas
de antemano. El investigador conoce cuáles son los temas que quiere tratar, pero no
dispone de un listado de preguntas. Las preguntas serán diferentes para cada sujeto
que se entreviste y, en función de las capacidades comunicativas del entrevistado, será
necesario realizar más o menos preguntas. La función del entrevistador, por una parte, es la de estimular la respuesta del entrevistado con el fin de que aporte luz sobre
aquello que se pretende investigar y, por otra, evitar que la conversación se desvíe
4. ENTREVISTA
(1231
hacia otros temas o bien que el entrevistado divague en exceso. Así, se puede decir
que el entrevistador juega un papel de conductor de la entrevista, procurando que
la información que aporte el entrevistado en todo momento ayude a comprender el
fenómeno que se pretende estudiar. Este tipo de entrevistas son especialmente útiles
cuando el objetivo que se persigue es explorar un aspecto en profundidad sobre el
que se tiene poco conocimiento.
La entrevista semiestructurada se compone de una lista de preguntas que el entrevistador podrá ir adaptando en función del ritmo concreto que establezca con cada
uno de los entrevistados. El investigador tiene la libertad de variar tanto el orden
de presentación como el vocabulario o la redacción de las preguntas. La lista de
preguntas funciona como un guión en donde se especifican los aspectos que deben
tratarse y sobre los que se quiere obtener información. Por lo general, el entrevistador no abordará temas que estén fuera del guión, aunque, si surgen aspectos que se
consideren relevantes para la comprensión del fenómeno que se pretende estudiar,
tiene la libertad de abordarlos sin la obligación de que estos mismos aspectos deban
ser tratados en las siguientes entrevistas. En este tipo de entrevistas se permite que
los entrevistados presenten sus puntos de vista y sus opiniones de una manera más
extensa y detallada.
La improvisación y la flexibilidad juegan un rol importante en las entrevistas no
estructuradas y semiestructuradas. Asksey y Knight (1999) destacan las siguientes
ventajas en este tipo de entrevistas:
~
~
~
Es posible variar el orden de las preguntas para adecuarse de manera congruente a las respuestas del entrevistado, así como a los diferentes temas que
van surgiendo durante la entrevista.
Permiten modificar la redacción de la pregunta y adaptar el vocabulario a los
conocimientos del entrevistado, con el fin de facilitar la comprensión y proporcionar naturalidad a la entrevista.
El entrevistador puede acceder a que la entrevista se desvíe del tema si considera que la información que puede aportar el entrevistado puede ser útil para
dar luz sobre aquello que se investiga.
No obstante, esta flexibilidad hace que las entrevistas no estructuradas y semiestructuradas sean dependientes de las habilidades del entrevistador. Tal como indica
Wengraf (2002), este tipo de entrevistas requieren mucha más planificación y preparación que las entrevistas estructuradas, tal como se verá a continuación. En estos
casos, la improvisación requerida al entrevistador debe ser suplida por un mayor
entrenamiento, capacidad creativa y, en general, una buena preparación mental antes
de iniciar la entrevista.
11241
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL CO.MPORTAMIENTO INFORMACIONAL
En la entrevista estructurada, el investigador dispone de una lista de preguntas,
mayoritariamente abiertas. Las preguntas son las mismas para todos los participantes y el entrevistador no puede variar ni el orden de presentación ni su formulación.
El estímulo (la pregunta) debe ser igual para todos los participantes. Aunque la pregunta está diseñada de antemano, la respuesta de los encuestados es libre y se intenta
que estos se expresen utilizando sus propias palabras. Se intentará que la influencia
del entrevistador sobre el entrevistado sea mínima. Así, las preguntas se presentan
de manera oral, intentando mantener siempre un tono lo más neutro posible para
no influir en la respuesta. Este tipo de entrevista se utiliza cuando es importante
eliminar la variabilidad de las preguntas que se les presentan a los entrevistados.
Todos los participantes reciben la misma pregunta y en el mismo orden, por lo que
se considera que la comparación de respuestas y el análisis son más sencillos, dado
que la respuesta podrá ser localizada para todos los sujetos bajo la misma pregunta.
Patton (2002) considera que existen cuatro razones principales para usar la entrevista estructurada:
.,.. Como las preguntas están fijadas de antemano y no es posible modificarlas, el
cuestionario está disponible en todo momento para poder ser administrado a
otros sujetos o en otras investigaciones .
.,.. Se consigue minimizar las diferencias entre los distintos entrevistadores en
caso de que participe más de un entrevistador .
.,.. La entrevista está centrada en obtener una información concreta, lo que obliga
a que el tiempo invertido en la entrevista sea utilizado de manera eficiente y se
evite abordar otros temas fuera del guión establecido .
.,.. Es posible comparar las respuestas de diferentes entrevistados a las mismas
preguntas, por lo que se facilita el análisis de la información.
El punto débil de las entrevistas estructuradas surge justamente de su falta de
flexibilidad. El entrevistador no puede indagar sobre otros aspectos que considere
interesantes para el tema de estudio, por lo que todos aquellos aspectos que no hayan
sido anticipados durante la elaboración del cuestionario no podrán ser abordados
durante la entrevista.
No obstante, tal como sugiere Patton (2002), estas tres estrategias no son mutuamente excluyentes, sino que de hecho es bastante común combinar los diferentes
tipos de entrevista en una misma sesión. Por ejemplo, se puede iniciar la entrevista
con un formato estructurado y posteriormente pasar a un formato no estructurado o semiestructurado, permitiendo al entrevistador profundizar sobre aquellos
aspectos que se han considerado relevantes durante la fase más estructurada de la
entrevista. Otra posibilidad es la de iniciar la entrevista de manera no estructurada
4. ENTREVISTA
11251
y posteriormente pasar a focalizar la entrevista sobre determinados aspectos que se
consideren de interés a partir de preguntas estandarizadas comunes para todos los
participantes.
4.3. ESTRUCTURADE LA ENTREVISTA
Una entrevista puede ser dividida en cuatro fases diferentes: la fase preliminar, la de
apertura, el desarrollo y la finalización.
Es básico tener en cuenta, tal como señala Keats (2000), que lo que tiene lugar al
inicio de una entrevista es de suma importancia porque va a influir durante el resto
de tal entrevista. Esto implica establecer una buena relación con el entrevistado desde
el primer contacto. El primer contacto incluyen aquellas comunicaciones iniciales
que servirán para seleccionar a los participantes o bien aquellas conversaciones por
teléfono o cara a cara en las que se concretan la hora y el lugar donde se celebrará
la entrevista. En este sentido, un punto esencial en la fase preliminar es la selección
de un lugar para llevar a cabo la entrevista que sea suficientemente tranquilo y en el
que tanto entrevistado como entrevistador puedan sentarse cómodamente, sin riesgo
de ser interrumpidos o de que la conversación pueda ser escuchada por terceros. El
entrevistador debe contar con todo el material necesario: guión, grabadora, papel
suficiente para recoger cualquier aspecto que considere conveniente, pilas, etcétera.
A la hora de ubicarse frente a frente, ambos, entrevistado y entrevistador, deben disponerse de manera que se asegure que el entrevistado no pueda leer las preguntas del
cuestionario ni las anotaciones del entrevistador.
Algunos de los aspectos que deben tratarse en la fase de apertura son el objetivo
de la entrevista, para quién va dirigida la información, cómo esta va a ser recogida y
para qué servirá. Se debe describir cómo se llevará a cabo y, de manera aproximada,
en cuánto está prevista su duración. En esta fase también es necesario tratar aspectos
sobre la confidencialidad de la información e informar si se va a grabar la sesión. La
idea no es extenderse demasiado en estas explicaciones iniciales, pero la información
debe ser lo suficientemente concreta para que el entrevistado comprenda los aspectos
esenciales del estudio, acepte las condiciones de la investigación y sea consciente de
lo que se espera de él.
Las preguntas de tipo sociodemográfico se consideran ideales para esta fase de
apertura, porque ayudan a establecer un contexto relajado, así como establecer las
reglas que se seguirán durante el transcurso de la entrevista (pregunta-respuesta).
Durante el desarrollo de la entrevista deben plantearse los principales temas que
se pretenden tratar en función de los objetivos planteados. Una manera eficaz de
organizar las preguntas de la entrevista es por temas similares y posteriormente or-
[126]
MÉTODOS Y TÉCNICAS PARALA INVESTIGACIÓNDEL COMPORTAMIENTOINFORMACIONAL
denar los temas de manera lógica. En general los temas se van abordando a partir de
preguntas que van de lo más general a lo más concreto, siguiendo una combinación
de pregunta general y una serie de preguntas más concretas que ayudarían a abordar
el tema con más profundidad.
Patton (2002) recomienda que de manera ocasional durante la entrevista se resuman las ideas básicas que el entrevistado ha ido aportando durante la sesión. Es
una estrategia especialmente útil cuando se tratan aspectos complejos y puede ser
utilizada como método de transición entre los diferentes temas que se pretendan
abordar durante la entrevista. La idea es que, cuando se da por concluido un tema y
se pretende abordar otro distinto o bien cuando el entrevistador se quiere asegurar
de que ha entendido correctamente las aportaciones del entrevistado, se resuman las
ideas más relevantes que han ido surgiendo.
Cuando se llega a la fase de finalización, el encuestador debe comprobar que ha
formulado todas las preguntas programadas y que ha podido obtener la información
necesaria para dar respuesta a los objetivos planteados en el estudio. Igualmente,
es importante preguntar al sujeto si tiene alguna cuestión o aclaración que quiera
añadir, bien al finalizar el abordaje de un tema concreto o al finalizar la entrevista.
Keats (2000) subraya la importancia de relajar el tono cuando se acerca el fin de la
entrevista. El objetivo es que tanto entrevistado como entrevistador consideren que
su participación ha valido la pena y que se han alcanzado los objetivos propuestos
por ambas partes. En este punto es básico agradecer la colaboración que ha prestado
el entrevistado, su tiempo y sus aportaciones, es decir, finalizar en un tono positivo.
No obstante, es necesario estar alerta en estos últimos minutos de entrevista, pues en
ocasiones es cuando los entrevistados aportan sus contribuciones más significativas
(Keats, 2000). En estos casos, no es necesario que el entrevistador corra a anotar estas
últimas aportaciones, lo más recomendable es despedirse adecuadamente del sujeto y
posteriormente anotar las nuevas ideas.
El proceso de una entrevista es iterativo en su estructura, dado que requiere que
el entrevistador formule una pregunta, con un formato más o menos estructurado,
escuche y registre la respuesta del entrevistado, para pasar a continuación a formular
una nueva pregunta. Si el tipo de entrevista es no estructurado o semiestructurado,
se requiere que el investigador piense en la formulación de la siguiente pregunta en el
mismo momento en que el entrevistado esté respondiendo a la pregunta. Esto implica
que el entrevistador no solo debe escuchar y registrar la respuesta del entrevistado,
sino que, para continuar la entrevista de manera eficiente, debe ser capaz de formular
la pregunta siguiente, a partir de las ideas expuestas por el entrevistado, analizando
los elementos y pistas no verbales emitidos por él.
A pesar de todos estos retos, la entrevista se considera una herramienta capaz de
proporcionar datos sobre los puntos de vista, actitudes y percepciones que los indi-
4. ENTREVISTA
[127]
viduos experimentan. En los siguientes apartados se van a abordar las principales
consideraciones acerca de las preguntas de una entrevista, las habilidades y el papel
fundamental que juega el entrevistador en el proceso de una entrevista.
4.4. PREGUNTAS DE UNA ENTREVISTA
Las preguntas de una entrevista cualitativa son esencialmente preguntas abiertas,
con las que se pretende obtener información extensa y detallada del fenómeno
que se quiere estudiar. No existe una receta única para formularlas que sea válida
para todas las situaciones, pero se puede intuir que la pregunta no es buena si la
respuesta del entrevistado es escueta o no aporta los suficientes detalles. Desde los
inicios de la técnica han sido muchos los autores que han dedicado su esfuerzo
a mejorar el arte de formular preguntas proponiendo diversas reglas generales
(Payne, 1951; Dillman, 2007; Foddy, 1993, Fowler, 1995, 2002; Graves, Fowler,
Couper, Lepkowski, Singer y Tourangeau, 2004; Patton, 2002; Rubin y Rubin,
1995). Patton (2002) advierte de que algunos investigadores consideran erróneamente que para diseñar una pregunta abierta basta con excluir las categorías
de respuesta. Una pregunta del tipo ¿está satisfecho con el servicio de préstamo? o bien ¿cómo de satisfecho está? son preguntas engañosamente abiertas. La
pregunta que en realidad puede considerarse abierta es aquella que permite al
entrevistado responder con sus propias palabras sin ceñirse a la orientación que
se predispone en la pregunta. En el primer caso, ¿está satisfecho con el servicio
de préstamo?, la pregunta puede ser contestada con un simple sí o no, mientras
que en el segundo, ¿cómo de satisfecho está?, se puede responder a partir de unas
supuestas categorías del tipo: muy satisfecho, bastante satisfecho, insatisfecho,
etcétera. Para que estas preguntas se conviertan en preguntas verdaderamente
abiertas deben permitir al sujeto responder sin ceñirse a una dicotomía o a la
insinuación de unas posibles categorías de respuesta. Si se reformulan las preguntas de la siguiente manera: ¿cuál es su opinión sobre el servicio de préstamo? o
bien ¿qué piensa sobre el servicio de préstamo?, es evidente que ya no pueden ser
contestadas con un simple sí/no o una categoría concreta. Este tipo de preguntas
son las que realmente son las preguntas abiertas que deberían ser formuladas en
una entrevista; en ellas se requiere que el entrevistado elabore una respuesta con
sus propios términos.
Algunos de los aspectos comentados sobre la redacción de preguntas a los que se
hace referencia en el capítulo 3 de la encuesta son válidos también para la formulación de preguntas de una entrevista: utilizar un lenguaje adecuado para las personas
a las cuales se pretende entrevistar, evitar los términos abstractos o preguntar por
[128]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO
INFORMACIONAL
aspectos demasiado específicos que el sujeto no pueda responder, utilizar un lenguaje
neutro, o formular preguntas en las que solo se pregunte sobre una cosa cada vez,
etcétera. Estas son algunas de las consideraciones que deberían tenerse siempre presentes a la hora de redactar las preguntas de un cuestionario, independientemente de
la técnica que se esté empleando.
Es habitual que la formulación de preguntas de una entrevista siga una secuencia
cíclica en la que una primera pregunta sirve para introducir un tema y a esta le sigan
una serie de preguntas que permitirán profundizar sobre ese tema. Es lo que Kahn y
Cannell (1983) denominan preguntas primarias y secundarias. Cuando las preguntas primarias no son capaces de obtener toda la información deseada, es necesario
acudir a las preguntas secundarias, que permiten indagar sobre detalles concretos y
profundizar más en el tema. Así, el objetivo de las preguntas secundarias es que el entrevistado aporte nueva información sobre el tema de interés. Este tipo de preguntas
son de particular importancia en las entrevistas semiestructuradas y no estructuradas,
donde el protocolo de preguntas no está cerrado ni establecido a priori (Gillman,
2005). Algunos de los formatos más habituales de pregunta secundaria se exponen a
continuación:
<1111
<1111
<1111
Pedir al entrevistado que aporte más información sobre la respuesta inmediata
que ha proporcionado. Según Bernard (2000), posiblemente se trate del formato de pregunta secundaria más extendido entre los entrevistadores experimentados: ¿podría ampliarme este aspecto?, por favor, explíqueme más cosas sobre
este punto, ¿qué le lleva a pensar de esta forma?
Preguntar por aspectos más específicos sobre el tema que se esté abordando.
Este es el caso en que las preguntas secundarias deben abordar las razones, el
lugar o contexto donde ocurre una conducta concreta, los agentes que están
implicados, qué valoración le merece al sujeto o bien qué sentimientos le provoca, etcétera.
Solicitar una aclaración ya sea a la respuesta inmediata del sujeto, ya sea a
alguna aportación que ha realizado durante la entrevista. Es habitual que la
gente piense que con su respuesta ha sido lo suficientemente claro, saben lo que
quieren decir y presuponen que serán entendidos por otros. Sin embargo, lo
que no está suficientemente comprendido en una entrevista se puede clasificar
como lo «no dicho». Es por ello de suma importancia que el entrevistador
sepa identificar y aclarar los puntos que considera que no están suficientemente claros. Preguntas del tipo no estoy seguro de haberlo entendido, ¿puede
explicarme un poco más este aspecto?, antes me ha comentado [... ], ¿podría
explicarme un poco más este punto?, ayudan a que el entrevistado exprese de
manera más clara, extensa o coherente sus ideas.
4. ENTREVISTA
<111
(129]
Repetir las últimas palabras que ha dicho el entrevistado solicitándole que
continúe con el argumento de su respuesta. Entrevistado: «Sí, me considero
satisfecho». Entrevistador: «¿Se considera satisfecho?»
No obstante, no siempre las preguntas secundarias toman el formato de preguntas. En algunas ocasiones toman la forma de intervenciones que facilitan y animan al
entrevistado a aportar más información sobre el tema (Gillham, 2005). Valles (2002)
considera que este tipo de intervenciones más que preguntas son propiamente tácticas
que el entrevistador emplea en diferentes momentos de la entrevista para que el sujeto
prosiga, aclare o bien reconduzca su respuesta hacia el tema de interés. En este sentido, autores como Gorden (1969), Keats (2000), Kvale y Brinkmann (2009), Patton
(2002), Rubin y Rubin (1995) y Wengraf (2002), entre muchos otros, proponen el
uso de diferentes estrategias con el fin de favorecer que el entrevistado aporte nueva
información. En general, estas estrategias implican utilizar el silencio y las pausas, el
contacto visual, conductas de tipo no verbal como asentir con la cabeza, levantar las
cejas mostrando sorpresa o mostrar el rostro expectante o bien verbalizaciones del
tipo, «ah», «ya»,«continúe», «adelante». Se entiende que todas ellas son interpretadas por el entrevistado como una señal de que lo que se espera de él es que continúe
con su discurso y aporte más información.
Como se comentará más adelante, estas preguntas secundarias o aquellas estrategias que favorecen que el entrevistado aporte nueva información requieren por parte
del entrevistado una escucha activa. Esto implica que el entrevistador debe disponer
de una habilidad especial para escuchar lo que el entrevistado dice y de cómo lo dice
(Kvale y Brinkmann, 2009).
Para que la entrevista funcione como una conversación en la que de manera natural el entrevistado aporte la máxima información, es necesario que los temas se
vayan entrelazando de manera fluida y las preguntas se sucedan unas a otras de una
manera espontanea. Por ello a esta secuencia de pregunta y respuesta es necesario
introducir elementos que sirvan de transición entre los diferentes temas que se van a
ir abordando. Una de las estrategias más utilizadas es la de utilizar breves prefacios
entre preguntas primarias que sirvan de introducción y preparen al entrevistado para
el siguiente tema. Por un lado, esta estrategia ayuda a que la entrevista sea más fluida
y, por otro, permite que el entrevistado centre su atención sobre el siguiente tema
que se va a abordar proporcionándole tiempo extra para organizar sus ideas. Patton
(2002) propone diversas maneras de realizar esta transición entre dos temas distintos
durante la entrevista:
<111
Anunciar que una parte de la entrevista se ha contemplado y que se va a pasar
a otro punto:
[130)
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL
Hasta ahora hemos estado tratando los aspectos sobre cómo accede a la información científica disponible en Internet. Ahora me gustaría tratar algunos aspectos
relacionados con la organización de los documentos digitales a los que accede. ¿Qué
suele hacer cuando encuentra un documento que considera que puede ser interesante?
<1111
Resumir los aspectos que se han tratado hasta ese momento y preguntar al
entrevistado si quiere añadir algún aspecto antes de continuar con otro tema.
Este tipo de transición hace que el entrevistado sea consciente de que el entrevistador ha recogido toda la información que ha ido exponiendo y le permite
hacer aclaraciones, correcciones o bien añadir aspectos que no hayan sido suficientemente tratados.
Antes de pasar al siguiente tema, me gustaría repasar los aspectos que me ha ido
comentando sobre el tipo de información que le interesa y cómo accede a ella. Principalmente, consulta artículos de revista a partir de la base de datos ISI, porque le
resulta más cómodo acceder a la revista, aunque otra fuente importante es la consulta
de manuales, tanto electrónicos como en papel. En este caso, su propia biblioteca y la
del centro son las vías principales por las que accede a ellos [... ]. Bien, antes de pasar
a tratar cómo organiza toda esta información, ¿le gustaría añadir algún aspecto más
sobre este punto?
<1111
Anunciar el siguiente aspecto sobre el que se va a preguntar:
Ahora me gustaría tratar el tema de la organización de la documentación de que
dispone y que consulta habitualmente, en concreto sobre la digital, artículos, libros electrónicos, etcétera. ¿Qué aspectos cree que ha cambiado en la manera de organizar y ordenar este tipo de material electrónico respecto a la organización del material en papel?
<1111
Destacar alguna característica de la pregunta que se va a formular a continuación, como por ejemplo su importancia, dificultad, ambigüedad, etcétera:
La siguiente pregunta es difícil de contestar en términos generales porque posiblemente no actúe siempre de la misma manera y depende de cada contexto o situación en
la que se encuentre. Pero, por lo general, si encuentra un artículo por Internet que cree
que le puede interesar, ¿qué suele hacer con él?
Cada uno de estos elementos debe utilizarse a lo largo de la entrevista con cierto
criterio, de manera selectiva y estratégica, con el objetivo de que sirvan para hacer la
entrevista más interesante e interactiva. No en vano, Patton (2002) advierte de que
abusar del recurso o utilizar de manera repetida algún formato concreto pueden lle-
4. ENTREVISTA
[131]
var al efecto contrario, haciendo que la entrevista se convierta en una conversación
incomoda e incluso irritante para el sujeto.
4.5. HABILIDADESDEL ENTREVISTADOR
La calidad de la información obtenida durante una entrevista está altamente relacionada con el comportamiento del entrevistador. Tal como se ha ido exponiendo a lo
largo del capítulo, para realizar una buena entrevista no es suficiente disponer de un
buen listado de preguntas, sino que, además, se debe contar con un entrevistador que
disponga de habilidades específicas para poder conducir la entrevista de manera adecuada. La mayoría de autores coinciden en que, entre las habilidades que debe tener
el entrevistador, destacan las siguientes:
•
•
•
•
•
•
•
Escuchar de manera activa.
Agilidad mental.
Buena capacidad para observar.
Buena capacidad de memoria.
Neutralidad.
Capacidad para dirigir la entrevista.
Capacidad para proporcionar el feedback adecuado al entrevistado.
Escuchar de manera activa requiere una actitud atenta, que va más allá de la escucha de las palabras que emite el entrevistado. El entrevistador debe prestar atención
no tan solo a lo que se dice, sino también a cómo se dice. Observar de manera atenta
las acciones del entrevistado puede aportar muchas pistas del progreso de la entrevista, así como perfilar el significado de sus respuestas. El entrevistador debe prestar
atención al tono, énfasis, ritmo e incluso a los silencios o a aquello que no dice el
entrevistado. Los silencios o las frases incompletas pueden revelar más de lo que se
puede decir con palabras, mientras que un cambio de tono, los circunloquios o mirar
el reloj mientras se habla pueden estar indicando señales de cansancio, aburrimiento,
confusión o disgusto. El lenguaje corporal puede además aportar información del nivel de concentración, cansancio o bien si el entrevistado se siente cómodo contestando determinadas preguntas. Es importante atender a estas cuestiones porque, por una
parte, pueden sugerir nuevos temas para ser explorados y, por otra, en caso de que se
detecten signos que afecten al progreso de la entrevista, sería necesario introducir los
cambios apropiados para reconducir la conversación a buen puerto.
Como se ha comentado en el epígrafe anterior, las entrevistas semiestructuradas y
no estructuradas requieren otras habilidades adicionales del entrevistador. El hecho
[132]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL
de que las preguntas y la estructura de la entrevista estén abiertas a modificaciones
obliga al entrevistador a improvisar y a hacer alarde de su agilidad mental y capacidad de memoria. Por un lado, el entrevistador debe ser capaz de interpretar las
respuestas del sujeto para poder formular, a continuación, la pregunta que mejor se
adapte. Por otro, debe recordar los temas que han ido surgiendo a lo largo de la entrevista, bien para intentar no volver a insistir sobre ellos o bien para poder explorarlos
en profundidad en las siguientes preguntas.
Otra de las tareas del entrevistador es conseguir que el entrevistado se sienta cómodo con la interacción y que considere que su participación y sus respuestas ayudan
a alcanzar el objetivo de la investigación. Un feedback adecuado durante la entrevista
puede ayudar a que el entrevistado sienta que su participación vale la pena y que sus
respuestas ayudan a aportar luz sobre el objeto de estudio. En este sentido, la conducta verbal y no verbal del entrevistador juega un importante papel. Un ejemplo de
conducta verbal como el siguiente ayuda a aportar este feedback:
Sus comentarios me han ayudado a entender las diferentes razones por las que los investigadores consultan unas fuentes de información y no otras. Justamente, lo que intentamos es conocer a partir de los diferentes perfiles de investigadores qué tipo de información
consideran esencial para sus tareas del día a día.
Por otro lado, tomar notas de lo que dice el entrevistado, asentir con la cabeza o
bien verbalmente, son señales que le indican al entrevistado que sus comentarios son
acertados y valiosos para la investigación.
Una de las habilidades que debe mostrar el entrevistador es la de saber reconocer
lo que es relevante para el estudio y lo que no lo es, teniendo presente el objetivo de
la investigación. El tiempo que se tiene para entrevistar es limitado, por lo que el entrevistador debe controlar la entrevista para evitar respuestas excesivamente extensas
o bien comentarios superfluos que roben tiempo para preguntar sobre los elementos
claves de la investigación. Esto significa que el entrevistador debe discernir en todo
momento cuándo la aportación del entrevistado es relevante para el estudio y debería
profundizarse en aquel aspecto con nuevas preguntas, y cuándo es necesario reconducir la entrevista hacia el tema de interés, incluso llegando a interrumpir su respuesta.
De nuevo, la comunicación verbal y no verbal puede ser usada para proporcionar
el feedback adecuado al entrevistado. Por ejemplo, si el sujeto esta proporcionando
información importante para el estudio, se puede asentir con la cabeza, tomar notas
o bien proporcionar alguna pista verbal que le indique al sujeto que lo que dice es interesante En cambio, si el sujeto se desvía del tema, en ningún caso se debería asentir
o reforzar esta conducta, sino todo lo contrario, tan pronto como el sujeto realice una
pausa en su exposición, introducir una nueva pregunta.
4. ENTREVISTA
[133)
4.6. EL ENTREVISTADO
En este apartado se va a abordar el elemento clave de una entrevista, el entrevistado.
En este punto se abren dos interrogantes: a quién entrevistar y a cuántos entrevistar.
La respuesta a la primera pregunta, en parte, puede responderse a partir de lo ya
tratado en el capítulo de muestreo. Tal como señala Wengraf (2002) la selección de
los informantes no se debería realizar al azar. La entrevista se debe nutrir de informantes que sean capaces de aportar información relevante para el estudio. Los entrevistados deben poseer esta información y ser capaces de transmitirla. Lo anterior
obliga a que la selección de los entrevistados esté basada en un muestreo de tipo
intencional, en el que el investigador deberá determinar cuáles son las características que debe cumplir un informante para participar en el estudio. En este sentido,
Gorden (1969) propone que para la selección de los entrevistados se responda a
cuatro cuestiones básicas:
<1111
<1111
<1111
<1111
¿Quiénes son los individuos que tienen la información relevante?
De entre los anteriores, ¿a quiénes es posible acceder?
Entre aquellos a los que es posible acceder, ¿quiénes están dispuestos a participar en el estudio?
Y por último, entre los que están dispuestos a participar, ¿quiénes son los que
tienen mayor capacidad para transmitir mejor la información?
Este mismo autor considera que esta selección obligada de aquellos que están
dispuestos a participar puede incurrir en la introducción de sesgos a la hora de componer la muestra de participantes. Es por ello importante sopesar desde un inicio si
es posible acceder a aquellos individuos que tienen la información relevante, y entre
estos valorar si están dispuestos a participar y tienen la capacidad para informar.
Muchas de las variantes propuestas por Patton (2002) dentro del muestreo intencional, indicadas en el capítulo 2, pueden ser válidas a la hora de seleccionar a los
informantes para participar en un estudio en el que se va a recoger la información a
partir de entrevistas. En función de los intereses y el objetivo del estudio puede seleccionarse una u otra estrategia.
Para responder al segundo interrogante planteado en este epígrafe, sobre cuántos
sujetos es necesario entrevistar, la respuesta parte del tipo de muestreo que se ha seleccionado. En este caso, el muestreo teórico propuesto por Glaser y Strauss ( 1967),
considerado como una variante dentro del muestreo intencional (Ritchie, Lewis y El
am, 2003; Coyne, 1997), es el que posiblemente se ajusta mejor a esta técnica. Este
tipo de muestreo lleva a una selección de sujetos en base a la cantidad de información
que hasta el momento los individuos ya entrevistados han sido capaces de aportar
[134)
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL
para la comprensión del fenómeno que se pretende estudiar. La saturación informativa o saturación teórica alcanzada llevará a concretar, de manera paralela al desarrollo del estudio, el número de sujetos que es preciso entrevistar. Así, cuando se observa
que la información que se va recogiendo es coincidente con la información que han
aportado los anteriores entrevistados y esta no aporta nada de relevante al estudio, es
hora de finalizar la inclusión de nuevos sujetos. De nuevo es importante recordar en
este punto que la entrevista no persigue una representatividad estadística, por lo que
no es necesario estudiar un número elevado de individuos. Lo que en realidad resulta
fundamental es que los individuos que participen en la investigación sean capaces de
aportar luz sobre aquello que se pretende estudiar.
4.7. REGISTRO DE LA ENTREVISTA
El análisis que se realice de la información depende totalmente de cómo se haya
registrado esta. Patton (2002) señala que, independientemente del tipo de entrevista
llevada a cabo, todo se puede echar a perder, aun contando con el mejor de los entrevistadores y el mejor de los cuestionarios, si no se logran capturar correctamente las
aportaciones de los entrevistados. Por ello, se considera esencial tomar notas durante
la sesión y grabar las intervenciones de los entrevistados.
El hecho de tomar notas durante la entrevista se considera muy recomendable
porque favorece el desarrollo de la entrevista y facilita la fase de análisis de la información. Entre las ventajas de tomar notas durante la entrevista destacan las siguientes:
<11111
<11111
<11111
<11111
Ayuda a establecer un ritmo a la entrevista.
Proporciona pistas al entrevistado sobre la importancia de la información que
está aportando para el estudio.
Puede ayudar al entrevistador a la formulación de nuevas preguntas.
Ayuda a la localización de aportaciones importantes en la fase de análisis.
No obstante, el hecho de tomar notas puede parecer más simple de lo que en realidad es. En primer lugar, tomar notas ralentiza la entrevista. Habitualmente cuando el
entrevistador anota, el entrevistado habla más lentamente o calla para dar tiempo al
entrevistador a anotar aquello que está diciendo. Es por ello por lo que no es posible
anotarlo todo. En segundo lugar, dadas las condiciones en las que se producen estas
anotaciones, se considera un proceso impreciso: de manera paralela el entrevistador
debe observar, escuchar, pensar la formulación de la siguiente pregunta y anotar los
aspectos que considera relevantes. Se debe buscar el equilibrio entre qué anotar y el
ritmo que se le quiere dar a la entrevista. La recomendación que propone Wengraf
4. ENTREVISTA
[135]
(2002) es limitar las anotaciones a palabras clave, comentarios breves o expresiones
que se consideren relevantes y que faciliten la localización de las citas literales de los
entrevistados y que se consideren interesantes para la fase de análisis.
Sin embargo, tomar notas no es suficiente para analizar la información aportada
por el entrevistado, por lo que se considera esencial realizar un registro del audio
o bien filmar la entrevista. El registro del audio es mucho más común que filmar la
entrevista y también mejor aceptado por los entrevistados. Es más fácil de entender el
hecho de que el investigador cuente con una grabación de lo que se ha dicho para que
la pueda escuchar de nuevo y analizarla en detalle, que filmar el comportamiento del
entrevistado, el cual, en principio, a ojos del participante, se considera irrelevante. La
grabación de la sesión no solo permite un registro preciso de la información para que
posteriormente pueda ser analizada, sino que permite al entrevistador centrarse en el
proceso de observación, de escucha, de interpretación y de dirección de la entrevista.
4.8. TRANSCRIPCIÓN DE LOS DATOS
La transcripción es el proceso por el cual se reproduce por escrito el contenido de una
entrevista. Gillham (2005) lo considera como un proceso que en sí mismo requiere
cierta interpretación, por lo que en cierta manera puede considerarse el inicio del
análisis. No obstante, Kvale y Brinkmann (2009) advierten de que la transcripción
lleva consigo de manera inherente un empobrecimiento de la información, provocando una interpretación descontextualizada de lo que ha pasado durante la entrevista.
La pérdida más obvia cuando se transcribe una entrevista son los elementos paralingüísticos (fluidez, énfasis, ritmo, tono, volumen, etcétera) y la conducta no verbal que
acompaña al habla. Estos aspectos son difíciles de registrar en una transcripción, pero
es importante tenerlos en cuenta, dado que pueden alterar radicalmente el significado
de las palabras.
Tal como sugiere Patton ( 1990), idealmente se debería disponer de una transcripción total de la entrevista. Sin embargo, este es un proceso caro y que requiere
bastante tiempo (se considera que por cada hora de entrevista se requieren al menos
entre siete y diez horas de transcripción). Para evitar un gasto de recursos innecesario, Arksey y Knight (1999) proponen que la transcripción pueda llevarse a cabo con
diferente nivel de detalle en función del objetivo de la investigación. Los elementos
esenciales que se deberían incluir son las aportaciones relevantes tanto del entrevistado como del entrevistador y por supuesto incorporar aquellos elementos paralingüísticos que modifican el significado del discurso.
Una transcripción parcial o bien selectiva puede ser recomendable en aquellos
casos en los que previamente se conoce cuáles son los aspectos relevantes que se
(136]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL
quieren evaluar (Gillhan, 2005). Con frecuencia, lo que se suele observar es que a
partir de la transcripción de las primeras entrevistas se consigue identificar las principales categorías que se van a considerar en el estudio. Esto significa que no será
necesario realizar una transcripción total de las siguientes entrevistas, sino tan solo
registrar aquellos aspectos que previamente se han identificado como relevantes. En
este sentido, Glaser (1992) recomienda una transcripción completa de las primeras
entrevistas y posteriormente, a medida que la teoría va generándose y la codificación
se sistematiza, pasar a una selección y simplificación de lo que debe ser transcrito en
función de los objetivos del estudio.
Los programas de reconocimiento de voz desarrollados a partir de la década de
1990 han aportado un ahorro de tiempo y esfuerzo considerable al proceso de transcripción. Sin embargo, tal como advierte Gillham (2005), reproducir el contenido de
una entrevista en la que intervienen diferentes voces y elementos semánticos de la
voz es una tarea compleja e imposible aún para los programas de reconocimiento de
voz. La manera más habitual de proceder es que el investigador escuche la entrevista
con auriculares y «dicte» al programa el contenido de lo que está escuchando. Es
un trabajo lento, dado que se debe dictar frase por frase y no siempre la tarea está
exenta de errores, por lo que a posteriori es necesario revisar la transcripción con
el fin de valorar la consistencia entrevista-transcripción. No obstante, los rápidos
avances tecnológicos hacen que la circunvalación de la transcripción insinuada por
Valles (2002) esté cada vez más cerca. En este sentido, se debe tener en consideración
que los programas de análisis cualitativo incorporan la posibilidad de codificación de
vídeo y audio, lo que puede ayudar de manera importante al análisis de la entrevista.
4.9. VENTAJASY LIMITACIONESDE LA ENTREVISTA
La entrevista como técnica de investigación cualitativa presenta numerosas ventajas
pero también algunas limitaciones. Tenerlas en cuenta es importante antes de aventurarse a iniciar un estudio a partir de entrevistas. Las principales ventajas que cabría
destacar son las siguientes:
~
~
~
Permite obtener información en profundidad sobre el fenómeno que se pretende estudiar.
Permite obtener información sobre las ideas, opiniones y sentimientos de los
entrevistados, a diferencia de otras técnicas, como por ejemplo la observación,
que solo nos aportará información sobre la conducta manifiesta del participante.
Permite a los entrevistados expresar sus ideas libremente desde su propia perspectiva y con sus propias palabras. A diferencia de la técnica de la encuesta,
4. ENTREVISTA
[137]
en la que las alternativas de respuesta vienen dadas por la perspectiva y el
conocimiento que el investigador tiene del fenómeno que pretende evaluar, la
entrevista, en este sentido, permite esquivar el sesgo del investigador.
~ En una técnica flexible. En el caso de entrevistas semiestructuradas y no estructuradas permite ajustar las preguntas y desviarse del guión con el objetivo
de analizar el fenómeno que se pretende estudiar desde la perspectiva del entrevistado.
~ Una vez se ha concretado una cita con el entrevistado, la colaboración del sujeto es muy alta. A diferencia de la encuesta, que tiene un alto porcentaje de no
respuesta, la entrevista presenta un alto grado de colaboración y raramente el
entrevistado se niega a participar una vez se ha iniciado la entrevista.
~ Se considera una técnica con una gran validez aparente. El procedimiento para
obtener la información, así como el análisis de esta información, es fácilmente
comprensible por personas no expertas.
~ Es una técnica ideal para estudios descriptivos y exploratorios en los que se
cuenta con poco conocimiento sobre el fenómeno que se pretende analizar, en
especial las formas semiestructuradas y no estructuradas.
~ El material y el equipo que se requieren para registrar una entrevista es económico.
Como limitaciones es necesario destacar las siguientes:
~
~
~
~
~
~
La transcripción y el análisis de la información recogida requieren un tiempo
considerable.
El coste es elevado cuando se tiene en cuenta el gasto de viajes y de dietas de los
entrevistadores, especialmente cuando los entrevistados están dispersos geográficamente. El coste de desplazamientos y dietas se reduce cuando la entrevista se
realiza por teléfono, aunque en este caso se pierde información de tipo no verbal.
No es posible comparar las respuestas de diferentes sujetos en las entrevistas
semiestructuradas y no estructuradas, dado que las preguntas y su orden suele
ser diferente.
La flexibilidad propia de las entrevistas semiestructuradas y no estructuradas
hace que estas sean dependientes de las habilidades del entrevistador.
La fiabilidad de la técnica está sujeta a condicionantes como el contexto donde se produce la entrevista, así como de los entrevistados que participan. La
modificación del contexto referente a la situación que se pretende evaluar, así
como la part,icipación de otros entrevistados, provocaría cambios sustanciales
en los resultados.
La entrevista recoge respuestas subjetivas de los entrevistados. No siempre
lo que afirma el sujeto que hace es lo que realmente hace. La posibilidad de
1138)
~
~
MÉTODOSY TÉCNICASPARALA INVESTIGACIÓNDEL COMPORTAMIE]',¡'TO
INFORMACIONAL
combinar la entrevista con técnicas más objetivas como la observación puede
ayudar a paliar este punto.
La presencia del entrevistador puede provocar respuestas estereotipadas o socialmente aceptadas ante determinadas cuestiones.
La grabación en audio y sobre todo la filmación de la entrevista pueden provocar inhibiciones en el entrevistado, especialmente en los primeros estadios
de la entrevista.
4.10. EJEMPLOSDE INVESTIGACIONES
Ejemplo 1. Necesidades de información en el departamento de servicios sociales
Wilson y otros (1979) llevaron a cabo a finales de la década de 1970 un estudio sobre
el comportamiento informacional de los trabajadores sociales británicos con el objetivo de conocer sus necesidades y hábitos informacionales relacionados con su profesión. Este trabajo se considera uno de los primeros estudios sobre comportamiento
informacional en el que se da especial relevancia a las técnicas de investigación como
procedimiento para la recogida de datos. La investigación se compuso de dos fases, y
el trabajo que se presenta aquí se basa en la segunda fase del estudio. En esta fase, la
entrevista fue la técnica que sirvió para validar los resultados obtenidos en una fase
anterior en la que se había aplicado la observación (en el capítulo 6 sobre observación se presenta la primera fase) y para comprobar algunas hipótesis derivadas sobre
el comportamiento informacional, su relación entre los trabajadores y determinadas
características de la organización.
Los autores dividen la fase de entrevista en tres estadios: la planificación, la ejecución y el análisis de datos. La fase de planificación, al mismo tiempo, la subdividen en
tres subfases: el diseño de la entrevista, el entrenamiento y la selección de la muestra.
Para diseñar las preguntas de la entrevista los autores se basaron en las cuestiones
que en la fase previa de observación se habían percibido como aspectos importantes:
~
~
~
~
~
~
~
El rol laboral de los participantes.
Los contactos dentro y fuera del departamento.
Las necesidades de información.
El almacenamiento de información por parte de la organización.
El almacenamiento de la información por parte de los individuos.
El clima laboral.
La experiencia y la formación.
4. ENTREVISTA
[1391
Antes de obtener la versión final del cuestionario, se generaron cinco versiones
diferentes, que se fueron perfilando a partir de diversas pruebas piloto. Como prueba
piloto se utilizaron el role-playing y entrevistas de entrenamiento con participantes.
Los autores no lo especifican, pero a partir de los ejemplos de ítems que presentan se
entiende que se trata de una entrevista estructurada en la que a todos los participantes se les formularon las mismas preguntas y en el mismo orden. Antes de llevarse a
cabo estas entrevistas, todos los miembros del equipo participaron en un curso para
entrevistadores, de un fin de semana, en el que se trataron los puntos más comunes
que debían tener en cuenta a la hora de conducir una entrevista, (estrategias para solicitar aclaraciones o obtener más información de los participantes, etcétera) y aquellas
situaciones más problemáticas que pueden acontecer durante una entrevista (participantes problemáticos, rechazos a contestar, etcétera). La selección de la muestra se
llevó a cabo a partir de una selección estratificada y aleatoria del personal de cuatro
departamentos. La estratificación se basó en el departamento y el rol del trabajador.
En total se realizaron 151 entrevistas (seis directores, 22 especialistas, 11 encargados,
104 trabajadores sociales y ocho administrativos). En todos los casos las entrevistas
fueron concertadas previamente por teléfono. Se obtuvo un alto nivel de cooperación
y solo en 14 casos, por motivos diversos, el sujeto no estuvo disponible para realizar
la entrevista. Las entrevistas tuvieron una duración de entre 25 y 108 minutos con
una duración promedio de 48 minutos.
Posteriormente a la fase de recogida de datos, la información obtenida se codificó
en un total de 216 variables. Esta codificación fue realizada por los propios entrevistadores y fue revisada en diferentes ocasiones para asegurar su exactitud. El análisis
que se presenta en el artículo se basa en el contexto de las necesidades informativas, la
comunicación de la organización y el comportamiento de búsqueda de información.
Los autores presentan un análisis cuantitativo basado en frecuencias y porcentajes y
para reafirmar los resultados los acompañan de algunos ejemplos de verbalizaciones
de los participantes. Por ejemplo, los autores comentan que el 84,8 % de los participantes coincidían en clasificar las reuniones como útiles o muy útiles y acompañan el
dato con el comentario siguiente: «A veces crees que una reunión va a ser una pérdida
de tiempo, pero luego te das cuenta de lo que te habrías perdido si no hubieras ido».
Sin duda, la investigación de Wilson y otros (1979) es una investigación de gran
envergadura y que marca un hito importante en el estudio del comportamiento informacional, no solo por la cantidad de personas que participaron en el estudio sino
por los objetivos propuestos y por el detalle con el que exponen la metodología
empleada. Sin embargo, tal como se ha comentado a lo largo del capítulo, existen
algunos aspectos que podrían ser mejorados o bien que no serían justificables dada
la técnica que se ha aplicado. En primer lugar, los autores utilizan un muestreo aleatorio para seleccionar a los participantes. No es algo incorrecto, pero es habitual en
[140)
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL
las técnicas cualitativas cerciorarse de que el participante seleccionado es un buen
candidato para el estudio y que es capaz de transmitir la información. Los autores
sin duda podrían haber aprovechado la información obtenida en la primera fase del
estudio en el que se observó a los trabajadores, para seleccionar a los mejores informantes. En segundo lugar, un número mucho menor de trabajadores sociales habría
sido suficiente para realizar un estudio de tipo cualitativo. Seguramente, al superar
la veintena de entrevistas, mucha de la información que se obtuvo fue redundante y
buena parte de la muestra entrevistada no llegó a aportar datos relevantes para el estudio. Por otra parte, se ha de recordar que la entrevista es una técnica cualitativa y
que no pretende la cuantificación de la información ni la significación estadística de
los resultados, por lo que el análisis de la información debería basarse en un análisis
más de tipo cualitativo. En relación con este punto, se observa que las preguntas no
son siempre preguntas abiertas, sino que en algunas ocasiones son ítems de respuesta
dicotómica (sí/no) o bien escalas graduadas. Un último aspecto que los autores no
comentan es sobre el registro de las entrevistas. No se sabe si las entrevistas fueron
registradas o el análisis solo se basó en las anotaciones de los entrevistadores durante la sesión.
Ejemplo 2. Roles laborales, tareas y comportamiento informacional de los dentistas
El objetivo del estudio de Landry (2006) fue el de valorar el trabajo de los dentistas
con el objetivo de entender sus diferentes necesidades informativas y la manera en
que Internet afecta a su conducta de búsqueda de información. El autor seleccionó
un total de doce participantes a partir de un muestreo por bola de nieve. El estudio se
basó en entrevistas presenciales y telefónicas. Se realizaron unas primeras entrevistas
de manera presencial, mayoritariamente en la consulta del dentista, lo cual permitió
al investigador observar aspectos sobre el entorno de trabajo, las condiciones del
equipo informático y de la conexión con Internet. Estas entrevistas fueron diseñadas
para tener una duración aproximada de entre 45 y 60 minutos. Posteriormente se
realizaron unas entrevistas de seguimiento por vía telefónica con el objetivo de valorar las actitudes y usos de Internet con mayor detalle. Las entrevistas telefónicas
tuvieron una duración aproximada de 15 minutos. Ambas fueron de tipo semiestructurado y se grabó el audio para posteriormente analizarlo.
En las entrevistas presenciales a los participantes se les presentaban distintas situaciones hipotéticas en el que se incluían diferentes necesidades informativas. Estas
situaciones fueron diseñadas en colaboración con dentistas y con el objetivo de que
evocaran la conducta de búsqueda de información dentro de un contexto laboral
teniendo en cuenta las diferentes especialidades dentro de la profesión. Después de
4. ENTREVISTA
[141]
la presentación de cada situación hipotética, se formulaban una serie de preguntas
abiertas sobre la situación planteada.
Las entrevistas y las conversaciones informales fueron transcritas y se examinaron
los temas más emergentes, que dieron lugar a una primera categorización. Posteriormente se seleccionaron los datos con un interés más conceptual y se procedió a una
nueva categorización. Se generó un libro de códigos y la categorización fue evaluada por diferentes personas con el objetivo de valorar la fiabilidad interobservador.
La fiabilidad conseguida fue del 92,5 %, lo que es indicativo de una alta fiabilidad
interobservadores. El análisis de los datos se realizó a partir de las verbalizaciones
registradas y en la exposición de los resultados se combina la presentación de las
principales conclusiones con verbalizaciones concretas de los participantes, que sirven para reafirmar las conclusiones propuestas.
Este estudio sigue fielmente los aspectos que se han descrito a lo largo del capítulo.
Se selecciona una muestra reducida y no aleatoria para estudiarla en profundidad.
No importa la representatividad estadística, sino que los participantes sean capaces
de proporcionar la información que responda a los objetivos del estudio. El diseño
de cuestionario se basa en preguntas abiertas que sirven para evocar información a
partir de la perspectiva del que responde. La entrevista se graba y se transcribe para
posteriormente codificar la información relevante que finalmente será analizada a
partir de un análisis cualitativo.
4.11. RESUMEN
La entrevista cualitativa presenta innumerables ventajas, aunque también algunos
inconvenientes, por lo que es importante tenerlos en cuenta antes de aventurarse a
utilizar esta técnica. En este capítulo se han presentado las principales características
y elementos que definen la entrevista cualitativa. Desde finales de los años setenta del
siglo pasado, en paralelo con el auge de la técnica dentro de las ciencias sociales, la
entrevista se ha venido utilizando para valorar el comportamiento informacional en
diferentes ámbitos y usuarios. Dentro de la entrevista se distinguen principalmente
tres tipos en función del grado de estructuración: estructurada, semiestructurada y
no estructurada. En la práctica, se suelen mezclar los diferentes tipos de entrevista
a lo largo de una sesión. Por ejemplo, es habitual iniciar la entrevista con un alto
grado de estructuración y posteriormente, a partir de las respuestas y los temas que
van surgiendo, pasar a un formato semiestructurado o no estructurado que permita
profundizar en los diferentes aspectos.
Independientemente del formato de la entrevista, las preguntas han de ser preguntas abiertas que faciliten la obtención de información a partir del punto de vista
(142)
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO
INFORMACIONAL
del entrevistado. Para ello es importante que la formulación facilite una respuesta
extensa y se evite la insinuación de posibles alternativas de respuesta. Principalmente
se distinguen dos tipos de preguntas: primarias y secundarias. Las primarias tienen
la función de introducir un tema, mientras que las secundarias permiten profundizar
sobre el tema previamente iniciado. No obstante, no es suficiente tener un buen guión
de entrevista para poder conseguir la información necesaria que permita comprender
el fenómeno de interés. En este sentido, es esencial contar con un entrevistador que
presente las habilidades específicas para conducir la entrevista de manera adecuada.
El papel de estas habilidades es sin duda mucho más evidente en la entrevista semiestructurada y no estructurada, donde la improvisación de las preguntas y temas a
tratar es mucho mayor.
A diferencia de los estudios de encuesta, la entrevista busca una representatividad
sustantiva, por lo que la selección de los participantes se regirá entre aquellos que
mejor representen los perfiles o cumplan las características idóneas para participar en
el estudio. De esta manera, los entrevistados son seleccionados habitualmente a partir
de un muestreo intencional. En relación con lo anterior, el número de sujetos a entrevistar no vendrá determinado por la representación estadística de la muestra, sino
que dependerá en buena parte de la cantidad y calidad de la información obtenida
de los entrevistados. Es decir, cuando se alcance la saturación teórica o informativa.
Cuando se llega a comprender el fenómeno que se pretende estudiar, es signo de que
debe detenerse la inclusión de sujetos en el estudio.
Por último, se han tratado los aspectos de registro y transcripción de la entrevista.
Fundamentalmente, el análisis se realiza en base a las anotaciones que el entrevistador
ha ido registrando durante la sesión y a partir de la transcripción de la grabación del
audio de la entrevista. La transcripción es una tarea lenta y en cierto modo provoca
una pérdida de información, por lo que las notas y las impresiones del entrevistador
durante la entrevista suelen ser imprescindibles para proceder con la fase de análisis
de la información.
CAPÍTULO
5
TÉCNICA DEL INCIDENTE CRÍTICO
5.1. DEFINICIÓN Y ÁMBITOS DE APLICACIÓN
La técnica del incidente crítico (TIC) fue definida por Flanagan (1954) como un procedimiento flexible para la investigación social que comprende una serie de operaciones, adaptables a cualquier situación, dirigidas a registrar y procesar la información
obtenida por medio de la observación de la conducta humana, todo ello con el fin de
aplicar los resultados a la resolución de problemas prácticos. Un incidente crítico es
cualquier actividad humana suficientemente completa por ella misma como para permitir inferencias y hacer predicciones acerca de la persona que lleva a cabo esa actividad. Para ser crítico, un incidente debe ocurrir en una situación donde el propósito
sea bastante claro para el observador y donde sus consecuencias sean suficientemente
definidas para dejar poca duda con respecto a sus efectos (Flanagan, 1954).
La obtención de estos incidentes críticos permite obtener una imagen variada y
rica en detalle de esa actividad humana observada con el fin de llegar a conclusiones
prácticas basadas en dichas observaciones, no en ideas preconcebidas. Por lo tanto,
la técnica del incidente crítico (TIC) permite adoptar un enfoque cualitativo-inductivo
sin ideas preconcebidas de la realidad que se observa, pues no busca en sí misma la
generalización de estas observaciones, sino comprender aquello que es observado. La
TIC, en principio, no pretende llegar a conclusiones estadísticamente significativas,
aunque en un principio surge como en un contexto positivista (Butterfield, Borgen,
Amundson y Maglio, 2005).
Esta técnica fue desarrollada por Flanagan (1954) durante la segunda guerra
mundial, en el curso de unos estudios llevados a cabo bajo su dirección en el Aviation Psychology Program de la U. S. Army Air Force. En un principio, el objetivo
era desarrollar un procedimiento para la selección y clasificación de la tripulación
aérea. Posteriormente, acabada la guerra, comenzó a utilizarse, principalmente, para
el diseño de puestos de trabajo. Aunque en origen fue utilizada para estos propósitos,
[144]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFOR.MACIONAL
a lo largo de los años se aplicó igualmente en diversas disciplinas y con objetivos diversos. En la revisión bibliográfica que Butterfield y otros (2005) hacen de cincuenta
años de aplicación y desarrollo de esta técnica, enumeran los siguientes ámbitos de
aplicación: comunicaciones, enfermería, análisis de puestos de trabajo, orientación
psicopedagógica, educación, medicina, marketing, aprendizaje organizacional, evaluación del desempeño, psicología y trabajo social.
En información y documentación también ha sido aplicada a diferentes áreas para
la resolución de problemas diversos como, por ejemplo, los siguientes:
~
En el campo de la documentación médica, Wood y Wrigh (1996) utilizan la TIC
para avaluar el impacto de la información en la toma de decisiones médicas y
Wilson, Starr-Schneidkraut y Cooper (1989), Siegel, Rapp y Lindberg (1991) y
Lindberg, Siegel, Rapp, Wallingford y Wilson (1993), para evaluar el impacto
de la base de datos Medline en la toma de decisiones de los facultativos médicos, o Tenopir, King y Bush (2004) para observar el uso de las revistas médicas
por parte de los facultativos. Más recientemente MacDonald, Bath y Booth
(2011) utilizan la TIC para observar el uso de la información empleada en el
proceso de toma de decisiones por parte de los gestores de servicios sanitarios.
~ La TIC también ha sido utilizada para el estudio de la interacción con sistemas
de información concretos. Por ejemplo Tonta (1992) la utilizó para el estudio
de los fallos en la búsqueda de información en combinación con otras técnicas
y Chao, Deltor y Turnbull (1998), así como Mansourian (2008), para investigar
el comportamiento informacional en la búsqueda de información en la Web.
~ Desde el punto de vista del estudio del comportamiento informacional en general, Kraaijenbrink (2008) utilizó la TIC para la observación de las lagunas
informacionales de los ingenieros y Hamer (2003) para conocer el comportamiento de los jóvenes homosexuales.
~ Por último, en el ámbito de la gestión de unidades de información, la TIC fue
utilizada por Berkner (1979) para el estudio de puestos de trabajo en bibliotecas, mientras que Carr (1980) para la observación del trabajo de referencia.
5.2. PROCEDIMIENTO DE APLICACIÓN DE LA TÉCNICA DEL INCIDENTE CRÍTICO
Al margen de la flexibilidad de la técnica, Flanagan (1954) describió cinco etapas
generales en las que basar el desarrollo de un estudio utilizando la TIC (figura 9): (1)
definición de objetivos generales, (2) establecimiento de planes y especificaciones, (3)
recogida de datos, (4) análisis y (5) interpretación de los datos y comunicación de los
resultados. A continuación se describe cada una de ellas.
l145J
5. TÉClsi C,\ DEL 1 'C IDENTE CRITICO
Figura 9. Fases de un estudi o basado en la técnica del incide nt e crítico (Flanagan, 1954 )
1. DEFINICIÓN DE OBJETIVOS
2. PLANES Y ESPECIFICAC IONES
Quién observará , quién será
observado
ué será observado
3. RECOGIDA DE DATOS
Elección de la técnica y estrategias de
observación
4. ANÁLISIS DE DATOS
Clasificación de los incidentes
5. INTERPRETAC IÓN Y
COMUNICACIÓN
Informe de resultados
5 .2.1. Definición de objetivos general es
Puesto qu e en un prin cipio la T I C fue utili zada pa ra la descr ipción de un a act ividad,
en esta primera fase Flanaga n (195 4 ) entiend e qu e es necesa rio describir el obje tivo
o result ado s pr evistos de dicha act ividad pa ra pod er valorar obj etivamente si, en el
desa rro llo de determin ada tarea, un a persona ha sido o no efect iva. En este sentid o,
este invest igador aboga po r la co nsulta a exper to s para definir el patró n in icial ace rca
de lo que se espera de la act ividad estud iada.
Si exten demos la ap licac ió n de esta técn ica a otros contextos y gu iados po r distintos propó sitos a los qu e inicia lmente dieron or igen a la n c, pode mos co nsiderar
que en esta etapa in icia l, como en cualquier invest igac ió n, es necesar io de finir un
ob jeti vo genera l a par ti r del cual desarro llar dic ha invest igac ión. A pa rtir de aq uí
será pos ible toma r pos ter iormen te las mejores decision es res pecto a la técnica de
recog ida de info rm ació n y el aná lisis de los datos . Para este propós ito Radfor d
(2006) tam bién a boga por rea liza r un a revisión bibli og ráfica para sa ber aqu ello
qu e ya es conoc ido acerca del tipo de act ividad, prog ram a o part icipa ntes que será n
estud iado s.
1146]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓNDEL COMPORTAMIENTOINFORMACIONAL
5 .2.2. Planes y especificaciones
En esta fase es necesario especificar, de la forma más precisa posible, las situaciones,
actividades, individuos o grupos que serán observados, así como quién realizará tales
observaciones y el procedimiento que empleará para ello. Todos estos detalles será
necesario documentarlos convenientemente para asegurar la consistencia y objetividad de la recogida de datos, especialmente en aquellos estudios donde exista más
de un investigador-observador. En definitiva, consistirá en clarificar los siguientes
aspectos:
A) CONTEXTO Y SITUACIÓN QUE SERÁN OBSERVADOS
Sonnenwald y Livonen (1999) definen el contexto como el conjunto de situaciones
pasadas, presentes y futuras, y las situaciones como acciones o conductas que ocurren
a través del tiempo y que pueden ser percibidas como relacionadas. El contexto sería
un concepto más genérico, ya que un contexto puede abarcar diversas situaciones.
Por ejemplo, la universidad sería el contexto y la búsqueda de información por parte
de un alumno para la realización de un trabajo académico o por parte de un docente
para la preparación de una clase serían distintas situaciones que tienen lugar en ese
contexto.
Por ejemplo, en un estudio donde se pretenda estudiar las necesidades de información de un colectivo de profesionales en un contexto organizacional, el primer paso
antes de estudiar a los individuos que formen parte de ese grupo de estudio será el
conocer lo más detalladamente posible las características del puesto de trabajo que
desempeñan y el rol que asumen en el conjunto de la organización en la que realizan su
trabajo. Este será el contexto de referencia en el que tendrá lugar el proceso de toma de
decisiones, que, desde el punto de vista del estudio de las necesidades de sus usuarios
potenciales, es de suma importancia conocer para emprender la planificación de sistemas de información adecuados a esos usuarios y en consonancia con la misión, metas
y objetivos de la organización en la que desarrollan su actividad. Dentro de ese contexto organizacional, los incidentes podrán referirse a diversas situaciones que tengan
que ver con el proceso de toma de decisiones en el transcurso del desempeño de cada
uno de los puestos de trabajo. Un ejemplo de la obtención de incidentes críticos en
entornos organizacionales lo podemos encontrar en el trabajo de Maurel y Bergeron
(2007). Estas investigadoras estudian las situaciones en las que los gerentes de nivel
intermedio usan información para tomar decisiones y el modo en que estas decisiones
están condicionadas por el contexto. En el caso concreto de este estudio, se trataba de
un contexto sometido a cambios, por lo que la obtención de información se dirigió a
registrar incidentes que describieran situaciones antes y después de esos cambios.
5. TÉCNICA DEL INCIDENTECRÍTICO
B) INDIVIDUOS
f147J
O GRUPOS QUE SERÁN OBSERVADOS
Además de la definición del contexto, es necesario hacer una descripción de aquellos
individuos de quienes vamos a recoger los incidentes (y de los que no) conforme al
objetivo de la investigación. Además, habrá que tomar algunas decisiones en cuanto
al procedimiento de muestreo y el tamaño de la muestra.
La ne es una técnica que se enmarca mejor en un marco de referencia cualitativo y, en la mayoría de las ocasiones, con una intención descriptiva y exploratoria.
De esta manera, su propósito es lograr la mayor cobertura posible en cuanto a los
posibles incidentes que se puedan llegar a dar en el contexto estudiado, no los más
representativos. Por ello, es útil partir de un muestreo no probabilístico tal y como se
ha descrito en el capítulo 2. Por ejemplo, Kraaijenbrink (2007), en un estudio cuyo
objetivo fue detectar las lagunas (gaps) informativas cuando los ingenieros buscaban
en Internet, seleccionó los casos partiendo de un muestreo teórico. Es decir, el tipo
y el número de los encuestados no estaban establecidos de antemano, sino que derivaban de la necesidad de una mayor exploración hasta que se conseguía la llamada
saturación teórica o el momento en que la recogida de más datos no derivara en la
obtención de información distinta a la ya recopilada. En el caso del trabajo de Kraaijenbrink (2007) la investigación se inició con una selección de cuatro encuestados
ingenieros de la industria electrónica, dos de la industria química y un fabricante
de maquinaria. Después de un análisis inicial de las siete entrevistas, se realizaron
siete entrevistas adicionales de ingenieros de empresas distintas, alcanzando en este
momento la saturación teórica, ya que no se obtenía más información de la ya recabada acerca de las lagunas informativas. No obstante, se realizaron tres entrevistas
en otras empresas para comprobar que realmente se había alcanzado el punto de
saturación teórica.
Respecto al tamaño de la muestra, la idea general que lo guía es que este cálculo
se debe hacer en base al número de incidentes que necesitemos recoger, no al número
de personas que vayamos a observar. Para Flanagan (1954) la recopilación de datos
y el análisis debe llevarse a cabo simultáneamente y debería concluir cuando los incidentes que se van recogiendo sean redundantes (o se haya alcanzado la saturación
teórica en términos de la teoría fundamentada).
C) INDIVIDUOS
QUE REALIZARÁN LAS OBSERVACIONES
Para Flanagan (1954), quien realice las observaciones debe estar familiarizado con
aquello que observe y registre. Además, es necesario formar a los observadores, primero, con relación al objetivo de la actividad observada y, segundo, diferenciando lo
relevante de lo irrelevante en cuanto a estas observaciones.
(148)
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL
Un modo de formar a los observadores en este último aspecto es proponer el análisis y discusión de incidentes relevantes y no relevantes. Por ejemplo, en un estudio
de necesidades de información en un contexto universitario centrado en el comportamiento informacional de los estudiantes universitarios, un incidente relacionado con
la gestión de la matrícula relevante para el propósito de la investigación, puesto que
informa sobre el proceso de búsqueda de información, sería el siguiente:
Cuando este año tuve que matricularme de tercero de carrera me di cuenta de que necesitaba asignaturas de libre opción para completar mi expediente. Pregunté en la secretaría
de la facultad sobre la oferta de este tipo de créditos por parte de la universidad y me dijeron que consultara la web. En la web no encontré directamente esa información, ya que no
hay un apartado específico donde se diga toda la oferta de créditos de libre opción. Por lo
tanto, tuve que navegar por distintos departamentos y servicios e incluso buscar en Google
para encontrar algo que realmente no me interesaba. Finalmente pregunté a un compañero,
que va un curso por delante de mí, en qué se había matriculado él como de libre opción. Él
me dio la información que necesitaba y finalmente formalicé mi matrícula.
Y uno no relevante, puesto que no informa sobre el proceso de búsqueda de información:
Cuando este año tuve que matricularme de tercero de carrera me di cuenta de que necesitaba asignaturas de libre opción para completar mi expediente. Pregunté en secretaría y
busqué en la web, pero no había manera. La universidad podría ofrecer más información,
porque cuando vas a matricularte no sabes qué hacer y yo ya estoy en tercero y me entero
de algo y conozco a gente, pero los de primero van locos con la matrícula. Y la solución no
es que te ayuden con el ordenador para matricularte por Internet, sino que tengas claro de
qué quieres matricularte. Esto es un desastre.
En cualquier caso los observadores deberían seguir un procedimiento estándar,
registrado en un documento por escrito, en el que se especificaran lo más detalladamente posible el modo en que se va a recabar información, los incidentes que son
relevantes y los que no y otros aspectos importantes tales como el plazo en que los
incidentes que se van a recoger hayan ocurrido.
5.2.3. Recogida de los datos
Flanagan (1954) menciona cuatro técnicas útiles para obtener los datos de los distintos incidentes críticos: a) entrevistas individuales, b) entrevistas de grupo, c) cuestionarios y d) formularios de registro (observación y registro de los incidentes). En el caso
concreto del ámbito de la información y la documentación, la mayor parte de los es-
5. TÉCNICA DEL INCIDENTE CRITICO
(149)
tudios que emplean la TIC realizan la recogida de datos a través de encuestas (cuestionarios autoadministrados o entrevistas personales). En este sentido, de los 18 trabajos
revisados por Urquhart y otros (2003) que utilizaron la TIC entre 1983 y el 2001, solo
en tres ocasiones se utilizó una técnica de recogida de datos distinta al cuestionario.
Para Chell (2004) la entrevista basada en la técnica del incidente crítico es un procedimiento de entrevistas cualitativas, lo que facilita la investigación de sucesos significativos (acontecimientos, hechos, procesos o asuntos), identificados por el informante,
la forma en que se gestionan y los resultados en términos de los efectos percibidos.
El objetivo es obtener una comprensión de los hechos desde la perspectiva del propio
individuo, teniendo en cuenta los aspectos cognitivos, afectivos y conductuales.
Los estudios basados en la TIC que utilizan la entrevista o cuestionario en el ámbito de información y documentación normalmente solicitan al entrevistado que recuerde una situación anterior que haya ocurrido en el transcurso, por ejemplo, de la
búsqueda de determinada información, en el proceso de tomar una decisión o en el
momento de atender a un usuario en el mostrador de referencia.
Por ejemplo, en el estudio llevado a cabo por Johnson (2003) con el objetivo de
averiguar el comportamiento informacional de los habitantes de Ulan Bator (Mongolia) en su vida cotidiana, se empleó un cuestionario en el que, en parte, se hacían
preguntas basadas en la TIC como la siguiente:
Me gustaría que pensara en una ocasión reciente en que usted necesitó información
o asesoramiento para ayudar a hacer frente a una situación particular. Por ejemplo, una
situación en la que necesitó información relacionada ya sea con su salud o la salud de un
familiar; para la búsqueda de un empleo o para crear una empresa, o información acerca
de los programas gubernamentales relacionados con las pensiones o prestaciones sociales
o sobre programas de capacitación laboral, por ejemplo. No obstante, si no se encontró en
alguna de las anteriores situaciones, ¿puede usted decirme algo acerca de otra situación en
que haya necesitado información? (Johnson, 2003).
Chell (2004) expone algunas pautas que deben guiar la entrevista basada en la
TIC. Aunque lo aplica a los estudios de las organizaciones, bien podrían aplicarse al
ámbito de la información y documentación. Esta autora aconseja que, tras el aporte
por parte del entrevistado de una información inicial, es adecuado realizar una serie
de preguntas genéricas para motivar una respuesta más detallada. Algunos ejemplos
serían los siguientes:
¿Qué pasó después?
¿Por qué ocurrió?
¿Cómo ocurrió?
¿Con quién fue?
[150]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL
¿Qué sienten las partes interesadas?
¿Cuáles fueron las consecuencias inmediatas y a largo plazo?
¿Cómo hacer frente al demandado?
¿Qué tácticas se utilizaron?
Por ejemplo, en el caso de estudio de Johnson (2003 ), tras la pregunta inicial
acerca de una situación concreta de necesidad y búsqueda de información que lleva a
centrar al informante en un momento concreto del pasado, se realizan las preguntas
que aparecen en el cuadro 16.
Cuadro 16. Preguntas para motivar una respuesta más amplia en la técnica del incidente
crítico (Johnson, 2003)
1. ¿Podría describir esta situación?
2. En una escala de 1 (no muy importante) a 3 (importancia crítica), señale lo importante que fue para
usted encontrar información acerca de esta situación:
No muy importante (yo tenía curiosidad por saber la respuesta, pero no era muy importante encontrarla)
Importante (yo estaba interesado en encontrar la información, pero las consecuencias de no encontrarla no fueron graves).
Es de importancia crítica (Si no puedo encontrar la información, tendrá efectos graves sobre mí o
sobre mi familia)
3. ¿Adónde acudió en primer lugar para obtener información (por ejemplo, persona, organización,
prensa, radio, televisión, Internet)?
Si fue una persona: pase a la pregunta 4.
Si acudió a una organización: pase a la pregunta 13.
Si fue a través de los medios de comunicación: pase a la pregunta 22.
5 .2.4. Análisis de los datos
El análisis de datos de naturaleza cuantitativa y cualitativa se describe con detalle
en los últimos capítulos de este libro; no obstante, aquí se describe el procedimiento
expuesto por el propio Flanagan (1954).
Desde el punto de vista concreto de la TIC, esta fase consiste en un proceso inductivo de análisis de datos que tiene como objetivo clasificar los incidentes críticos e identificar los distintos comportamientos según los objetivos que nos hemos planteado. Se
trata de organizar la información obtenida en categorías y subcategorías mutuamente
excluyentes. Flanagan (1954) recomienda realizar tres tareas en este proceso: a) la
selección de un marco de referencia útil para describir los incidentes, b) el desarrollo
inductivo de una serie de categorías y subcategorías y e) la determinación de los niveles de especificidad/generalidad en el análisis de resultados.
5. TÉCNICA DEL INCIDENTE CRÍTICO
[151]
a) Marco de referencia. El investigador desarrolla un marco de referencia o conjunto de categorías generales de clasificación de los incidentes críticos. Estas
categorías principales y sus rúbricas deben reflejar el objetivo de la actividad y
se refieren a la aplicación prevista de los resultados.
b) Formulación de categorías. El investigador indaga en los incidentes, identifica
comportamientos críticos y los clasifica en categorías y subcategorías. Esto
podría comportar un ejercicio de ensayo y error, ya que las categorías no son
predeterminadas, sino que el investigador las hace emerger (de manera similar
al proceso que se describirá más adelante sobre la teoría fundamentada) durante el proceso. Este es el aspecto más difícil del análisis, ya que depende de
la «visión, experiencia y juicio» del investigador. Algunas de las pautas para la
construcción de categorías y la creación de la clasificación son las siguientes:
•
•
•
•
•
•
Ordenar una muestra relativamente pequeña de incidentes críticos en categorías principales.
Crear nombres provisionales y breves definiciones de las categorías principales.
Ordenar los incidentes restantes en las categorías principales: crear más
categorías principales y definiciones, o modificar las existentes, según sea
necesario.
Dividir las principales categorías en subcategorías atendiendo a las similitudes y diferencias que se vayan encontrando.
Revisar continuamente las categorías y subcategorías y reasignar los incidentes críticos en caso de que sea necesario.
Continuar este proceso hasta que todos los incidentes críticos hayan sido
debidamente clasificados.
c) Especificidad. El investigador determina el nivel adecuado de análisis, de
acuerdo con el objetivo de la actividad y el objetivo del estudio. Esto implica
un equilibrio entre la especificidad y la generalidad. La primera opción permite
más detalle y complejidad, mientras que la segunda es más amplia y sencilla.
5 .2.5. Interpretación de los datos y comunicación de los resultados
Esta etapa consiste en interpretar y comunicar los datos conforme a los objetivos
que han guiado la investigación y la aplicación de los resultados. La TIC no requiere
un formato de informe específico, pero los resultados suelen incluir ejemplos de los
incidentes críticos que ilustran la actividad estudiada.
[152]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL
Con el fin de establecer la credibilidad de los resultados, Flanagan (1954) destaca
la necesidad de explicar y justificar cómo se han llevado a cabo los cuatro pasos anteriores y especificar con precisión las circunstancias en que los resultados podrían
aplicarse. Para más detalle acerca de los procedimientos para asegurar la calidad de
la investigación, véase el capítulo l.
5.3. VENTAJAS Y LIMITACIONES DE LA TÉCNICA DEL INCIDENTE CRÍTICO
En primer lugar, la técnica del incidente crítico permite una orientación exploratoria
de la investigación, en la que la observación se realiza en el propio contexto en el que
ocurre el hecho observado. En este sentido, una cuestión que Hewins (1990) apunta
es que esta técnica resulta eficaz en el estudio de las necesidades y usos de la información, pues está ligada totalmente al proceso de toma de decisiones, ya que relaciona
directamente el problema con la información necesitada en el contexto del proceso
de toma de decisiones.
En segundo lugar, la TIC hace especial énfasis en el recuerdo de un hecho pasado
en el que el informante decide cuál va a ser su respuesta, este hecho permite mayor
inmediatez y autenticidad.
En tercer lugar, una de las principales ventajas de la técnica del incidente crítico es
la posibilidad de relacionar el mundo real con el comportamiento de los individuos,
lo que minimiza el componente subjetivo del investigador. En este sentido, la TIC es
similar a la noción de la teoría fundamentada (Glaser y Strauss, 1967): «[... ] en el
descubrimiento de la teoría, se generan categorías conceptuales o sus propiedades de
la evidencia, entonces la evidencia de la que surgió la categoría se utiliza para ilustrar
el concepto». Este es el medio empleado en la investigación basada en incidentes
críticos, ya que permite fundamentar la investigación en la realidad. A partir de esto
la TIC, planteada en una fase exploratoria, podría permitir la identificación de las
cuestiones claves para la investigación y desarrollar una base de conocimientos para
el desarrollo de modelos conceptuales posteriores (Woolsey, 1986).
Por último, desde un punto de vista metodológico, aunque Flanagan (1954) planteó una serie de principios que estructuran el análisis, la TIC permite gran flexibilidad
en esta fase de la investigación, de tal manera que es posible realizar un análisis más
genérico o más específico dependiendo de la aplicación prevista de los resultados.
Respecto a los inconvenientes, en primer lugar, desde un punto de vista conceptual, la TIC carece de una base teórica fuerte de algunos otros métodos cualitativos.
Sin embargo, esto puede ser favorable para los estudios que tienen por objeto desarrollar un marco teórico conceptual o seguir un enfoque fundamentado en los
datos. Igualmente, la no existencia de esta base teórica le proporciona a la TIC la
5. TÉCNICADELINCIDENTECRITICO
[153]
flexibilidad necesaria para orientar la investigación siguiendo un modelo teórico
previo.
Desde un punto de vista práctico, el proceso de clasificación de los distintos
incidentes es laborioso y lento. Igualmente, la fiabilidad de al TIC es cuestionada
con respecto a la limitada posibilidad de generalización de resultados, subjetividad
del análisis y la selectividad o falta de exactitud de los incidentes críticos, debido a
que se basa en lo que el informante recuerda. Esto es algo que comparte con otros
métodos y técnicas de naturaleza cualitativa. Sin embargo, es un motivo más para
hacer más hincapié en la introducción de estrategias que permitan añadir mayor
rigurosidad al proceso de investigación, como por ejemplo: la formación de los observadores, la definición previa de conceptos y procedimientos, la implicación del
observado en el proceso de verificación, la triangulación metodológica, la validez
inter e intraobservador u otras estrategias para asegurar la calidad de la investigación propuestas en el capítulo 1.
5.4. EJEMPLOS DE INVESTIGACIONES
Ejemplo 1. Estudio de las necesidades de información de los médicos en el ámbito
hospitalario
Un ejemplo de la aplicación de la TIC lo tenemos en el estudio de las necesidades de
información de los médicos del Hospital Clínico Universitario de Valencia (González
Teruel, 2000). En él se trató de probar su utilidad y conocer qué información necesitaban los médicos para tomar decisiones relacionadas con las distintas tareas que
realizaban durante su jornada laboral. Fue un estudio exploratorio en el que se partía
de una falta de conocimiento objetivo sobre el comportamiento informacional de
estos usuarios en ese contexto.
Para ello se elaboró un cuestionario cuya pregunta central trataba de situar al
informante en un momento concreto de su actividad pasada en el que hubiera necesitado información. La pregunta se formuló de la siguiente manera:
Por favor, describa, lo más detalladamente posible, la ocasión más reciente y significativa en la que para tomar una decisión o para resolver un problema durante su actividad
laboral haya necesitado información adicional, con independencia de si ha buscado o no
esa información y del éxito o fracaso de la búsqueda.
El modo de administrarlo, aunque en principio se consideró la autocumplimentación, fue a través de entrevistas personales. Esto fue motivado por dos causas: a)
[154)
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL
evitar una alta tasa de no respuesta, pues el tiempo y el interés por participar en el
estudio podían ser limitados y b) permitir aportar aclaraciones sobre la pregunta
realizada en el transcurso de la cumplimentación por parte del médico. Junto con la
pregunta central de la ne, se hicieron otras con el fin de clarificar la situación relatada por el médico (cuadro 17 y cuadro 18).
Dada la naturaleza cualitativa de esta técnica, la población a estudiar no partió
de un muestreo previo, sino que, para que los resultados fueran suficientemente
significativos y variados en los casos que recogiera, se optó por considerar como
población diana a todos los médicos del hospital con jornada completa, en total
456. Igualmente, esta decisión ayudaría a aumentar el número de individuos entrevistados, ya que era previsible una tasa de respuesta baja. Con ello, se obtuvo una
tasa de respuesta válida del 81,6 %, cifra bastante alta si se compara con estudios
de similar naturaleza.
Cuadro 17. Preguntas del cuestionario en el estudio de González Teruel (2000) (1)
2. ¿Con qué urgencia necesitaba la información?
Inmediatamente
En el mismo día
Una semana
Más de una semana
3. ¿Buscó la información que necesitaba?
SÍ
NO
Pase a la pregunta 5
Conteste a la pregunta 4 y dé por finalizado el cuestionario
4. ¿Por qué no buscó la información que hubiera necesitado?
Falta de tiempo
Información disponible pero no accesible
Horario de disponibilidad de los recursos inconveniente
La información disponible no está actualizada
Desconocía dónde podía obtenerla
Otros (Especificar)
5. ¿Quién realizó la búsqueda?
1. Usted mismo
2. Delegó en otra persona: ¿en quién?
Para analizar la información, se realizaron dos tipos de análisis. En primer lugar,
un análisis de contenido de los relatos realizados por cada médico. Para ello se construyó una clasificación basada en los datos y en el estudio de Siegel, Rapp y Lindberg
(1991). Los criterios de esta clasificación fueron los problemas informativos y la
información necesitada (cuadro 19 y cuadro 20). Además, se realizó un segundo análisis estadístico del resto de las preguntas incluidas en el cuestionario.
5. TÉCNICA DEL INCIDENTE CRfTICO
[155)
Cuadro 18. Preguntas del cuestionario en el estudio de González Teruel (2000) (11)
6. Por favor, señale con una cruz la casilla que mejor describa la fuente adonde acudió usted o la persona en la que
delegó para buscar la información que necesitaba y la razón para elegir esa fuente
Calidad
Actualización
Bajo
Facilidad
Comodidad
Accesibilidad Rapidez de los
de los
Pertinencia
coste
de uso
contenidos
contenidos
Biblioteca o centro
de documentación
del hospital/facultad
Biblioteca o centro
de documentación
distinto al hospital/
facultad
Archivo de historias
clínicas
Internet
Unidad de
investigación
hospitalaria
Recursos personales
Compañeros de la
misma especialidad
Compañeros de otra
especialidad
Organizaciones
profesionales
Conferencias,
seminarios o
reuniones
Otros (especificar)
7. ¿Cómo valoraría usted la información proporcionada por cada fuente utilizada para la resolución del problema que
motivó la búsqueda?
Ni satisfactoria
Muy satisfactoria Satisfactoria
Insatisfactoria Muy insatisfactoria
ni insatisfactoria
FUENTES
Biblioteca o centro
de documentación
del hospital/facultad
Biblioteca o centro de
documentación distinto
al hospital/facultad
Archivo de historias clínicas
Internet
Unidad de investigación
hospitalaria
Recursos personales
Compañeros de la misma
especialidad
Compañeros de otra
especialidad
Organizaciones
profesionales
Conferencias, seminarios
o reuniones
Otros (especificar)
[156]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL
Cuadro 19. Clasificación de los problemas de información de los médicos del Hospital
Clínico Universitario de Valencia (González Teruel, 2000)
1. CUIDADO
DEL PACIENTE
1.1. Caso raro
1.2. Diagnóstico
1.2.1. Diagnóstico clínico
1.2.2. Diagnóstico anatomopatológico
1.2.3. Diagnóstico radiológico
1.2.4. Diagnóstico de laboratorio
1.2.5. Interpretación pruebas de otra especialidad
1.3. Tratamiento
1.3.1. Pauta de actuación
1.3.2. Decisión terapéutica
1.3.3. Información sobre medicamento
1.3.4. Valoración de un paciente
2. ESTUDIO Y APRENDIZAJE
2.1. Revisión de casos
2.2. Actualización de conocimientos
2.3. Sesión clínica
2.4. Comunicación científica
2.5. Publicación
3. PROCEDIMIENTO
3.1. Solicitud de prueba diagnóstica
3.2. Acceso a la asistencia
3.3. Acceso a la historia clínica
3.4. Localización de un paciente
3.5. Derivar a un paciente
3.6. Localización de un fármaco
4. GESTIÓN
4.1. Implantación de una nueva tecnología
4.2. Gestión asistencial
4.3. Confección de memoria
4.4. Planificación de un servicio
4.5. Gestión del hospital
5. INVESTIGACIÓN
5. l. Investigación
5 .2. Estudio epidemiológico
5.3. Actualización de protocolo
6. DOCENCIA
6.1. Residentes
6.2. Facultad
6.3. Otros
5. TÉCNICADEL INCIDENTECRÍTICO
11571
Cuadro 20. Clasificación de la información necesitada por los médicos
del Hospital Clínico Universitario de Valencia (González Teruel, 2000)
Datos del paciente
Estadísticas de población
Conocimiento médico
Información sobre procedimientos
Información para la gestión
En cuanto a los resultados, estos sirvieron para realizar una primera aproximación al contexto informacional de un grupo de usuarios en un entorno organizacional
concreto, el del Hospital Clínico Universitario de Valencia. Por otra parte, en cuanto
a la técnica utilizada, se demostró que fue útil para conseguir los objetivos propuestos, y permitió la recogida de un gran volumen de información cualitativa que no
hubiera sido posible conseguir de otro modo. En este sentido, fue de gran ayuda el
hecho de que los médicos que relataron problemas relacionados con el diagnóstico o
tratamiento de pacientes describían toda la historia pasada del paciente, sintiendo la
necesidad de situar al interlocutor en la circunstancia real en la que surgió la necesidad de información.
Ejemplo 2. Comportamiento informacional de los jóvenes adultos en materia
de salud sexual
El estudio de Fortier (2008) y Portier, Dufour y Bergeron (2010) tuvo como objetivo
investigar el comportamiento informacional de los jóvenes adultos (18 a 25 años) en
materia de salud sexual. En concreto, su objetivo fue conocer las situaciones problemáticas que encontraban en ese ámbito y cómo obtenían y utilizaban la información.
Para ello, seleccionaron una muestra de ocho individuos a través del procedimiento
del muestreo teórico. El método de recogida de información fueron entrevistas en
profundidad orientadas según la TIC.
En este caso, la entrevista se inició pidiéndole al informante que pensara en una
situación reciente (seis meses) en la que hubiera tenido necesidad de información en
materia de salud sexual. Posteriormente, con relación a esta situación se formularon
preguntas relacionadas con el contexto en que surgió esa necesidad, el medio para la
obtención de la información necesaria y el uso que se hizo de tal información.
El análisis de los datos obtenidos se realizó por medio de un análisis de contenido
cualitativo siguiendo los procedimientos de la teoría fundamentada. La unidad de
análisis considerada fue cada uno de los incidentes registrados. Estos fueron clasifica-
[158]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL
dos partiendo de categorías basadas en los propios datos, pero también en categorías
predefinidas provenientes de otras investigaciones, buscando dar respuesta a cada
una de las preguntas de investigación formuladas.
Las situaciones problemáticas fueron clasificadas según tipos y dimensiones. Los
tipos describían el contexto en que estas situaciones tuvieron lugar y fueron tres: a)
síntomas físicos subjetivos, b) acontecimiento de riesgo y e) adquisición pasiva de
información. Por otra parte, cada una de estas situaciones fue clasificada siguiendo
las dimensiones del modelo de MacMullin y Taylor (1984) sobre el entorno de uso
de la información. El resto de aspectos estudiados fue analizado, en la misma línea,
tanto a partir de categorías basadas en los datos como a partir de investigaciones
precedentes.
5.5. RESUMEN
La técnica del incidente crítico (TIC) es un procedimiento sistemático de recogida de
datos que pretende centrar al informante en un momento pasado en el que ocurrió
algo relevante para la investigación. Desde el punto de vista del estudio del comportamiento informacional, es una técnica que permite centrar al usuario en un momento
del pasado en el que necesitó información y, como consecuencia de ello, el proceso
de búsqueda al que dio lugar. Por lo tanto, permite vincular la información utilizada
con el problema que generó esa necesidad de información, obteniendo información
amplia sobre estos aspectos sin buscar las extrapolaciones ni la generalización de
resultados, solo información rica en detalle.
La TIC es un procedimiento flexible que puede adaptarse con facilidad a los objetivos de la investigación, aunque de forma general se contemplan cinco etapas en su
puesta en marcha: 1) definición de objetivos generales, 2) establecimiento de planes
y especificaciones, 3) recogida de datos, 4) análisis y 5) interpretación de los datos y
comunicación de los resultados. Puesto que el objetivo es obtener información rica
en detalle más que representatividad de los resultados, la selección de los informantes
se realiza generalmente por medio de muestreo no probabilístico. Por otra parte, los
datos se pueden obtener por medio de una entrevista individual en la que se pregunta
por un hecho ocurrido en el pasado, relevante para la investigación, pero también se
pueden obtener a través de entrevistas de grupo, cuestionarios y observación. Finalmente, el análisis de los datos obtenidos se realiza por medio de análisis de contenido
cualitativo.
CAPÍTULO 6
OBSERVACIÓN
6.1. DEFINICIÓN Y ÁMBITOS DE APLICACIÓN
La técnica de la observación consiste en conocer de primera mano y registrar de
forma sistemática distintos fenómenos observables que, en el ámbito del comportamiento informacional, pueden ser todos aquellos que tengan relación con las distintas
situaciones vividas por un usuario o grupo de usuarios en el transcurso del proceso
de búsqueda de información. La principal ventaja de esta técnica es la de permitir
estudiar a este usuario en el contexto natural en el que necesita, busca, gestiona,
comparte, difunde y utiliza la información. Junto con todo ello, la observación permite la obtención de datos más allá de su percepción y al margen de su voluntad de
proporcionarlos.
En el estudio del comportamiento informacional, existen ya en los años sesenta
precedentes del uso de esta técnica para el estudio de algún aspecto del proceso de
búsqueda de información. Es el caso del trabajo de Pings y Anderson (1965), recogido por Herner y Herner (1967), que estudiaron a través de la observación el uso
que hacían los usuarios del espacio de una biblioteca universitaria. Igualmente, en
el estudio Infross (Jnformation Requirements of the Social Sciences), dirigido por
Maurice Line ( 1971 ), se utilizó la observación, junto con entrevistas y cuestionarios,
para estudiar las necesidades y usos de la información, tanto formal como informal,
de los científicos sociales.
Sin embargo, al margen de estos primeros estudios, existe una investigación
que aún actualmente es un referente en el uso de la observación para el estudio del
comportamiento informacional por el avance metodológico que supuso. Se trata
del estudio INISS (lnformation Needs and Services in Social Services Departments).
Como reacción al abuso precedente de técnicas de orientación cuantitativa (sobre
todo cuestionarios) para el estudio del usuario, y llevados por la necesidad de obtener resultados realmente aplicables a la mejora de sistemas de información, Wilson
(160]
MÉTODOS Y TÉCNICASPARA LA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL
y sus colaboradores diseñan una estrategia basada en la triangulación metodológica. Para ello la técnica de la observación se utilizó en una primera fase exploratoria,
principalmente para conocer el contexto de estudio, y fue seguida de una fase de
entrevistas en la que se validaron los resultados obtenidos en la fase anterior, a la
vez que profundizaron más en aspectos concretos de interés para la investigación
(Wilson y Streatfield, 1977; Wilson, Streatfield y Mullings, 1979; Streatfield y Wilson, 1982). En el último epígrafe de este capítulo se describen los detalles de la fase
de observación del estudio INISS.
Uno de los motivos por los que el estudio INISS marca un antes y un después en los
estudios sobre comportamiento informacional es el hecho de que abordó el estudio
de este fenómeno de forma global y sin juicios previos acerca de los hábitos informativos de los usuarios que iba a estudiar. Para ello, la observación fue una estrategia de
gran utilidad, pues permitió orientar la investigación del usuario en el contexto en el
que necesitaba y usaba la información, sin extrapolaciones artificiales por razón de
variables sociodemográficas que nada o poco tenían que ver con el fenómeno ni el
contexto estudiado.
A partir de estos primeros estudios se han desarrollado otros a lo largo de los
años que, aun no siendo de la importancia y envergadura del INISS, han aportado un
mayor conocimiento sobre diversos aspectos del comportamiento informacional en
diferentes contextos. A continuación se describen algunas de las aplicaciones de la
observación para el estudio del comportamiento informacional:
Estudio del comportamiento de búsqueda de información de los miembros del
Parlamento británico (Orton, Marcella y Baxter, 2000).
-111 Papel de los trabajadores de enfermería como proveedores de información de
los ancianos a los que asisten (Pettigrew, 1999), así como para el estudio de las
necesidades de información de los propios trabajadores de enfermería (Blythe
y Royle, 1993).
-111 Uso del espacio de distintos tipos de biblioteca por parte de sus usuarios (Shoham y Shemer-Shalman, 2003; Bryant, Matthews y Walton, 2009) y su influencia en su comportamiento informacional (Given y Leckie, 2003).
-111 Estudio del comportamiento informacional colaborativo de un equipo interdisciplinar en un departamento de urgencias médicas (Reddy y Spence, 2008),
así como para la construcción de un modelo de comportamiento informacional de los científicos en medicina y salud pública (Blake y Pratt, 2006).
-111 En el contexto bibliotecario, para la evaluación de un prototipo de una biblioteca electrónica (Downs, 1999), así como para estudiar el papel de la conducta no verbal en el comportamiento del usuario en un servicio de referencia
(Radford, 1998).
-111
6. OBSERVACIÓN
~
~
(161)
Necesidades de información de los médicos en atención primaria (GonzálezGonzález y otros, 2005, 2006) y de los médicos oncólogos (Lomax, Lowe y
Logan, 1998).
Necesidades de información de los pacientes con migraña (Buchanan y otros,
1995).
6.2. TIPOS DE OBSERVACIÓN
Existen diversos enfoques de la observación como técnica de recogida de datos. Los
principales criterios que determinan esta diversidad son el conocimiento por parte
del sujeto de que está siendo observado, el rol que asume el observador y los medios
utilizados para el registro de las observaciones, entre otros (cuadro 21).
En primer lugar, es posible distinguir entre observación abierta y observación encubierta. En la primera los individuos observados son conscientes de que están sujetos a investigación y conocen quién es el observador y el papel que cumple. Es la
forma en la que normalmente se aplica esta técnica al estudio del comportamiento
informacional. Pero también esta observación puede hacerse de forma encubierta,
es decir, dichos individuos no saben que están siendo observados. De esta manera
se evita la posible influencia del observador sobre aquello que observa y los posibles
cambios que se producen en la conducta de los individuos que se saben observados.
En segundo lugar, la observación puede ser participante y no participante. En
la observación participante el observador está integrado en la dinámica del grupo
observado de tal manera que puede captar el sentido subjetivo de los aspectos que
observa. En la observación no participante el investigador es una persona ajena al
grupo y no interfiere en lo que está ocurriendo mientras realiza tales observaciones.
En tercer lugar, en cuanto al modo como se registran las observaciones, se puede
distinguir entre observación estructurada y no estructurada. En la observación estructurada el investigador entra en el campo conociendo de antemano qué aspectos debe
observar y registrar. Estos aspectos se han definido previamente y están derivados
de los objetivos de la investigación. Por el contrario, en la observación no estructurada los registros de la realidad observada son más abiertos y no se establecen a priori
los aspectos que se van a observar.
Además, existen otros criterios como son el control al que se somete el entorno
estudiado. Desde este punto de vista, es posible encontrar investigaciones en las que
los aspectos observados son aquellos que ocurren sin que el investigador modifique
o controle las condiciones en las que ocurren o, por el contrario, una observación de
laboratorio en la que las condiciones en las que se desarrollan los acontecimientos
observados están sometidas a un fuerte control. También se distingue entre observa-
1162)
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO
INFORMACIONAL
Cuadro 21. Tipos de observación
Conocimiento por parte del sujeto observado (o según el modo de entrar en el campo):
Abierta
Encubierta
Según el rol del observador
Participante
No participante
Según el grado de estructuración de las observaciones
Observación no estructurada o asistemática
Observación estructurada o sistemática
Otros criterios
Según el control al que se somete el entorno: trabajo de campo/laboratorio
Según el número de observadores: individual/en equipo
Según a quien se observe: a otros/autoobservación
ción individual y observación en grupo y la observación que realiza el observador de
aspectos externos de la realidad y la autoobservación en la que coinciden observador
y sujeto observado.
Al margen de estos criterios, en la literatura sobre metodología de las ciencias sociales es posible identificar dos tradiciones en lo que respecta a la técnica de la observación que vienen determinadas en gran medida por la disciplina en la que se originaron y desarrollaron. La primera de ellas tiene sus orígenes en la psicología y la segunda
surge en el seno de la sociología y la antropología. El modo de denominar estas dos
tradiciones, así como sus características definitorias, varía según distintos autores. Así,
Denscombe (2007) habla de la observación sistemática y la observación participante.
La primera de ellas la relaciona con la producción de datos cuantitativos y el uso de
análisis estadístico. La segunda es la observación participante que tiene una orientación más cualitativa. Sin embargo, la denominación que emplean Gorman y Clayton
(2005) se refiere al grado de estructuración del registro de las observaciones. De esta
manera, identifican en la literatura sobre metodología de investigación dos tipos de
observación, la estructurada y la no estructurada. La observación estructurada se centra en un evento o actividad y registra estas observaciones utilizando un instrumento
de observación preestablecido en el que se han previsto una serie de categorías, lo
que da lugar a la obtención de datos cuantitativos. Por el contrario, en la observación
no estructurada el observador registra cualquier conducta o evento que es relevante
para las preguntas de investigación, lo que implica un proceso más abierto desde un
enfoque cualitativo. Por último, Hernández-Sampieri y otros (201 O)se refieren a estas
dos tendencias en la técnica de la observación como observación cuantitativa con un
carácter deductivo y observación cualitativa con un enfoque inductivo.
6. OBSERVACIÓN
[163]
En cualquier caso, como se ha mencionado, son dos tradiciones en las que en
un extremo podemos encontrar un planteamiento muy sistemático y en el otro muy
abierto y asistemático. Son dos modos de aplicar la técnica de la observación condicionados y determinados por el enfoque que se le da a las distintas investigaciones.
En este sentido, desde la documentación no es posible identificarse con ninguno de
estos planteamientos de forma exclusiva, sino con todos en general, en la medida
en que aportan pautas útiles para sus necesidades de investigación. Es por ello por
lo que en el presente capítulo no se organizan los contenidos siguiendo estas dos
líneas, sino atendiendo a los tres principales criterios que marcan los distintos tipos
de observaciones. Es el investigador el que, en el diseño de un estudio observacional,
deberá establecer el modo en que se realizarán las observaciones según los objetivos
de su propia investigación.
6.3. ENTRADA EN EL CAMPO. OBSERVACIÓNABIERTAY ENCUBIERTA
Como se ha explicado en el epígrafe anterior, la observación abierta es aquella en la
que los sujetos de la investigación conocen que están siendo observados. Por el contrario, en la observación encubierta, la existencia del observador permanece oculta
para el grupo observado.
Una de las cuestiones relevantes que se discuten con relación a la calidad de la
investigación basada en la técnica de la observación es el efecto del observador sobre
la situación observada. Anguera (2003) se refiere a este fenómeno como reactividad y
lo considera una fuente de sesgo en la observación, ya que la naturaleza espontánea
de las conductas de los sujetos observados es alterada cuando estos son conscientes
de que están siendo observados. Es precisamente el efecto que produce el observador
en el grupo observado el principal argumento que se esgrime en favor de la observación encubierta. Además, el hecho de no dar a conocer la existencia de un observador
facilita el acceso a determinados entornos. En ocasiones, la observación se realiza de
forma encubierta pero se hace uso de un informante clave que es el único que conoce
la existencia de tal observador y que actúa de gatekeeper.
Sin embargo, realizar una observación encubierta comporta problemas éticos por
la violación de la intimidad de los sujetos observados, así como el posible daño que
pueda hacérseles. No obstante, Corbetta (2010) afirma que esto es así cuando se trata de la observación de entornos privados, pero no ocurre lo mismo cuando se trata
de observar ambientes públicos. Este es el caso, por ejemplo, del estudio de Bryant,
Matthews y Walton (2009), que investiga los usos sociales del espacio de la biblioteca de la Universidad de Loughborough, en Reino Unido. Al proponer la investigación basada en la observación encubierta al comité de ética de esta universidad, fue
(164)
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL
aceptado por realizarse en un ámbito público y anunciarse dicha investigación en la
sede web de la biblioteca. Además de la excepción de los espacios públicos, Corbetta
(2010) también se refiere al caso de que el observador ya esté integrado en el ambiente, como sería, por ejemplo, el profesor que observa y analiza el comportamiento
informacional de sus alumnos cuando tienen que resolver un problema académico.
En la línea de la observación encubierta, Green y Thorogood (2004) incluyen
una técnica proveniente del ámbito de los estudios de mercado llamada cliente
oculto o mystery shopping. Se trata de que un investigador se haga pasar por el
cliente de un servicio para probar cómo son tratados en general los clientes de
ese servicio. Se trata de probar en condiciones reales su funcionamiento, para lo
cual el investigador interactúa de forma encubierta. Aunque su clasificación en el
contexto de los estudios observacionales puede ser discutible por lo específico de la
técnica, por una parte, se enfrenta a las mismas cuestiones éticas que la observación
encubierta y, por otra, tiene la ventaja de poder recoger información en entornos
naturales sin la influencia del observador sobre lo observado, tal y como ocurre con
la observación encubierta propiamente dicha. En el ámbito del estudio del comportamiento informacional ha sido empleada en algunas ocasiones. Curry (2005)
la utiliza para investigar el modo en que los referencistas de una biblioteca pública
atienden las peticiones de información de un supuesto joven homosexual. Por otra
parte, Riaza Chaparro (2007) documenta el estudio realizado en las bibliotecas de
la Obra Social Caja Madrid para valorar el nivel de calidad de los servicios a través
de la técnica del cliente oculto.
6.4. EL ROL DEL OBSERVADOR.NIVELESDE PARTICIPACIÓN
Si consideramos el rol del observador como criterio para clasificar el tipo de observación, en un extremo podemos encontrar la observación no participante y en otro
la observación participante. En la observación no participante el observador actúa
de forma neutra sin relacionarse ni interactuar con el sujeto observado (Anguera,
1995). Por el contrario, en la observación participante el investigador está inmerso
en aquello que observa participando e interactuando para poder llegar a entender
el ambiente estudiado. Jorgensen (1989) afirma que la observación participante es
apropiada cuando se conoce poco sobre un fenómeno, cuando existen diferencias
entre lo percibido desde un punto de vista interno y externo (por ejemplo, en el caso
de grupos étnicos, organizaciones sindicales o grupos profesionales), cuando el fenómeno no admite la presencia de miradas ajenas (rituales religiosos, vida familiar,
etcétera) y cuando el fenómeno se oculta de la mirada pública (conductas delictivas,
asociaciones secretas o sectas religiosas).
(165]
6. OBSERVACIÓN
Tradicionalmente se han descrito cuatro roles desde el punto de vista de este criterio de clasificación basándose en los escritos de Gold (1958) y Junker (1972). Así,
podemos encontrar el participante completo, el participante como observador, el observador como participante y el observador completo. Igualmente, desde la perspectiva de la etnografía y el desarrollo de la observación participante, Spradley (1980)
distingue los siguientes tipos de implicación en la observación: completa, activa, moderada, pasiva y no participación (tabla 13).
Tabla13. Rol del investigador en la observación
Gold (1958) y Junker (1972)
Spradley (1980)
Participante completo
Participante como observador
Observador como participante
Completo observador
Completo observador
Participación completa
Participación activa
Participación moderada
Participación pasiva
No participación
En primer lugar, el participante completo es aquel investigador que asume un rol
en el grupo observado participando completamente en la dinámica del dicho grupo.
Para Junker (1972) las actividades del observador que asume este rol se disimulan
completamente, mientras que para Kawulich (2005) se trata de una observación encubierta, pues oculta al grupo su rol para evitar interrumpir la actividad normal. De
esta manera utiliza su posición para llevar a cabo la investigación y esto facilita el
acceso al contexto estudiado. Por otra parte, también puede minimizar la reactividad
de los sujetos observados, más si la observación es encubierta. Sin embargo, siendo
participante completo, el observador puede dedicar menos tiempo al registro de las
observaciones y confundir su rol de participante con el de observador y viceversa, dificultando la necesaria distancia para informar de sus observaciones. Según el
grado de implicación del observador, en los términos que define Spradley (1980), la
participación completa sería el nivel más alto de implicación para el investigador y
probablemente se alcanzaría cuando se estudia una situación en la que dicho observador ya participa de forma rutinaria.
En segundo lugar, en una situación en la que un participante actúa como observador, el investigador asume un rol en el contexto estudiado, participa en su dinámica y
el grupo conoce que está bajo observación. Asumir el papel de participante facilita el
acceso al contexto estudiado e incluso ayuda a que los sujetos observados se olviden
de que están siendo observados (Foster, 2006). Este rol también tiene desventajas,
ya que hay que mantener el equilibrio entre la profundidad de los datos revelados
al investigador y el nivel de confidencialidad brindado al grupo por la información
[166)
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL
que ellos ofrecen (Kawulich, 2005). Por otra parte, Spradley (1980), desde el punto
de vista del grado de implicación del observador, habla del participante activo como
aquel que trata de hacer lo que hacen los demás, no solo para lograr la aceptación del
grupo sino también para conocer más plenamente las normas culturales de conducta.
En tercer lugar, el observador como participante significa que el observador interactúa con los sujetos sin asumir un rol establecido en el grupo, únicamente como investigador, y estos sujetos saben que están siendo investigados. Para Kawulich (2005),
actuando el observador como participante, este no es un miembro del grupo, pero
está interesado en participar como un medio para conseguir una mejor observación
y, de ahí, generar un entendimiento más completo de las actividades grupales. Para
Foster (2006), al igual que con el papel de observador completo, una de las ventajas
de esta estrategia es que el investigador es más capaz de mantener su distanciamiento
de lo que observa y asumir una visión ajena al grupo. Por el contrario, una desventaja
es que este investigador puede ser visto como un inspector, un crítico o un intruso y,
como resultado, los sujetos pueden cambiar su comportamiento con el fin de presentarse a sí mismos de una manera particular e incluso reaccionar con hostilidad. De los
tipos de participación descritos por Spradley (1980) se podría hacer el paralelismo
con lo que llama participaciónmoderada que significa que, en una escala de implicación del observador, este sería el término intermedio donde asume un papel a medio
camino entre ser un miembro del grupo o ser un extraño.
Y, por último, el observador completo es aquel que está completamente fuera del
escenario o contexto que observa, sin interactuar con los sujetos observados. En algunas ocasiones los registros de las observaciones se realizan a través de una cámara,
sin entrar en contacto directo con dichos sujetos. Es el rol que más se aproxima a la
idea de observador objetivo (Adler y Adler, 1994) y en ocasiones las observaciones
se realizan de forma encubierta. Como consecuencia, asumiendo este rol es posible
minimizar la reactividad producida por la presencia física del investigador y eliminarla si realmente la observación es encubierta. Sin embargo, dada la distancia que
marca la asunción de este rol, al investigador le resultará difícil apreciar o asumir
la perspectiva del contexto que está observando o ponerse en el lugar de los sujetos
observados. Es por esta razón por lo que la asunción del rol de observador completo
será más propio de investigaciones que parten de categorías de observación a priori y
dejen poco lugar a la interpretación (Foster, 2006). En otras palabras, será propio de
investigaciones con un enfoque deductivo, cuantitativo, sistemático y estructurado.
Desde el punto de vista del grado de implicación, Spradley (1980) habla de participación pasiva y no participación. En la participación pasiva las actividades son
observadas en el contexto que ocurren pero sin participación ni interacción, mientras
que en la no participación las actividades son observadas desde fuera del escenario
de investigación.
6. OBSERVACIÓN
[167]
Aunque es posible describir estos cuatro roles, lo más probable es que en el curso
de una investigación el rol asumido por el observador cambie. Es posible que en una
fase exploratoria se asuma el rol de participante como observador y al finalizar esa
investigación el rol asumido sea el de observador completo. También puede ocurrir lo
contrario, comenzar como observador completo y finalizar como participante completo. Incluso es posible que en distintas situaciones de la misma investigación se asuman distintos roles. En el ámbito del comportamiento informacional, es interesante
el trabajo de Cooper, Lewis y Urquhart (2004 ), en el que comparan la experiencia
obtenida en un estudio donde aplican tanto la observación no participante como la
participante. La primera se aplicó al estudio de las necesidades de información de
los farmacéuticos de un hospital. La segunda, la observación participante, se aplicó
al estudio de las necesidades de información de personas mayores dependientes que
viven en el hogar.
6.5. REGISTRO DE LAS OBSERVACIONES
6.5 .1. Observación estructurada
Foster (2006) ubica las raíces de la observación estructurada en tradición positivista
de las ciencias sociales, en que el énfasis se pone en la medición exacta y objetiva de
la conducta humana observable, en la definición previa y precisa de conceptos, en la
producción de datos cuantitativos, en el examen de las relaciones entre las variables
mediante técnicas experimentales y estadísticas y en la validación de teorías usando
lo que se ha denominado el método hipotético-deductivo.
Con respecto a la observación estructurada surgen principalmente tres preguntas:
qué observar, cómo medirlo y cómo registrarlo. Respecto a la primera cuestión, qué
observar, Fernández Ballesteros (1992) clasifica las unidades de análisis, es decir, los
aspectos conductuales a observar en continuo del comportamiento, atributos, conductas, interacciones y productos de conducta.
Continuo del comportamiento: es un registro descriptivo de la mayor parte de
los eventos que ocurren en un contexto natural en amplias unidades de tiempo.
No se especifica de antemano qué observar, se hace a tiempo real y de forma
continua. Las descripciones se realizan sobre aspectos verbales, no verbales y/o
espaciales de la conducta.
"'41 Atributos: se observan las conductas manifiestas (frunce el ceño, temblor en las
manos, sale de la habitación) y a través de la inferencia (preocupación, nerviosismo, evitación de la situación).
"'41
[168)
MÉTODOSY TÉCNICASPARALA INVESTIGACIÓN
DEL COMPORTAMIENTO
INFORMACIONAL
• Conductas: se observan conductas manifiestas motoras, verbales y fisiológicas
que previamente se han definido. La observación permite mínimas inferencias
por parte del observador. Se seleccionan los intervalos de tiempo en los que se
va a realizar la observación.
• Interacciones: se observa la relación entre dos eventos que se producen secuencialmente y que implican a dos o más personas. Suele realizarse durante un
periodo de tiempo previamente establecido.
• Productos de conducta: se observa el resultado de un conjunto de actividades
que los sujetos observados han realizado en situaciones tanto naturales como
artificiales.
La segunda pregunta a la que hay que responder es cómo medir el comportamiento observado. León García y Montero García-Celay (2006) proponen las siguientes
cinco medidas:
• La ocurrencia informa sobre la aparición de una determinada categoría en
un periodo de observación (¿el usuario accede la biblioteca electrónica de su
organización para buscar información?).
• La frecuencia indica cuántas veces ha aparecido una determinada categoría
en un periodo de observación (¿cuántas veces accede el usuario a la biblioteca
electrónica para buscar información?).
• La latencia indica el tiempo que transcurre desde un momento concreto hasta
la aparición de la conducta en cuestión (cuando un usuario realiza determinada tarea, ¿cuánto tiempo tarda en acceder a la biblioteca electrónica?).
• Duración es el tiempo en que la categoría está presente de forma ininterrumpida (¿qué tiempo dedica el usuario a consultar la biblioteca electrónica?)
• Intensidad es el grado en que la conducta aparece (¿qué tipo de búsqueda
realiza el usuario en su biblioteca electrónica? ¿Ojea los recursos o recupera
información?)
Y, por último, puesto que la observación estructurada tiene una naturaleza deductiva, las observaciones se realizan y registran a partir de categorías predefinidas,
formuladas según los objetivos de la investigación. Para Denscombe (2007) esta lista
de categorías opera como una lista de verificación en la que todos los observadores
seleccionarán los ítems a medida que van ocurriendo. De esta manera, se minimiza
el registro de datos que provengan de las percepciones del observador y aumenta la
consistencia entre las observaciones realizadas por diferentes observadores. Respecto
a la primera cuestión, se trata de reducir el posible sesgo introducido por el observador a la hora de seleccionar los hechos que somete a observación y el modo en
6. OBSERVACIÓN
[169]
que se registran e interpretan tales observaciones. Respecto a la consistencia entre
observaciones, hace referencia al acuerdo entre estos a la hora de registrar los mismos
eventos (concordancia interobservador) o bien a las observaciones registradas por
un mismo observador en momentos diferentes (concordancia intraobservador). Esta
concordancia entre observaciones indica el grado de fiabilidad del proceso de observación y se basa en la idea del porcentaje de ocasiones en las que hay coincidencia en
un registro respecto al total de registros realizados.
Por lo tanto, la observación estructurada requiere seleccionar o crear un sistema
de categorías de registro previo al acto de recogida de información según los objetivos de la investigación. Anguera (1990) define el registro como la transcripción
de la representación de la realidad por parte del observador mediante la utilización
de códigos determinados y se materializa en un soporte físico que garantiza su
prevalencia.
Respecto a la determinación de categorías de observación, Denscombe (2007)
propone una lista de siete requisitos que deben cumplir:
... La conducta que se observa debe ser manifiesta, observable y medible de forma directa, pues las actitudes y pensamientos solo pueden ser inferidos por el
observador y no son observables de forma directa.
... Las categorías deben ser obvias y deben requerir un mínimo de interpretación
y de esfuerzo por parte del investigador para determinar si una conducta pertenece a una u otra categoría.
... Deben ser independientes del contexto, es decir, que el contexto de la situación
no debería tener un impacto significativo en cómo se ha de interpretar el comportamiento.
... Deben ser categorías relevantes con relación a los objetivos de la investigación .
... Deben ser completas en el sentido de que cubran todas las posibilidades de
conducta conforme a los intereses de la investigación y que no existan lagunas .
... Deben ser categorías precisas sin solapamiento entre ellas, mutuamente excluyentes y sin ambigüedad.
... Deben ser de fácil registro en el sentido de que las conductas ocurran con suficiente regularidad, pues, de lo contrario, sería una pérdida de tiempo.
Por otra parte, Bakeman y Gottman (1986) recomiendan los siguientes puntos a
tener en cuenta para elaborar un código de observación:
... Observar habiéndose planteado una pregunta previa claramente formulada.
... Seleccionar el nivel de análisis adecuado para buscar una respuesta y para
comenzar a observar.
1170]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL
'4 Hacer una observación asistemática para recoger información en forma narra-
tiva para ir descubriendo categorías de análisis.
'4 Procurar usar categorías dentro del mismo nivel de detalle que sean homogé-
neas y lo suficientemente detalladas.
'4 El código debe estar formado por categorías exhaustivas y excluyentes entre sí.
'4 Realizar finalmente un proceso de depuración, mediante la contrastación em-
pírica.
En cuanto a los tipos de registros, Evertson y Green (1989) identifican los sistemas
abiertos y los cerrados. Los sistemas abiertos son más flexibles, pueden contener una
gama de categorías prefijadas sin ser mutuamente excluyentes y datos que son el punto de partida de la generación de categorías. Dentro de los sistemas abiertos podemos
distinguir los registros narrativos, los descriptivos y los tecnológicos y, en general,
estarían relacionados con una observación menos estructurada. El registro narrativo
se define como la descripción de bajo nivel, realizada mediante lenguaje oral o escrito, que es propia de fases iniciales de la observación, y se caracteriza por su falta de
estructura (Anguera, 1990). Por otra parte, el registro descriptivo tiene mayor grado
de estructuración, un lenguaje más preciso y cierto grado de categorización. Sería una
transformación del registro narrativo. El registro tecnológico suministra datos registrados por medios de grabación de audio o vídeo, están en bruto y se deben analizar
para construir categorías.
En cuanto a los sistemas cerrados, estos contienen una serie de categorías o unidades de observación prefijadas, mutuamente excluyentes, construidas a partir de un
presupuesto teórico, basadas en la experiencia o resultado de una fase de observación
exploratoria previa. La observación se basará en la identificación y registro según
estas categorías predefinidas (Evertson y Green, 1989). Como sistemas cerrados encontraríamos los sistemas categoriales, las listas de confirmación y los sistemas de
valoración. En primer lugar, los sistemas categoriales contienen categorías prefijadas
en las que el observador registra en esa categoría toda conducta observable mientras
esta ocurre. En segundo lugar, las listas de confirmación consisten en el registro esquemático sobre la presencia o ausencia de conductas concretas. Y, por último, los
sistemas de valoración tienen como objetivo cuantificar las observaciones a partir de
categorías prefijadas (tabla 14).
Tabla 14. Categorías de registro por medio de un sistema de valoración
Cuando el analista busca el dato de subida del IPC recurre a la fuente primaria
Siempre
A menudo
De vez en cuando
Pocas veces
Nunca
11711
6. OBSERVACIÓN
Un ejemplo de registro a través de un sistema de categorías en el ámbito de la
información y documentación sería el estudio de Given y Leckie (2003 ), en el que
observan el uso que los usuarios hacen de los espacios de las bibliotecas públicas
a través de lo que denominan el método seating sweeps. Este método consiste en la
observación de los usuarios de la biblioteca y en el registro de su conducta a partir
de unas categorías predefinidas y utilizando una serie de códigos. Un extracto de este
sistema de registro se muestra en la tabla 15.
Tabla 15. Categorías de registro de datos en el estudio de Given y Leckie (2003)
PERFIL
Varón
Mujer
Edad
POSESIONES
Libros, material de lectura/escritura
Maletín, carpeta
Macuto, bolsa de mano
Ordenador portátil
Comida, bebida
Otras posesiones (usar el reverso)
ACTIVIDADES
Leyendo
Escribiendo
Buscando/recuperando físicamente
Usando portátil
Usando ordenador de la biblioteca
Usando otros equipos de la biblioteca (fotocopiadora, etcétera)
Usando el teléfono
Hablando
Escuchando (walkman, cintas)
Interactuando con el personal
Otras (usar el reverso)
6.5 .2. Observación no estructurada
Al contrario que la observación estructurada, Foster (2006) establece los orígenes
de la observación menos estructurada o no estructurada en la antropología y en la
aplicación de su enfoque etnográfico, donde se ha rechazado el enfoque positivista de
las ciencias sociales. Se trata de un ámbito en el que se ha subrayado que, para enten-
(172]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIEl\.'TO INFORMACIONAL
der el comportamiento humano, es necesario conocer y entender el contexto social y
cultural de lo que se observa, sin ideas preconcebidas y a través del registro de la información por parte del investigador en forma de notas de campo. Así, el objetivo de
la observación no estructurada es la producción de información cualitativa detallada
sobre el contexto y los individuos observados.
Sobre qué aspectos es necesario observar, como en cualquier investigación, dependerá de sus objetivos; no obstante, es interesante la lista propuesta por Patton (1987,
2002) a este respecto:
... El entorno físico en que transcurre lo que se está observando descrito con
suficiente detalle como para que pueda ser visualizado por alguien ajeno a la
investigación. Un ejemplo de esto es el fragmento reproducido en el cuadro 22,
en el que se recogen las notas de un investigador del estudio INISS describiendo
el lugar concreto en que realizaban las observaciones.
Cuadro22. Nota de observación del estudio INISS (Wilson y Streatfield, 1980)
Lunes por la mañana
Ordenar el correo (director de sector)
8.30
Charles King, el director, ya está en su escritorio en una oficina grande que contiene una mesa de conferencias, libros y una extensa alfombra. El sol brilla a través de la fila de ventanas a lo largo de una
pared y sujeto y observador van en mangas de camisa. El acceso normal a esta oficina es a través de la
oficina de secretaría y la puerta intermedia está abierta (y sigue estándolo excepto durante las reuniones o durante discusiones confidenciales) .
... El medio humano y social, es decir, cómo las personas que integran este medio
se organizan en grupos y cómo interactúan, por ejemplo, cómo se toman las
decisiones y quién las toma. No solo interesa la percepción del propio observador, sino también la percepción del sujeto observado.
... La perspectiva histórica del entorno observado complementaría las observaciones anteriores y determinaría los valores que son importantes en dicho entorno porque han permanecido a lo largo del tiempo .
... Descripción de las actividades y comportamiento de los participantes, determinando unidades de observación y presentando la secuencia de tales actividades
y comportamiento. Se refiere a las actividades y comportamiento formal.
... Interacciones informales y actividades no planificadas que ocurren entre
los tiempos dedicados a las actividades y comportamientos formales antes
referidos .
... El lenguaje de los sujetos, ya que puede desvelar cuestiones acerca de su mentalidad, de sus actitudes, de sus experiencias y de sus puntos de vista, así como de
6. OBSERVACIÓN
11731
aspectos sobre la cultura de la organización difícilmente identificable a través
de otro medio.
~ La comunicación no verbal, menos evidente que la comunicación verbal pero
tan importante o más que ella. Por ejemplo, Radford (1998) estudió la importancia de la comunicación no verbal en la decisión de los usuarios para acudir
al mostrador de referencia y expresar una demanda de información.
~ Medidas no obtrusivas, es decir aspectos que los sujetos no saben que son objeto de observación, como por ejemplo la diferencia de mobiliario o la diferente
ubicación de los despachos revelarán diferencias de estatus o de relaciones en
una organización.
~ Los documentos que circulan entre los sujetos, ya que son otro canal de comunicación tan importante como la comunicación oral y revelan información
sobre las actividades desarrolladas.
~ Lo que no ocurre, bien porque está previsto o bien porque desde el punto de
vista del observador debería ocurrir y no ocurre. Por ejemplo, si investigamos los
flujos de información de una organización, existe un patrón sobre lo que debería
ocurrir, que es el manual de procedimiento que detalla qué se hace, quién lo hace,
cómo lo hace y en coordinación con quién. Este puede ser el documento a partir
del cual determinar aquello que debería ocurrir pero no ocurre y, por lo tanto,
quizás nos ayudará a conocer los flujos informales de la organización.
Pero a lo largo del proceso de investigación las observaciones cambian de carácter
desde los primeros estadios a los últimos. Spradley (1980) se refiere a esta evolución
como observaciones descriptivas, foca/izadas y selectivas. En las observaciones iniciales o descriptivas el investigador no está centrado en ningún aspecto en particular,
sino en captar ampliamente todos los aspectos del entorno estudiado, con el fin de
establecer el futuro rumbo de la investigación. Una vez el investigador se ha familiarizado con el entorno estudiado, puede decidir qué aspectos pueden ser más relevantes
para la investigación y dirigir su atención hacia alguno en concreto. En este momento
pueden surgir preguntas que dan pie a las observaciones selectivas. En este punto el
observador está centrado en establecer y refinar las características y las relaciones que
él ha establecido previamente como objeto de estudio (figura 10).
Si en la observación estructurada el observador dispone de unas categorías previas para registrar sus observaciones, en la observación no estructurada la principal
herramienta para después realizar un análisis son las notas de campo. Sobre estas
notas de campo Patton (2002) afirma que no hay prescripciones universales sobre los
procedimientos para realizarlas, pues dependerá en gran medida del estilo personal
de organización del trabajo. No obstante, este investigador describe cuatro tipos de
contenido que las notas de campo deberían recoger. En primer lugar, y sobre todo, las
11741
~tÉTODOS Y TÉCN ICAS l'ARA LA INVESTIGACIÓN DEL COM PORTMIIE NTO INFORM/\ CION.-\L
Figura 10. Evolución del alcance de la observación (adaptado de Spradley, 1980)
OBSERVACIONES
DESCRIPTIVAS
OBSERVACIONES
FOCALIZADAS
OBSERVACIONES
SfLE_CJj
.._..11.CC!>oO,
___
PROCESODE INVESTIGACIÓN
notas de ca mp o deberían ser descr iptivas y para ello debería regist rarse información
bás ica, co mo las fechas d e observac ión, el modo en qu e se llevó a cabo la observación, quién estaba presente, có mo era el entorn o físico, las int eracc iones soc iales que
se produjeron y qu é actividades se llevaron a cabo . El nive l de descripción debe ser
ta l que per mit a al invest igador volver a una o bservac ión durante el aná lisis y al lector
expe rim entar la act ividad observada a tr avés del informe (Pat ton, 2002). Además, las
notas de campo deberían recoge r lo qu e los ind ividuo s obse rvados dijeron du ra nte
la s o bservac io nes, cuest ión qu e pe rm itirá adoptar una perspect iva d esd e el punto de
vista de ese sujeto observado .Jun to co n el carác ter descriptivo y las citas de lo que
los individuos dijeron, las notas de ca mpo deberían recoger el pu nt o de vista del ob servado r res pecto a lo que se obse rva: «f...] los propio s sentimi entos de l observador,
las reacciones a la ex periencia y las reflex iones so br e el sign ificado personal y el significado de lo que se ha obse rvado» (Patton, 2002). Po r últim o, las notas de ca mp o
deberían recoger las co nsiderac io nes in iciales respecto a l aná lisis e interpr etación de
la infor mación que se está obteniendo .
Respecto a las notas de campo, Schatzman y Stra uss (1973) so n más explícitos y
estab lecen una clasificación que co nsidera que exi sten notas observac iona les, teóricas
y metodológ icas . A cont inu ac ión se definen cad a una de ellas:
"" Las notas de observación son la expos ición de los acontecimiento s presenc iado s, obse rvados u oídos, y cont ienen tan poca interp retación como sea posible.
Cada nota observacio na l representa un suceso co nsidera do lo suficientemente
6. OBSERVACIÓN
(1751
importante como para incluirlo en un registro, como una porción de evidencia
para una proposición todavía no formulada o como una propiedad o característica de un contexto o situación. Una nota de observación es el quién, qué,
cuándo, dónde y cómo de la actividad humana.
~ Las notas teóricas son intentos de dar sentido a una o varias notas de observación. El observador como «grabador» piensa en lo que ha experimentado e
intenta desarrollar conceptos. También interpreta, infiere, formula hipótesis o
conjetura. Desarrolla nuevos conceptos, enlaza estos con los antiguos y relaciona observaciones.
~ Las notas metodológicas consisten en la descripción de una acción completada
o planificada. Es una instrucción, un recordatorio o una crítica de las propias
tácticas. Son notas sobre los tiempos, la secuencia de observación, los preparativos y demás aspectos relacionados con el procedimiento. Pueden considerarse notas observacionales sobre el investigador y sobre el proceso metodológico
mismo.
6.6. VENTAJASY LIMITACIONESDE LA OBSERVACIÓN
Numerosos autores analizan las ventajas y limitaciones de la técnica de la observación. Como ventajas,Ander-Egg (1987) Powell (1997), Gorman y Clayton (2005) Gray
(2006) y Denscombe (2007) destacan las siguientes:
~
Permite estudiar la conducta en el mismo momento en que ocurre.
En general, a través de la observación se pueden estudiar fenómenos que escaparían a los ojos del investigador utilizando cualquier otra técnica.
~ La información sobre el entorno y sobre el comportamiento humano se puede
registrar directamente por el investigador, sin ningún intermediario, lo que
permite registros de las conductas más precisas.
~ Permite analizar las cuestiones relacionadas con el comportamiento informacional en el contexto en que estas ocurren. En este sentido, descontextualizar
el uso que un usuario hace de un recurso de información, por ejemplo, lleva a
resultados muy descriptivos, superficiales y poco útiles para la planificación de
sistemas de información.
~ El observador puede «ver» lo que los informantes no ven, es decir, estos informantes dan por sentadas cosas del medio y del comportamiento que difícilmente describirán por no considerarlas relevantes. Por otra parte, en el caso
concreto de una conducta derivada de una necesidad de información, una cosa
es lo que un usuario dice que hace y otra lo que realmente hace.
~
[176]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAl.
La observación puede proporcionar información sobre el entorno y el comportamiento de aquellos que no pueden hablar por sí mismos y, por lo tanto,
no pueden participar en entrevistas o cuestionarios; es el caso por ejemplo de
niños muy pequeños.
"1111 Permite obtener información de aquellos usuarios poco dispuestos a contestar
un cuestionario o participar en una entrevista por falta de tiempo o de voluntad.
"1111 Los datos de la observación pueden ser útiles tanto para validar como para
completar la información obtenida de otras fuentes, como por ejemplo la información obtenida por medio de entrevistas.
"1111 En definitiva, la técnica de la observación permite obtener información independientemente del deseo de proporcionarla y de la capacidad y veracidad del
usuano.
"1111
En el caso concreto de la observación más estructurada, Denscombe (2007) apunta como principal ventaja el que la existencia de categorías de observación predefinidas permite la posibilidad de eliminar en parte el sesgo producido por la proyección
del observador sobre lo observado y aumentar el acuerdo entre observadores, desde
el momento en que existen pautas previas de cumplimentación de los registros. Además, la observación estructurada permite recopilar grandes cantidades de datos en un
tiempo relativamente corto y de forma estructurada.
En lo que se refiere a la observación no estructurada, Gorman y Clayton (2005)
apuntan como principal ventaja el que es flexible en cuanto a la perspectiva y grado
de implicación del observador con la realidad observada y, como el resto de enfoques
cualitativos, la observación no estructurada permite analizar los datos a medida que
estos se van obteniendo y a medida que se va ganando conocimiento de la situación
o entorno observado.
En cuanto a las limitaciones de la técnica de la observación, estos mismos autores
apuntan las siguientes:
Las situaciones que pueden resultar interesantes para el objetivo de la investigación pueden en ocasiones no ser accesibles a los ojos del observador, pues
forman parte del ámbito más privado de los sujetos de interés.
"1111 Puede producirse un problema de reactividad, es decir, las personas pueden
cambiar la forma en que se comportan, consciente o inconscientemente, al
saberse observadas y, por lo tanto, el registro de su conducta puede variar respecto al modo en que se comportarían de forma natural.
"1111 Las observaciones registradas por un observador son inevitablemente representaciones de la realidad aportadas por dicho observador; en otras palabras,
existe el peligro de proyección del observador sobre la situación observada.
"1111
6. OBSERVACIÓN
~
(177)
Se trata de una estrategia de recogida de datos que requiere mayor coste que
otras como las encuestas, en gran medida por el coste en tiempo que supone.
De forma específica, con relación a la observación más estructurada y sistemática, Denscombe (2007} considera que es un modo de obtener información en el
que en ocasiones es posible· perder datos acerca del contexto en el que se realizan
las observaciones y que influye en el modo en que se comportan los individuos. En
parte esto se debe a la necesaria simplificación a priori de lo que deben ser las categorías de registro y la consecuente pérdida de matices contextuales que podrían
ser de interés para la investigación. Igualmente, la necesaria clasificación de las
conductas a priori permite obtener información de lo que ocurre, pero no siempre
de por qué ocurre.
6. 7. EJEMPLOS DE INVESTIGACIONES
Ejemplo 1. Necesidades de información de los trabajadores de servicios sociales
El estudio INISS tuvo como objetivo investigar el comportamiento informacional de
los trabajadores sociales británicos con el fin de obtener una imagen de sus necesidades y hábitos con relación a la información, que pudiera servir para determinar qué
servicios de información serían más efectivos para esa organización. En el diseño de
este estudio se tuvo en cuenta una de las críticas más frecuentes a esta línea de investigación: ser «estéril y carente de imaginación en parte porque los investigadores no
aplicaron o probaron en la práctica los resultados de sus investigaciones» (Wilson y
Streatfield, 1977). Por ello, se concibió un estudio basado en la investigación-acción
en el que cualquier información obtenida en las fases de recogida y análisis de datos
debía derivar en innovaciones en los sistemas de información directamente evaluables. Por otra parte, esa esterilidad y falta de imaginación de la investigación en
comportamiento informacional, sobre todo la realizada en el contexto del estudio de
uso en las bibliotecas, también la atribuían al hecho de estar basada en el uso de cuestionarios autoadministrados y la obtención de resultados que describían la conducta
el usuario pero no así el motivo que explicara por qué se desarrollaba esta conducta.
Como consecuencia de este análisis, se optó por la observación estructurada para el
estudio de los trabajadores y gestores de los servicios sociales, seguida de un periodo
en el que se realizaron entrevistas personales sobre la base de los resultados del periodo de observación, con el fin de ':'alidar dichos resultados y recoger información
adicional. A continuación se describen los aspectos generales sobre el procedimiento
de la fase de observación.
[178]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTA.MIE!'.'TO INFORMACIONAL
La fase de observación estructurada del estudio INISS buscó conocer el contexto
que iba a ser estudiado y en concreto pretendía recabar información sobre los siguientes aspectos (Wilson, Streatfield, Mullings, Lowndes-Smith y Pendleton, 1978):
.._ Las funciones que asumían los distintos departamentos .
.._ La percepción que se tenía de la información en el contexto del trabajo .
.._ Las estructuras organizativas que existían y cómo afectaba esto a la comunicación en la organización .
.._ Canales informales y formales de comunicación existentes .
.._ La información que se almacenaba y qué servicios existían y cómo eran utilizados .
.._ El modo en que interactuaban los distintos departamentos, entre ellos y con
otros externos, y cómo se captaba y diseminaba la información.
En general, se trataba de averiguar de primera mano aquellos aspectos que no son
percibidos por un investigador ajeno a la organización y que están relacionados con
una dimensión tanto formal como informal de esta organización. A través de la observación era posible conocerlos al margen del deseo o posibilidad de informar sobre
ellos por parte de los integrantes de esa organización. Por otra parte, podrían existir
otros medios de conocer toda o parte de esta información, como son, por ejemplo, los
documentos generados en la organización que revelaran los procesos que allí tenían
lugar. Sin embargo, se determinó que esta estrategia no sería suficiente. Wilson y otros
(1978) adujeron los siguientes motivos:
.._ De las discusiones previas se vio que los trabajadores y gestores de servicios
sociales no iban a responder favorablemente a entrevistas ni a la revisión de la
documentación interna por verse demasiado expuestos .
.._ Los documentos internos no iban a revelar todos los matices de la vida organizativa .
.._ La observación también suministraría a los investigadores una oportunidad
valiosa de aprender más sobre las prácticas y el contexto del trabajo social.
Para seleccionar los sujetos observados se partió de un muestreo intencional en el
que las dimensiones a considerar serían la pertenencia al medio urbano y rural, los
distintos niveles de provisión de servicios de información y, por último, la realización
de distintas tareas y niveles de decisión. Partiendo de estas dimensiones, los departamentos y, dentro de ellos, los trabajadores fueron voluntarios, en total 22 individuos.
Las observaciones se realizaron durante una semana y el objetivo de dichas observaciones fue registrar cualquier acto de comunicación que se produjera durante
6. OBSERVACIÓN
[179)
ese periodo. El registro de estos eventos se realizó de forma manual en tarjetas en las
que figuraban los ítems que debían ser considerados; en concreto, para cada acto de
comunicación, se registró la hora en que se producía, el emisor y receptor, el canal
de comunicación, el medio de comunicación y el lugar en el que se produjo. Tras la
semana de observación se recogieron seis mil registros que se analizaron a partir de
las categorías preestablecidas.
Previamente al inicio de las observaciones, se formó a los observadores. Dicha
formación consistió en la observación y discusión de los matices introducidos por
distintos investigadores ante una misma situación de búsqueda de información y la
realización de un periodo de prueba de observación y registro. Esta estrategia aumentaría además el acuerdo entre observadores.
Wilson y Streatfield (1981) describen el periodo de observación como una serie
de fases interconectadas en las que se dio mucha importancia a la validación de la
información obtenida a través de la consulta a los propios informantes, mecanismo
este que aseguraba además la confiabilidad de la investigación. Estas fases de observación son las siguientes:
1. Reunión de presentación de los observadores con los sujetos que iban a ser observados, en la que se preguntaba sobre aspectos como su nivel de formación,
experiencia, hábitos de trabajo, puntos de vista sobre la información y cuestiones operativas útiles para la semana de observación que se iba a producir.
2. Periodo de observación, en el que se registraban los actos de comunicación
relacionados con el trabajo.
3. Sesiones de revisión diarias al final de cada jornada de observación, en donde
los observadores examinaban sus registros y donde se comparaban con los
registros de otros observadores.
4. Búsqueda de clarificación de aspectos dudosos surgidos en las sesiones de revisión con los sujetos observados.
5. Sesiones informativas cortas del observador con el sujeto observado tras una
jornada de observación para conocer su punto de vista sobre los registros.
6. Revisión de los registros por parte del observador antes de transferirlos para
su análisis.
7. Envío al sujeto observado de un resumen de cada semana de observación.
8. Entrevistas posobservación entre un miembro del equipo de investigación con
los sujetos observados, con el fin de discutir la precisión de la información
contenida en el resumen anterior.
9. Realización de informes para cada departamento sobre las observaciones realizadas.
[180]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL
Los resultados más relevantes de esta primera fase de observación estuvieron
relacionados con las características personales, del trabajo realizado y de la organización que eran importantes para el posterior diseño de sistemas de información
(cuadro 23).
Cuadro 23. Resultados del estudio INISS (lnformation Needs and Services
in Social Services Departments)
Características personales
Importancia de la comunicación oral dentro y fuera del departamento.
La información es vista como relevante cuando se refiere directamente a un trabajo.
Gran importancia de los sistemas personales de almacenamiento de información. Poca dedicación
a su actualización.
Buscadores reticentes de información (falta de tiempo) y no formados en el uso de recursos.
Características del trabajo
Jornada laboral muy fragmentada.
Mucho tiempo dedicado a reuniones de trabajo.
Trabajo sometido a control de procedimientos para cumplir con la legalidad.
Características de la organización
Trabajo muy especializado, servicios de información especializados.
Eficacia limitada de los servicios de información existentes por dispersión geográfica.
Suministro de información dispersa.
Ejemplo 2. Necesidades de información en la vida cotidiana de personas sin hogar
El estudio de Hersberger (2001) tuvo como objetivo conocer las necesidades de información y el uso de fuentes de información de las personas sin hogar padres de
familia. Para ello, al igual que en el ejemplo anterior, propuso una estrategia de triangulación metodológica a través de un periodo de observación participante seguido de
un periodo de entrevistas personales.
En primer lugar, la observación participante estuvo dirigida a facilitar el acceso
del investigador a las personas sin hogar residentes en refugios, familiarizarse con
el personal del refugio y sus normas y reglamentos, desarrollar mejor la guía de la
entrevista posterior y, en general, mejorar el diseño de la investigación. Esta fase se
desarrolló en tres etapas. En la primera, el investigador participó como voluntario
en la recepción de un albergue donde se alojaban personas sin hogar, en la segunda
como voluntario en el comedor del albergue y en la tercera el investigador asumió el
rol de participante como observador. Este proceso tuvo lugar a lo largo de un año.
Posteriormente a la fase de observación, se realizaron 18 entrevistas semiestructuradas a una muestra de individuos seleccionados por medio de un muestreo in-
6. OBSERVACIÓN
(181]
tencional. El guión de la entrevista fue elaborado en base a la información obtenida
por medio de la observación. El número de entrevistas no fue determinado a priori,
sino cuando se consideró que se había alcanzado la saturación teórica. A través de
este medio se indagó sobre los problemas de información diarios y las fuentes de
información utilizadas. El resultado de las entrevistas fue analizado a través de un
análisis de contenido en el que se partió de una serie de categorías desarrolladas por
otros investigadores, a la vez que emergieron otras nuevas del análisis de los datos
(cuadro 24). Estas categorías se referían a las áreas donde se produjeron necesidades
de información (cuestiones económicas, cuidado de niños, vivienda, salud, empleo,
educación, transporte, asistencia pública, albergue), las necesidades de información
propiamente dichas y las fuentes utilizadas.
Cuadro 24. Resultado del análisis de contenido del estudio de Hersberger (2001)
Cuestioneseconómicas
Los informantes la expresan como la cuestión más urgente.
Las necesidades económicas estaban relacionadas con el empleo, la educación y la vivienda.
Los informantes expresan la economía como una necesidad cognitiva.
Las fuentes de información que dicen utilizar son la propia experiencia y la información proporcionada
por las agencias de servicio social.
A pesar de que las necesidades económicas se presentan como el problema número uno, los
informantes se refirieron a una amplia gama de fuentes de información. Esto puede revelar una
disonancia entre las necesidades de información y el conocimiento de los recursos posibles.
El proceso de análisis fue valorado siguiendo los criterios de credibilidad y fiabilidad. Para ello se compararon las grabaciones de la entrevistas con sus transcripciones, a la vez que se valoró el acuerdo intercodificador. Para el conjunto de la investigación se valoró la confiabilidad a través de la observación persistente, la validación
por parte de los informantes y la aportación de un audit trail con las notas de campo,
las transcripciones, los diarios y demás documentos producidos en el curso de la
investigación.
6.8. RESUMEN
La técnica de la observación consiste en conocer de primera mano y registrar de
forma sistemática distintos fenómenos observables que, en el ámbito del comportamiento informacional, pueden ser todos aquellos que tengan relación con las distintas
situaciones vividas por un usuario o grupo de usuarios en el transcurso del proceso
de búsqueda y uso de información. Por ello, es una técnica que permite estudiar a este
[182]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL
usuario en el contexto natural en el que necesita, busca, gestiona, comparte, difunde
y utiliza la información.
Existen diversos enfoques de la observación como técnica de recogida de datos.
Los principales criterios que determinan esta diversidad son el conocimiento por
parte del sujeto de que está siendo observado, el rol que asume el observador y los
medios utilizados para el registro de las observaciones, entre otros. Según estos criterios, es posible distinguir entre observación abierta y encubierta, participante y no
participante y estructurada y no estructurada.
La observación abierta es aquella en la que los sujetos de la investigación conocen que están siendo observados. Por el contrario, en la observación encubierta la
existencia del observador permanece oculta para el grupo observado. Si consideramos el rol del observador, en un extremo podemos encontrar la observación no
participante y en otro la observación participante. En la observación no participante
el observador actúa de forma neutra, sin relacionarse ni interactuar con el sujeto observado. Por el contrario, en la observación participante el investigador está inmerso
en aquello que observa, participando e interactuando para poder llegar a entender el
ambiente estudiado.
Por último, en cuanto al modo como se registran las observaciones, se puede distinguir entre observación estructurada y no estructurada. En la observación estructurada el investigador entra en el campo conociendo de antemano qué aspectos debe
observar y registrar. Estos aspectos se han definido previamente y están derivados de
los objetivos de la investigación. Por el contrario, en la observación no estructurada
los registros de la realidad observada son más abiertos y no se establecen a priori los
aspectos que se van a observar.
En general, en la literatura sobre metodología de las ciencias sociales es posible
identificar dos tradiciones en lo que respecta a la técnica de la observación que vienen
determinadas en gran medida por la disciplina en la que se originaron y desarrollaron. La primera de ellas tiene sus orígenes en la psicología y la segunda surge en el
seno de la sociología y la antropología.
CAPÍTULO
7
GRUPOS DE DISCUSIÓN
7.1. DEFINICIÓN Y ÁMBITO DE APLICACIÓN
Un grupo de discusión (GD) es un tipo de entrevista grupal que tiene como objetivo
obtener información detallada, opiniones o valoraciones sobre un tema específico a
partir de la interacción de unos participantes concretos. Se trata de una discusión
grupal dirigida en una situación controlada que se centra en uno o varios temas determinados. Un grupo de discusión está compuesto por unos seis o doce miembros
que, por lo general, se desconocen entre sí, pero que han sido seleccionados porque
comparten características relacionadas con el objetivo de estudio.
Como técnica de investigación, el grupo de discusión surge en la segunda guerra
mundial, como método para valorar la utilidad y efectividad de los programas de
radio para subir la moral de las tropas (Margan, 1997). En la actualidad el grupo de
discusión es una de las técnicas más utilizadas por las organizaciones para obtener
información sobre la valoración de sus clientes, para evaluar cambios, nuevos productos, servicios, promociones, como generador de ideas o bien para valorar la usabilidad de productos. El grupo de discusión se usa como medio para lograr un mayor
conocimiento del consumidor. La finalidad es utilizar la información obtenida para
ayudar a la toma de decisiones y a la planificación.
Esta necesidad de conocer al cliente no es exclusiva del sector privado, sino que
también las instituciones públicas ven esencial el marketing y la planificación estratégica de sus productos, servicios y programas. Tal como indica Krueger (1991), si
se quiere mejorar los programas o servicios, los profesionales, sean estos públicos
o privados, tienen como función primordial la valoración de necesidades, la planificación y la evaluación. El grupo de discusión puede aportar información sobre la
percepción, sentimientos y actitudes de los diferentes agentes relacionados con estos
programas y servicios. Como agentes, pueden considerarse a los trabajadores de una
organización, a los usuarios reales o bien a los potenciales.
(184)
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL
En el área de información y documentación, el GD se ha ido abriendo camino poco
a poco a partir de la década de 1980. A finales de la década de 1990, Glitz (1997)
propuso el GD como una técnica útil y prometedora dentro del área. Proponía el GD
como una técnica para facilitar la identificación de las necesidades de formación de
usuarios y del personal de bibliotecas, para identificar las necesidades de grupos de
usuarios específicos, establecer prioridades financieras o de programas, clarificar los
objetivos y los valores de la institución, evaluar los servicios existentes o bien planificar otros nuevos. En la actualidad, el uso de la técnica dentro del área es muy amplio
y su uso sería adecuado siempre que la situación requiriera conocer cómo los individuos valoran o perciben una determinada experiencia, idea, producto o servicio. En
concreto, el grupo de discusión se ha utilizado para:
Evaluar las necesidades de información en diferentes colectivos. En este sentido, la técnica se ha utilizado en múltiples contextos para evaluar a profesionales (Pitts y Stanley, 2007; White, Matteson y Abels, 2008), estudiantes
y profesores (Prabha, Connaway, Olszewski y Jenkins, 2007, Fleming-May
y Yuro, 2009), jóvenes (Nwagwu, 2009), ancianos (Xie, 2009) y pacientes,
(Matthews, Sellergren, Manfredi y Williams, 2002; Tang y Newcomb, 1998;
Tang, Newcomb, Gorden y Kreider, 1997), entre otros.
Evaluar el uso de diferentes productos y servicios relacionados con las nuevas
tecnologías, como la Web 2.0 (Burhanna, Seeholzer y Salem, 2009), el móvil
para consultar Internet (Nielsen y Fjuk, 2010), los libros electrónicos (Carlock,
y Perry, 2008), la tecnología por parte del público infantil (Dresang, Gross y
Holt, 2007) o bien, el uso de un servicio de referencia por chat (Naylor, Stoffel
y Van der Laan, 2008).
Conocer los requisitos de los usuarios para el diseño de un sitio Web (Vaughan,
y Schwartz, 1999; Large, Beheshti y Rahman, 2002; Markey, Swanson, Jenkins, Jennings, St Jean, Rosenberg y otros, 2008; Seeholzer y Salem, 2011 ).
Obtener información para el diseño de un cuestionario. En este sentido, los
trabajos de Lee, Trauth y Farwell (1995), Lee, Giuse y Sathe (2003) e Ishihara
(2008), usan el grupo de discusión para diseñar un cuestionario para ser posteriormente administrado en un estudio de encuesta.
-41 Valorar la usabilidad de un producto o servicio: el GD se ha usado en combinación con otras técnicas de recogida de datos para valorar la usabilidad de
un producto. Así, encontramos que Craven, Johnson y Butters (2010), con el
fin de mejorar el diseño de la interficie del catálogo en línea de una biblioteca,
valoran la usabilidad a partir del grupo de discusión y la entrevista. Kim y Kim
(2008), en cambio, utilizan experimentos de usabilidad y el grupo de discusión
para la mejora del sistema de repositorios de una institución.
<11111
<11111
<11111
<11111
7. GRUPOSDE DISCUSIÓN
[185]
• Conocer las actitudes que los usuarios tienen hacia los nuevos recursos de información (Starkweather y Wallin, 1999; Zuccala, 2010).
• La planificación estratégica de una biblioteca (Meltzer, Maughan y Fry, 1995;
Higa-Moore, Bunnett, Mayo y Olney, 2002).
En resumen, el uso de la técnica es muy variado y, como indica Debus (1988),
puede ser una buena herramienta para generar ideas, como paso preliminar para desarrollar un estudio cuantitativo, como complemento a los resultados de un estudio
cuantitativo o bien como fuente primaria para la recogida de datos. Sin embargo,
no se aconseja su uso si se pretende valorar un producto que no existe posibilidad
de cambiar. Por supuesto, el GD puede aportar información relevante antes, durante
y después del lanzamiento de un producto o servicio, pero no sería una buena idea
realizar un GD para valorar la opinión que merece una nueva base datos si se prevé
que esta salga al mercado en dos semanas. Los resultados obtenidos no podrán ser
implementados antes del lanzamiento, por lo que de poco servirá la información que
aporten los participantes.
7.2. GRUPO DE DISCUSIÓN COMO TÉCNICA CUALITATIVA
El grupo de discusión es una técnica cualitativa. No pretende obtener datos cuantitativos como resultado, sino información sobre un determinado aspecto a partir
de las interacciones y opiniones de los miembros que participan en el proceso. Los
resultados posiblemente no serán generalizables al conjunto de la población a la que
pertenecen estos miembros, pero en cambio permitirán conocer el tema que se aborde
en profundidad. Los estudios cuantitativos, como por ejemplo los estudios de encuesta, olvidan los aspectos más subjetivos; en cambio, el GD permite capturar justamente
estos aspectos, a partir de los comentarios de los participantes y evaluarlos.
La diferencia del GD respecto a otras técnicas individuales cualitativas, como la
entrevista, reside en que la información obtenida se basa en la interacción de sus
miembros. Las técnicas individuales asumen que los individuos saben cómo piensan,
pero en realidad sus respuestas, tal como se ha ido exponiendo en otros capítulos, se
ven influidas por muchos factores (diseño del cuestionario, formulación de la pregunta, influencia del entrevistador, etcétera). El GD se asemeja más al proceso de toma
de decisiones que los individuos llevan a cabo en una situación de la vida real. Los
individuos forman su propio punto de vista a partir de información que han podido
adquirir por diversas vías y a partir de la contrastación de sus opiniones con las de
otros. La decisión final sobre cualquier cuestión se toma frecuentemente tras escuchar
diferentes versiones, advertencias o consejos de otras personas.
1186)
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL
El GD se diferencia de otras técnicas grupales en las que se intenta llegar a un consenso entre sus miembros, como es el caso del método Delphi. El GD pretende obtener
información lo más diversa posible sobre un tema concreto. Su finalidad es conocer
cuáles son las percepciones, conocimientos, opiniones, sentimientos o pensamientos
de los usuarios, sin perseguir un cambio de opinión, ni pretender que los miembros
lleguen a acuerdos entre ellos.
El GD puede ser una técnica complementaria a otras (Morgan, 1997). Concretamente, se ha demostrado que el GD puede ser útil antes de llevar a cabo un estudio de
encuesta, como prueba piloto del cuestionario o bien una vez se ha administrado y se
han analizado los resultados del cuestionario. En el primer caso, el GD puede permitir
un mayor conocimiento del fenómeno que se pretende estudiar, lo que puede servir
para delimitar las dimensiones o los diferentes aspectos que deberán ser abordados
por un cuestionario. El que el GD permita a los participantes expresar sus pensamientos e ideas con sus propias palabras ayuda a conocer el vocabulario que usan
los usuarios y así seleccionar las palabras más adecuadas para diseñar un cuestionario. De esta manera, se pueden generar preguntas más adaptadas y más fáciles de
entender para las personas a las que irá dirigido. La información que proporcionan
los participantes en un GD puede servir también para concretar las posibles opciones
de respuesta de una pregunta cerrada. El GD puede servir como vía para conocer
el abanico de posibilidades de un determinado aspecto que se quiere valorar. Una
vez generado el cuestionario, un GD puede servir como técnica para llevar a cabo la
prueba piloto del cuestionario. En este caso se les requerirá a los participantes que valoren la pertinencia de cada pregunta, su comprensión, adecuación del vocabulario,
etcétera. Por último, la encuesta y el GD también pueden ser complementarios en la
interpretación de los datos. En ocasiones, los resultados de un estudio de encuesta no
son del todo clarificadores para el investigador, por lo que puede ser útil realizar un
GD para entender las razones de determinadas respuestas o profundizar en aspectos
que la encuesta no ha podido abordar.
En el área de información y documentación existen numerosos ejemplos en los
que se utiliza el GD en combinación con otras técnicas como la entrevista, la encuesta
o la observación (Lee y otros, 1995; Lee y otros, 2003; Dresang y otros, 2007; Ishihara, 2008; Craven y otros, 2010).
7.3. FASES DE UNA INVESTIGACIÓN MEDIANTE GRUPO DE DISCUSIÓN
Según Krueger (1991), los estudios que utilizan grupos de discusión constan principalmente de cuatro fases: el diseño del estudio, la conducción de los grupos, el
análisis y el informe.
7. GRUPOS DE DISCUSIÓN
(1871
En la fase de diseño del estudio, el investigador debe plantear los objetivos del
GD y valorar la adecuación del uso de la técnica. Es importante valorar las ventajas
de utilizar un GD, así como los inconvenientes. También, en esta fase es necesario
determinar quiénes deben ser los participantes, así como qué información se quiere
recabar de ellos. Por ejemplo, si se pretende conocer cómo perciben los usuarios la
formación que ofrece una biblioteca, en primer lugar se debería valorar si interesa
entrevistar a ex alumnos de la oferta de cursos de formación, a usuarios que en la
actualidad estén asistiendo a algún curso, a usuarios de la biblioteca que puedan ser
alumnos potenciales de estos cursos o bien a una combinación de todos ellos. Debe
tenerse en cuenta que los diferentes usuarios proporcionan información distinta, por
lo que es importante decidir a qué público se debe dirigir el estudio. Otros factores
como las características sociodemográficas (edad, nivel de estudios, estatus sociolaboral, etcétera) de los participantes son igualmente importantes a la hora de decidir a
quién incluir en el GD. En esta primera fase también deben planificarse el calendario
del estudio, las diferentes acciones que deben llevarse a cabo, los recursos necesarios,
las personas responsables, así como estimar los costes del proyecto.
La fase de conducción de los grupos requiere diseñar cuidadosamente las preguntas y la guía del moderador, seleccionar a los participantes y planificar todos los
elementos necesarios para, finalmente, llevar a cabo los GD. Entre los elementos que
son necesarios para celebrar un GD se debe destacar: el diseño de cuestionarios de
preselección, citar a los participantes, habilitar un espacio para celebrar la sesión,
diseñar tareas complementarias a la discusión del grupo, preparar el material para la
grabación y diseñar el consentimiento informado y los informes de confidencialidad
si se consideran necesarios.
Generalmente, las sesiones de grupo se graban en audio para posteriormente ser
analizadas en profundidad. El análisis de un GD debería ser un proceso sistemático
y verificable (Krueger y Casey, 2009). Esto significa que debería seguir un proceso y
secuencia prescrito de antemano y los resultados deberían poder ser reproducidos
por otros investigadores si siguieran el mismo procedimiento. Esta fase de análisis
debería ser llevada a cabo por el moderador o su ayudante, dado que ellos han estado presentes en las sesiones y dispondrán en primera persona de la información
sobre la dinámica que se ha establecido en cada grupo. Las notas del moderador y su
ayudante durante la sesión, la grabación y su transcripción son elementos necesarios
para el análisis.
Habitualmente, la fase de análisis se inicia con el resumen que inmediatamente
a la sesión elaboran el moderador junto con su ayudante. En este resumen se deben
reflejar las ideas más relevantes que han surgido durante la sesión. Las notas del ayudante, que ha actuado como observador durante la sesión y el recuerdo inmediato de
las intervenciones de los participantes, son los elementos clave para elaborar este re-
(188]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIEN'TO INFORMACIONAL
sumen. Posteriormente, el análisis de la grabación va a permitir entrar en los detalles
para un análisis más profundo. A partir de la transcripción se realiza un análisis de
contenido identificando las respuestas, los comentarios y valoraciones más relevantes
y frecuentes en función de los perfiles de los participantes.
Margan (1997) señala que el análisis y el informe son dos procesos que están íntimamente relacionados. El tipo de análisis que se aplique dependerá por una parte de
la finalidad del GD y por otra del tipo de respuesta que se pretende obtener del estudio. Si el GD se ha aplicado como técnica preliminar y exploratoria para tomar decisiones sobre un proyecto más amplio, como por ejemplo el diseño de un cuestionario,
de un servicio o programa, el análisis y las conclusiones del GD deberán concretarse
a las necesidades concretas del proyecto. En cambio, si el GD es la fuente primaria
para la recogida de datos que va a permitir dar respuesta al objetivo del estudio en su
conjunto, se espera que el análisis y el informe sean más profundos y extensos.
El informe debe ajustarse a los objetivos del estudio y adaptarse a las características del destinatario. Debe ser clarificador y ofrecer la luz suficiente sobre el problema
planteado. Puede contener un resumen de las ideas principales que han surgido durante las sesiones, transcripciones directas de las intervenciones de los participantes
o bien interpretaciones de los investigadores. Se aconseja que el informe mantenga
un equilibrio entre el resumen de las ideas que han surgido durante la sesión y las
citas literales que pueden servir de ejemplo para apoyar los resultados. Es importante
recordar que el GD es una técnica cualitativa, por lo que se debe evitar caer en el error
de querer cuantificar las intervenciones o incluir gráficos que resuman la frecuencia o
las valoraciones realizadas por los participantes.
7.4. ELEMENTOS DE UN GRUPO DE DISCUSIÓN
7.4.1. El moderador
El moderador tiene la función de moderar, guiar y estimular la discusión entre los
miembros del grupo. Debe asegurar que todos los participantes intervienen en la
discusión y se centran en el tema que se quiere tratar. Debe facilitar que en el grupo
se genere un clima relajado que fomente la aparición de diferentes puntos de vista,
opiniones o percepciones sobre el tema. Utilizar el mismo moderador en los diferentes GD asegura la consistencia de la técnica y una moderación uniforme sobre los
aspectos tratados.
A la hora de escoger el moderador, el primer dilema que se le plantea al investigador es decidir si se utiliza un moderador interno o externo a la organización. No
existe acuerdo sobre cuál es la mejor solución, pero sí algunas consideraciones que
11891
7. GRUPOS DE DISCUSIÓN
ayudan a tomar una decisión. Bader y Rossi (2002) proponen una lista de ventajas
y desventajas para cada caso (tabla 16). En un primer momento, se debe valorar si
dentro de la propia organización se cuenta con algún miembro con experiencia en
la moderación de GD o bien, por sus habilidades, puede ser un buen candidato para
desarrollar este papel. Si los participantes son internos a la organización, un moderador también interno posiblemente no será considerado como un miembro objetivo y
neutral por los participantes. Esto hará que los miembros del grupo se sientan cohibidos a la hora de participar. En estos casos, cuando los participantes son miembros
de la propia organización o bien se van a tratar temas relacionados con el desarrollo
laboral, la organización, las relaciones o políticas de empresa, es preferible utilizar un
moderador externo. En otros casos, un moderador interno puede conocer mejor el
problema a tratar o las necesidades de la organización y adaptar la moderación del
grupo con más eficiencia.
Tabla 16. Ventajas y desventajas en el uso de moderadores internos y externos
a la organización (adaptado de Bader y Rossi, 2002)
MODERADOR
INTERNO
Ventajas
MODERADOR
EXTERNO
Ventajas
Tiene un conocimiento más profundo
de la organización.
Mayor experiencia en la conducción de grupos.
Más económico.
Los participantes tienen una mayor sensación
de confidencialidad.
Fomenta una mayor sinceridad en los
comentarios de los participantes.
Desventajas
Desventajas
Su mayor conocimiento de la organización puede
provocar un sesgo hacia la obtención
de determinados resultados.
Conoce menos la organización.
Genera una mayor desconfianza en los
participantes debido a las repercusiones
que sus opiniones puedan tener.
Tiene un coste económico superior.
Menor experiencia en la conducción de grupos.
La mayoría de autores (Bader y Rossi, 2002; Debus, 1988; Edmunds, 1999;
Greenbaum, 1998; Krueger y Casey, 2009; Margan, 1997) coinciden que las habilidades que debería mostrar un moderador efectivo son:
~
Afabilidad: el moderador debe ser capaz de generar un ambiente relajado y
agradable. Un moderador afable facilita la intervención de los participantes,
sobre todo al inicio de la sesión.
(190)
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓNDEL COMPORTAMIENTO JNFORMACJONAL
~
Energía: debe ser una persona enérgica y capaz de mantener la discusión animada, interesante y productiva. Debe tener la habilidad para motivar al grupo
e inyectar entusiasmo en la discusión.
Neutralidad: no debe mostrar favoritismos por unas u otras opiniones de los
participantes ni expresar su punto de vista. Debe evitar asentir o negar en relación
a los comentarios emitidos por los participantes ni tampoco emitir juicios sobre
la calidad de los comentarios del tipo «bien», «correcto», «perfecto», etcétera.
Flexibilidad y rápida adaptación a los cambios: debe responder de manera
rápida a los cambios que se producen en la dinámica del grupo.
Buenas habilidades organizativas: debe ser una persona bien organizada, capaz
de desarrollar una agenda que le permita ir alternando temas con el fin de obtener los resultados marcados dentro del tiempo previsto para la sesión.
Capacidad para saber escuchar: es esencial que muestre atención cuando habla
cada uno de los participantes y, si lo considera oportuno, tome notas breves de
sus intervenciones. En caso de duda debe aclarar el significado de los conceptos o ideas, utilizando sinónimos de los términos usados o parafraseando las
principales ideas que el grupo ha ido generando.
Capacidad de sintetizar: debe ser capaz de sintetizar y resumir la información
que los participantes van discutiendo durante el GD.
Buena memoria: un buen moderador debe recordar los diferentes temas que
han ido surgiendo durante la discusión. Debe aprovechar la aparición de nuevos temas para conectarlos con anteriores ideas que han podido surgir durante
la sesión.
~
~
~
~
~
~
Es habitual que además del moderador asista a las sesiones un ayudante. Este ayudante básicamente se dedicará a tomar notas durante la sesión y no tendrá un papel
activo durante la discusión. Su papel se centrará en recoger detalles y citas concretas
de los participantes que posteriormente ayudarán a preparar el resumen de la sesión
y el informe. Utilizar la misma persona que toma notas durante las diferentes sesiones
asegura un mismo estilo de transcripción que facilita la tarea posterior de análisis.
Como se comentará en otro apartado, los participantes no siempre le ponen fácil la tarea al moderador. Por un lado, el moderador debe controlar a los participantes que intenten monopolizar la discusión y, por otro, debe motivar y animar a los
participantes más tímidos a intervenir de manera activa. El lenguaje corporal, como
por ejemplo mantener el contacto visual con los más tímidos o bien dirigirles gestos
directos que los inviten a participar, puede facilitar que estos venzan su miedo a intervenir. En cambio, con aquellos participantes que pretenden dominar la discusión,
interrumpen o impiden que otros miembros intervengan, critican las intervenciones
de otros o personalizan la discusión con experiencias propias, requieren otro tipo
7. GRUPOSDE DISCUSIÓN
1191]
de actuación diferente. En estos casos, la función del moderador es la de contener
el discurso de estas personas, impedir que inhiban la participación del resto de
miembros y promover que la discusión progrese dentro del grupo. Bader y Rossi
(2002) consideran que, en estos casos, el lenguaje corporal puede ser más efectivo
que el enfrentamiento directo con estas personas. Por ejemplo, evitar el contacto
visual cuando hablan, dirigir la atención del grupo hacia el material presentado, la
pantalla, la pizarra, etcétera, indicar a la persona con el dedo que no continúe con
su intervención o dar paso a otro miembro del grupo son acciones que se consideran efectivas para el control de estos participantes. Si antes del inicio de la sesión,
en las conversaciones iniciales, se identifica a estos individuos, se puede aprovechar
para disponer a los participantes de manera que facilite el trabajo del moderador.
Por ejemplo, se aconseja que los participantes más dominantes se sienten al lado
del moderador o próximos a él, mientras que los más tímidos se sienten enfrente del
moderador (Krueger, 1991; Margan, 1997). De esta manera, el moderador puede
proporcionar un contacto visual más directo con los más tímidos y ofrecerles señales no verbales para que intervengan, mientras que le permite evitar el contacto
visual con los más disruptivos.
Es necesario que el moderador disponga de una guía para conducir la sesión. Esta
guía será la agenda del moderador y debe contener la información necesaria para
poder dirigir el grupo (Greenbaum, 1998). No debe ser un documento de consulta
durante la sesión (salvo que sea estrictamente necesario), sino que se recomienda que
el moderador la memorice para así evitar leer las preguntas y restar espontaneidad a
las cuestiones. En el cuadro 25 se detalla la información básica que debería contener
esta guía.
7.4.2. Los participantes
El GD se debe formar a partir de aquellos sujetos que sean capaces de proporcionar
la información necesaria para responder a los objetivos de la investigación. Para ello,
se requiere seleccionar aquellos informantes clave (Krueger y Casey, 2009) capaces
de proporcionar la información básica para el estudio. Como técnica cualitativa, el
GD se vale de muestreos de tipo intencional para seleccionar a los miembros que participarán en el estudio. Sin embargo, para generar los grupos, el muestreo que mejor
se adapta a las características de la técnica es el muestro homogéneo (Patton, 2002).
El uso de un muestreo homogéneo permite generar grupos de participantes que comparten perfiles similares. Se recomienda que los miembros de cada grupo compartan
características que el investigador considera relevantes en la población de referencia.
Si los participantes se perciben como similares entre sí, va a facilitar la interacción
[192]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL
Cuadro 25. Información que debe contener la guía del moderador
Información que debe proporcionarse a los participantes antes del inicio de la sesión
..
•
• Presentación del moderador y de la organización que lleva a cabo el estudio .
•
•
•
Finalidad del estudio .
Objetivos del grupo de discusión .
Información general y normas básicas sobre el funcionamiento del grupo
de discusión (duración de la sesión, grabación en audio o vídeo, aspectos de
confidencialidad, orden de las intervenciones, aperitivos, etcétera).
Tareas específicas que se van a realizar durante la sesión (cuestionarios pre o
posdiscusión, visionado de videos, actividades individuales o de grupo, etcétera).
Información que se les proporcionará una vez finalice el estudio y cómo se les
hará llegar el informe.
Firma del consentimiento informado o el compromiso de confidencialidad, en
caso que sea necesario.
Presentación de los miembros del grupo
• Aspectos como el nombre, edad, profesión .
• Relación u opinión general con el tema de debate .
Temas a tratar
.•
•
Definición de los temas generales y específicos.
Asignación de prioridades y tiempo estimado para cada uno de los temas .
Ejemplos de preguntas para mantener la discusión activa .
Cierre de la sesión
• Resumir los principales temas tratados durante la sesión.
•
Recordar el envío del informe .
• Repartir los incentivos .
• Agradecimientos .
entre ellos y el intercambio de ideas. Para conseguir grupos homogéneos se requiere
que la muestra sea segmentada respecto a estas características básicas. Debus (1988)
considera que los aspectos que principalmente deben tenerse en cuenta para conseguir grupos homogéneos son:
• El estatus socioeconómico.
• El ciclo vital.
La experiencia respecto al tema abordado.
• Las diferencias culturales.
• Las cualidades de los participantes (por ejemplo: usuarios frente a no usuarios).
<1111
Variables como la edad, el sexo o el estado civil también deberían ser consideradas
dependiendo del tema que se pretenda abordar. La homogeneidad dentro del grupo
es importante porque pequeñas diferencias en el nivel educativo, en el estatus laboral,
7. GRUPOS DE DISCUSIÓN
[193]
en el conocimiento o experiencia sobre el tema pueden provocar que unos sientan
que las opiniones de otros tienen más valor que las propias y, en consecuencia, dejen
de intervenir. La consecuencia de que un miembro no intervenga es que se deja de
obtener la información que podría ser útil para el estudio. Tal como indica Margan
(1997), el objetivo es conseguir una homogeneidad en las características de los participantes, pero no en sus actitudes u opiniones. Si todos los miembros tienen una visión idéntica sobre el fenómeno que se pretende estudiar, la discusión y los resultados
obtenidos serán pobres.
Una herramienta para conseguir grupos homogéneos es utilizar un cuestionario
de preselección. Se trata de un breve cuestionario que contiene una serie de preguntas
para evaluar si el sujeto tiene las características deseadas para ser considerado un
buen candidato para el estudio (Greenbaum, 1998). Es frecuente que este tipo de
cuestionarios contenga preguntas sociodemográficas, como la edad, profesión, etcétera, así como cuestiones que valoren el conocimiento o interés del tema sobre el que
se va a debatir. Este cuestionario puede ser administrado por teléfono o cara a cara
y servirá tanto para escoger a los participantes que mejor se adapten a los perfiles
que se desean para el estudio, como para valorar la motivación de cada uno de los
candidatos para colaborar en la investigación. Durante el proceso de selección de los
participantes, Edmunds (1999) recomienda resumir el perfil de los sujetos en tablas
con el fin de asegurarse de que se está citando a los participantes correctos para cada
uno de los grupos.
Lo habitual es programar distintos GD para los distintos perfiles identificados. Por
ejemplo, en el estudio de Prabha y otros (2007) se programaron diferentes grupos de
discusión para evaluar la percepción de saturación en la búsqueda de información.
En este caso, los autores evaluaron por separado a profesores y estudiantes para conocer los criterios que unos y otros consideraban para detener la búsqueda de nueva
información y considerar que la información obtenida era suficiente para cubrir su
necesidad informativa.
Los participantes de un GD habitualmente no se conocen entre sí. Aunque esto
es lo aconsejable, en determinados contextos es imposible. Por ejemplo, cuando el
interés de la investigación reside en valorar las opiniones de los propios trabajadores
de una institución o empresa. Si este es el caso, se deben guardar determinadas precauciones, como usar un moderador externo a la organización con el fin de que los
miembros del grupo no se sientan cohibidos al tratar determinados temas y evitar
relaciones jerárquicas entre los miembros del grupo. Un moderador interno puede
ser visto con recelo por los participantes, más si este se trata de un superior y puede
provocar respuestas que sean socialmente bien aceptadas dentro de la organización.
De la misma manera, realizar un GD entre los compañeros de trabajo puede hacer
florecer acuerdos o desacuerdos en función sus relaciones previas.
[194]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO
INFORMACIONAL
No existe un acuerdo unánime entre los autores sobre el tamaño ideal que debería
tener el GD. No obstante, la mayoría de autores hace referencia a un grupo relativamente pequeño de individuos que oscilaría entre los cuatro y los doce miembros
como máximo. Se considera que el grupo debe ser lo suficientemente pequeño para
favorecer la participación de todos sus miembros y lo suficientemente grande para que
surjan diversidad de opiniones y diferentes puntos de vista (Krueger, 1991). Si el grupo es demasiado pequeño, se observa poca variedad de ideas, mientras que si el grupo
es excesivamente grande, se hace más difícil la moderación y a menudo se observan
interacciones en voz baja entre pares que disgregan el grupo (Morgan, 1997). Debus
(1988) recomienda que, cuando el objetivo del estudio es generar el máximo de ideas
posible, se utilice un grupo grande. En cambio, cuando lo que se persigue es que cada
participante profundice en el tema, se aconseja utilizar grupos pequeños.
Tampoco existe una regla sobre cuántos grupos deben incluirse en una investigación. Dependerá, entre otros factores, de la diversidad de perfiles que se detecten entre
los miembros. Si la población que se quiere valorar es heterogénea (por ejemplo, en
cuanto a la experiencia, nivel socioeconómico, etcétera), serán necesarios más grupos
para conseguir una muestra homogénea de cada uno. Se desaconseja recoger datos
de un único grupo, dado que, si no se dispone de otros grupos para comparar, no se
podrá saber si se ha obtenido toda la información necesaria para el estudio o bien la
discusión refleja la singularidad de aquel grupo concreto que se ha valorado (Margan, 1997). Es habitual que los primeros grupos de discusión (los dos o tres primeros)
proporcionen una gran cantidad de información nueva y posteriormente se observe
que mucha de la información va repitiéndose en los siguientes grupos, llegando a una
saturación informativa. Cuando la información que se obtiene en un grupo es redundante respecto a los anteriores, es síntoma de que se han recogido los datos suficientes
para la investigación y no es necesario incorporar más grupos al estudio. Como guía
para determinar el número de grupos necesarios Debus (1988) recomienda considerar los siguientes aspectos:
<1111
<1111
<1111
<1111
Programar al menos dos grupos por cada aspecto que se considere relevante
para tratar el tema.
Si en el grupo se presentan materiales para ser evaluados (por ejemplo, el contenido de diferentes páginas web), se deben programar un número suficiente de
grupos que permitan rotar el orden de presentación de estos materiales.
Continuar llevando a cabo grupos hasta que la información que se obtenga
sea redundante.
Programar un número de grupos suficiente que permita cubrir las posibles
diferencias geográficas o entre localidades (por ejemplo, en base a un entorno
rural o urbano).
7. GRUPOS DE DISCUSIÓN
1195]
La cantidad de grupos que deben incluirse, por supuesto, también responde al
presupuesto disponible para el estudio (Greenbaum, 1998). Sin duda, no es la manera óptima de tomar la decisión, pero, de hecho, es bastante frecuente basarse en los
recursos económicos disponibles. Si los recursos son escasos y solo se pueden llevar
a cabo unos pocos GD, es preferible decidir qué perfil de individuos constituyen los
sujetos clave para obtener la información más relevante para la investigación. En el
cuadro 26 se presentan un ejemplo de una investigación y los criterios para determinar el número de grupos necesarios.
Cuadro 26. Número de grupos necesarios para una investigación
Una editorial quiere realizar un estudio para valorar la percepción de los estudiantes de posgrado
y profesores universitarios sobre Open Access con la finalidad de abrir nuevas vías de negocio en la
empresa. Open Access hace referencia al acceso abierto de la literatura científica. Esta literatura está
disponible en la Web de manera gratuita para los investigadores, estudiantes y el público en general.
Normalmente se publica en revistas de libre acceso o en repositorios. La empresa considera importante
tener en cuenta la opinión de las personas que están a favor como aquellas que están en contra de este
nuevo sistema de acceso a la información. Con este objetivo se diseñan dos grupos para cada tipología
de grupo. En total deben llevarse a cabo ocho grupos de discusión con la siguiente composición:
Grupo A: Partidario del sistema Open Access, profesor.
Grupo B: No partidario del sistema Open Access, profesor.
Grupo C: Partidario del sistema Open Access, estudiante.
Grupo D: No partidario del sistema Open Access, estudiante.
Con esta organización de los grupos se consigue una muestra que contempla grupos homogéneos
respecto a la categoría del panicipante (profesor o estudiante) y su opinión a favor o en contra del
sistema Open Access. No se han tenido en cuenta otras variables como el sexo del participante, la antigüedad del profesor o bien el tipo de estudios que cursa el estudiante, porque aumentarían en exceso
el número de grupos que deberían realizarse.
Otro aspecto que se debe tener en cuenta es la disponibilidad y motivación de
los participantes para colaborar en el estudio. El GD implica que los miembros se
desplacen a un lugar concreto en un momento específico, lo que requiere un alto
grado de motivación por su parte, que se sientan atraídos por la temática, el objetivo
o bien por los incentivos o beneficios que pueden recibir por su participación. Para
conseguir reclutar a los participantes es necesario contactar con ellos en diferentes
ocasiones y por diferentes vías (Edmunds, 1999). Se recomienda que una vez los participantes han sido seleccionados, se envíe una carta de confirmación de la sesión con
el fin de recordarles todos los aspectos importantes para participar en el GD (fecha y
lugar de celebración, hora, información de contacto en caso de duda, etcétera).
Posteriormente, se confirmará la asistencia de cada participante por teléfono o
correo electrónico. Además, Edmunds (1999) recomienda realizar llamadas de con-
1196)
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO
INFORMACIONAL
firmación el día antes de la sesión para recordar y asegurar la asistencia de cada uno
de los participantes.
No todos los participantes tienen las mismas capacidades para expresarse en una
discusión en grupo. Mientras que unos son rápidos a la hora de expresar sus puntos
de vista y elaboran sus intervenciones en el mismo momento en que están interviniendo, otros piensan primero detenidamente aquello que quieren decir y luego intervienen. Es función del moderador que todos los miembros expresen sus opiniones sea
cual sea su estilo. Krueger (1998) resalta seis principales tipologías de participantes
que suelen observarse en la composición de la mayoría de GD: el experto, el dominante, el desviacionista, el disruptivo, el tímido y el distraído.
El participante experto es un miembro que, por lo que dice y cómo lo dice, hace
que los otros participantes minusvaloren sus propias opiniones y se abstengan de intervenir. Son percibidos como miembros con más experiencia y conocimiento sobre el
tema. Una estrategia para evitar el efecto de estos participantes es que el moderador
resalte la idea de que lo que en realidad interesa es conocer la percepción de todos los
miembros sea cual sea su experiencia. Desde ese punto de vista, todos los miembros
pueden considerarse en cierta manera expertos en el tema.
Los participantes dominantes en ocasiones también se consideran expertos en el
tema y acaparan la conversación con sus intervenciones, lo que igualmente provoca
que los otros miembros no puedan expresar sus opiniones.
El desviacionista es el que acapara buena parte del tiempo con intervenciones que
se desvían del tema y que no aportan gran cosa a la discusión.
La mejor estrategia para controlar estos casos (experto, dominante y desviacionista) es que el moderador evite el contacto visual y aproveche las pausas para pasar la
palabra a otros miembros del grupo.
Un caso diferente es el del participante disruptivo. Este tipo de participante interrumpe las intervenciones de los otros miembros, no respeta las opiniones o bien emite juicios de valor sobre las opiniones de otros. Es importante, en estos casos, resaltar
la importancia que las diferentes valoraciones tienen para el estudio y recordar que
no existen respuestas correctas ni incorrectas.
El participante tímido es aquel que duda en intervenir. Generalmente es una persona tímida o ansiosa que considera que su intervención no aporta demasiado al
debate. Este tipo de participante necesita la ayuda del moderador para entrar en la
discusión. Normalmente, suele ser suficiente el contacto visual directo con el moderador para animarle a intervenir.
Por último el participante distraído es aquel cuyas intervenciones tienen poca relación con el tema que se está tratando. Posiblemente se trate de una persona con poca
capacidad para escuchar y seguir el hilo de la discusión. En estos casos se recomienda repetir la pregunta o bien parafrasear el hilo de lo que en ese momento se está discutiendo.
7. GRUPOSDE DISCUSIÓN
[197)
7.4.3. Las preguntas
Las preguntas en un grupo de discusión. suelen parecer espontáneas, aunque esta
aparente espontaneidad es totalmente ficticia. El diseño de las preguntas ha de ser
muy cuidadoso. Es importante que los investigadores hagan diversos borradores de
las posibles preguntas y ensayen diferentes formulaciones y vocabulario hasta conseguir una pregunta clara, comprensible y breve. Tal como sugiere Krueger (1991),
las preguntas han de ser estímulos para el grupo. Su formulación debe facilitar la
interacción entre los miembros y provocar la evocación de la máxima información
posible. Las respuestas de los miembros deben inducir a nuevas ideas o facilitar asociaciones entre factores que permitan explorar la diversidad de opiniones del grupo.
Por ello se deben evitar preguntas cerradas o de respuesta dicotómica. Al contrario,
las preguntas han de ser abiertas. Este tipo de preguntas evitan respuestas que puedan
ser contestadas con pocas palabras y facilitan que los miembros del grupo expongan
sus ideas de forma amplia, con descripciones y ejemplos concretos.
Al inicio de la sesión interesa que los participantes expresen sus ideas generales
sobre el tema, pero, una vez el grupo ha expuesto las principales ideas, es importante
ir acotando temas y obtener información más específica. Por ello, al inicio de la sesión
se aconseja formular preguntas generales y reservar preguntas más específicas y concretas una vez se ha recogido la información esencial. En el contexto de un estudio
sobre el comportamiento de los usuarios en una sala de lectura las preguntas iniciales
podrían ser las siguientes: ¿qué soléis hacer cuando vais a una biblioteca?, ¿utilizáis la
sala de lectura?, ¿para qué utilizáis la sala de lectura? y, por ejemplo, reservar preguntas más concretas del tipo: ¿qué es lo que consideráis esencial de la sala de lectura que
no podéis encontrar en otro espacio?, ¿hasta qué punto consideráis que la estructura
de la de la sala de lectura es adecuada? o ¿qué cosas cambiaríais?
Krueger y Casey (2009) distinguen cinco categorías diferentes de preguntas: preguntas de apertura, introductorias, de transición, claves y finales. A continuación se
describen brevemente cada una de ellas.
El objetivo de las preguntas de apertura es hacer que todos los miembros se unan
a la discusión en los primeros momentos de la sesión. Se sabe que, cuanto más tarda
un miembro en intervenir, menos probable es que participe durante la sesión. Frecuentemente, este tipo de preguntas no está relacionado de manera directa con el
tema de discusión, pero facilitan que todos los miembros intervengan. Por ejemplo,
pedir una breve presentación a cada uno de los miembros, preguntar sobre intereses,
ocio o familia, sin que esto haga descubrir diferencias de estatus o poder entre los
participantes, permite generar un clima cálido y que todos los miembros participen.
Las preguntas introductorias son aquellas que introducen el tema de discusión. A
veces, se les pide a los participantes que recuerden experiencias pasadas en relación
[198]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO
INFORMACIONAL
con la temática. De hecho, preguntar sobre el pasado induce al sujeto a hacer referencia directa a experiencias propias y no expresar sus intenciones o deseos. Un ejemplo
de este tipo de pregunta sería en el contexto del estudio de la sala de lectura: ¿qué es
lo que hicisteis la última vez que estuvisteis en una sala de lectura?
Las preguntas de transición intentan profundizar en aquellos aspectos que se han
introducido con las preguntas previas y preparan para las preguntas claves. Las preguntas que responden al objetivo del estudio son las preguntas que se consideran
claves y a las que se les dedicara más tiempo para su discusión.
Por último, las preguntas finales se reservan para que los participantes identifiquen aquellos puntos que consideran esenciales sobre la temática que se ha discutido
o bien valoren si se ha omitido algún aspecto importante que debería ser considerado.
Es importante que antes de iniciar los grupos de discusión se compruebe que las
preguntas que se han diseñado funcionan. Suele ser suficiente formular las preguntas
a algunas personas que encajen con los perfiles de los participantes. Se debe prestar
atención tanto si al moderador le resulta sencillo formular la pregunta, como si los
participantes entienden correctamente el significado de la pregunta.
7.4.4. El escenario
El escenario donde se celebra un GD implica aspectos muy diferentes, unos de carácter más general, como decidir la ubicación de donde se llevará a cabo el GD o bien el
tipo de institución o centro que acogerá a los miembros, y otros más concretos, como
los elementos que debe tener la sala donde se celebre el GD o bien la disposición de los
propios participantes dentro del grupo. A continuación se comentan brevemente cada
uno de estos aspectos.
El lugar donde se celebre la sesión debe ser un lugar que, por una parte, se adecue
a los participantes y, por otra, cubra las necesidades de la técnica. Se debe tener en
cuenta que los participantes deben trasladarse hasta el lugar de la reunión, por lo que
este debe ser un lugar de fácil acceso para todos los miembros. A la hora de escoger la
ubicación deberán considerarse las posibilidades de acceso y de transporte. Celebrar
la reunión en un lugar céntrico a una hora punta en una gran ciudad puede ser percibido como un problema por los candidatos y que esto les haga declinar la invitación
a participar. En el otro extremo, si la reunión tiene lugar en un centro ubicado en un
lugar con escasos servicios de transporte público, sin posibilidad de acceder con el
coche propio o sin un lugar para estacionar, dificultará que los candidatos acepten la
invitación.
Otro aspecto a tener en cuenta es el tipo de centro que se escoge para realizar el
GD. De bus (1988} advierte que celebrar la sesión en lugares como escuelas o institu-
7. GRUPOSDE DISCUSIÓN
(199)
cienes gubernamentales puede inhibir las repuestas de los participantes y provocar
intervenciones que sean más socialmente aceptadas para la organización.
La técnica del GD requiere unas mínimas condiciones para poder desarrollarse de
manera efectiva. Es necesario disponer de una habitación con mesas y sillas, que tenga espacio suficiente para los miembros del grupo. Sin ruidos ni intervenciones y con
una ventilación adecuada. Una sala polivalente donde otras personas pueden tener
acceso durante la sesión no es el mejor sitio donde celebrar la reunión. Tampoco una
habitación con cristales que dan a un pasillo o a una sala donde hay otras personas
trabajando. Se debe crear un escenario donde se minimicen los distractores y que
garantice la confidencialidad de lo que en el grupo se discuta.
Morgan ( 1997) aconseja disponer a los participantes en forma de U alrededor
de una mesa cuadrada o bien redonda y que el moderador se siente como cabeza de
mesa. La cámara, si se decide filmar la sesión, puede situarse justo detrás del moderador para abarcar a todos los participantes. Conviene contemplar la posibilidad de
que se presenten el número máximo de participantes previstos, por lo que se debe
disponer de sillas suficientes. Si se ha pensado en ofrecer algún aperitivo durante la
sesión,. es mejor que se coloque en una mesa aparte y que esta sirva como espacio
previo de tertulia justo antes de pasar a sentarse en la mesa donde ha de celebrarse
la discusión. De esta forma, estas conversaciones iniciales que pueden surgir en los
primeros momentos delante de la mesa de aperitivos pueden ayudar al moderador
y a su ayudante a decidir cómo disponer a los participantes en la mesa de discusión.
7.4.5. La sesión
Antes de comenzar la discusión en grupo es importante que el moderador o los
miembros del equipo mantengan conversaciones informales con los participantes, e
incluso que los participantes hablen entre sí y se conozcan entre ellos. El objetivo es
que los participantes se empiecen a sentir cómodos y se consiga crear un ambiente
cálido y amistoso. No obstante, se intentarán evitar conversaciones relacionadas
directamente con el tema de discusión, justamente para impedir que las ideas u
opiniones que se pretenden valorar surjan antes del inicio de la sesión. Para acompañar a estas primeras interacciones, es ideal invitar a los participantes a un aperitivo en la misma sala donde se celebrará la discusión o bien en una sala contigua
(Greenbaum, 1998).
Es frecuente que no todos los participantes que han sido invitados acudan a la
reunión, por lo que se aconseja invitar a unos cuantos participantes más para asegurar que el grupo tendrá el tamaño deseado. Aunque el éxito de la convocatoria
depende, entre otros factores, de la temática, la implicación de los participantes en
[200)
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL
el estudio y si se proporcionan o no incentivos, Margan (1997) recomienda citar un
20 % más de miembros para evitar que el grupo sea excesivamente pequeño.
Se deben evitar las interrupciones una vez iniciada la sesión, por lo que aquellos
participantes que llegan más tarde son un problema. Edmunds (1999) aconseja citar a los participantes entre 15 y 20 minutos antes de la sesión. Este tiempo puede
aprovecharse para que los participantes se conozcan entre ellos de manera informal,
tomar algún refresco, rellenar cuestionarios, presentar y firmar el consentimiento informado o el informe de confidencialidad.
Una vez los participantes están en sus asientos, el moderador deberá dar la bienvenida, presentar a su equipo de colaboradores y a él mismo antes de presentar el
tema a tratar. A continuación, el moderador explicará brevemente el objetivo del GD
y las normas básicas de funcionamiento del grupo. Tal como expresa Berg (2001 ), los
participantes deben saber qué es lo que se espera de ellos para que el grupo funcione
de la forma esperada. Se debe indicar que se pretende una discusión abierta, que cada
miembro verbalice su opinión sobre el tema y que se respeten las opiniones de los
otros miembros aunque difieran de las propias. Además, el moderador explicará cuál
será su papel durante la sesión. Si se pretende grabar la sesión, se debe remarcar la
importancia de que se intente hablar claro y se respeten los turnos al hablar, de otra
forma esta grabación podría ser ininteligible. Margan ( 1997) señala la dificultad de
justificar la filmación de la sesión. Normalmente, a los participantes les parece obvio
que se grabe en audio para un análisis posterior de las ideas que han ido surgiendo,
sin embargo, perciben la filmación en vídeo como más intrusiva e innecesaria. El
moderador comentará la confidencialidad de las opiniones y el interés por recoger
todo tipo de opinión. Es importante recordar tanto en este punto como en algún
momento durante la sesión que todas las opiniones son válidas y que no existen respuestas correctas o incorrectas. A la hora de presentar estas reglas se debe evitar caer
en un excesivo formalismo o crear un clima demasiado despreocupado. Llegado este
punto, ya se está en condiciones de lanzar la primera pregunta e iniciar la discusión.
Habitualmente, la sesión se programa para que tenga una duración de entre 90 y 120
minutos.
La dinámica de los grupos puede variar mucho entre sí. Mientras un grupo puede
generar ideas muy variadas, otro puede centrarse en unas pocas y no contemplar los
diferentes puntos de vista. De ahí la necesidad de programar varios GD para cada
uno de los perfiles que se han identificado, de esta manera se asegura la existencia
de diferentes dinámicas. Si el moderador percibe un excesivo conformismo entre los
miembros que hace que la discusión sea improductiva, es conveniente que pregunte
de manera directa si existe algún miembro que piense diferente o vea la situación
desde otro punto de vista. Es importante recordar en diversos momentos la necesidad
de expresar todos los puntos de vista, los positivos y los negativos.
7. GRUPOSDE DISCUSIÓN
[201)
Para concluir la reunión se recomienda que el moderador resuma los principales
puntos e ideas que han surgido durante la discusión. Según Debus (1988), esta última
fase debe servir fundamentalmente para hacer evidente lo que ha ocurrido durante
la sesión, dar la oportunidad a quien lo desee para aclarar o añadir algún aspecto
y contrastar la adecuación de las conclusiones con los participantes. Por último, el
moderador deberá agradecer la asistencia y participación a todos los miembros y, si
así se había programado, repartir los incentivos a los participantes.
7.5. VENTAJASY LIMITACIONESDE LOS GRUPOS DE DISCUSIÓN
La mayoría de los autores (Debus, 1988; Edmunds, 1999; Bader y Rossi, 2002; Krueger y Casey, 2009) destacan que la técnica presenta algunas ventajas pero también
algunas limitaciones. Las ventajas fundamentales son:
<11111
<11111
<11111
<11111
<11111
<11111
El GD permite a los participantes expresar sus opiniones libremente. A diferencia de un estudio de encuesta, en que el usuario en muchas ocasiones solo
puede marcar una alternativa de respuesta para resumir su opinión, un GD
permite al participante dar detalles, razones y justificar su respuesta. Por otro
lado, el hecho de que se pueda contrastar la información con otros miembros
del grupo puede llevar a generar nueva información.
Es una técnica flexible. Permite al moderador desviarse del guión si así lo considera oportuno tras valorar opiniones inesperadas de los participantes. Como
el objetivo es obtener información en profundidad, se considera más importante la información que puede proporcionar el grupo que seguir estrictamente el
guión establecido.
Es una técnica que disfruta de una gran validez aparente. Tanto el funcionamiento de la técnica como los resultados obtenidos a partir de ella se comprenden fácilmente por personas no expertas.
El grupo de discusión suele ser una técnica que permite abordar situaciones
en las que se tiene un bajo conocimiento, por lo que es aconsejable en los primeros estadios de una investigación y para obtener información de carácter
descriptivo y exploratorio.
La técnica puede llevarse a cabo con un coste reducido. Si se utiliza un moderador interno a la organización, los costes económicos serán aún más bajos.
Comparada con otras técnicas como la encuesta o la entrevista, los resultados
de la investigación pueden estar disponibles con bastante rapidez. En una o
pocas semanas puede recogerse la información de diferentes grupos, analizarla
y realizar el informe.
[202]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO
INFORMACIONAL
Algunas de las limitaciones que han de considerarse antes de llevar a cabo un GD
serían:
<1111
<1111
<1111
<1111
<1111
El moderador tiene un control relativo sobre la discusión del grupo. No siempre es fácil reconducir la conversación o evitar que la discusión se centre en temas irrelevantes. En el caso de una entrevista individual, para el entrevistador
es relativamente sencillo reconducir la conversación al tema de interés o bien
solicitar información más detallada sobre una determinada cuestión y evitar
aquellos aspectos que se consideran irrelevantes.
La disponibilidad de los participantes puede ser un problema. El GD requiere
que los miembros del grupo asistan a un lugar y hora concreta para llevar a
cabo la sesión. No siempre es fácil cuadrar agenda con todos ellos.
Un grupo de discusión requiere que los participantes inviertan una mayor dedicación de su tiempo. Deben trasladarse al lugar donde tendrá lugar la sesión
e invertir entre hora y media y dos horas en la discusión.
En ocasiones se observa una mayor conformidad, deseabilidad social y polarización de las opiniones. La falta de anonimato inhibe a algunos miembros
a expresar opiniones discordantes cuando se observa una alta conformidad
dentro del grupo. En otros casos, los participantes expresan y defienden puntos
de vista más extremos de los que mantendrían en su vida diaria. Esto provoca
que los participantes se dividan en dos polos, los que están en contra y los
que están a favor de un determinado aspecto y difícilmente se pueden obtener
opiniones intermedias.
No todos los grupos funcionan igual. La composición de cada grupo es diferente y la combinación de diferentes roles pueden generar diferentes interacciones entre los miembros e influir en los resultados. Mientras que algunos grupos pueden resultar aburridos y aportar una información pobre, otros pueden
ser efervescentes y proporcionar información rica y variada. Para contrarrestar
este efecto, se recomienda incluir diversos grupos en el estudio con el fin de
conseguir la información que se persigue, sin correr el peligro de un mal funcionamiento del grupo.
7.6. VARIANTES DE LA TÉCNICA
Los grupos de discusión también pueden llevarse a cabo por teléfono y por Internet.
En los dos casos la principal ventaja es que puede reunirse a miembros geográficamente dispersos a un bajo coste. Sin embargo, la limitación más evidente es que se pierde
la riqueza informativa de la conducta no verbal de los grupos presenciales (Krueger y
7. GRUPOS DE DISCUSIÓN
[2031
Casey, 2009). El moderador no puede percibir con tanta facilidad cuando alguno de
los miembros está perdiendo el interés por la discusión o bien está atendiendo a otras
actividades durante el transcurso de la sesión (móvil, correo, Internet, etcétera).
Cuando se programa un GD por teléfono es necesario tener en cuenta algunas
consideraciones respecto al grupo presencial. Es necesario reducir el tiempo de discusión y el número de miembros que participan. Por un lado, dos horas se considera
demasiado tiempo para estar colgado al teléfono y, por otro, atender a la vez la
conversación de diez personas diferentes puede resultar imposible. Como solución
a estas limitaciones, se aconseja reducir a una hora la duración de la sesión y limitar la participación a no más de cuatro o cinco miembros (Krueger y Casey, 2009).
Además, para ayudar a la identificación de cada participante se aconseja que cada
uno se identifique con su nombre cada vez que interviene. Krueger y Casey (2009)
recomiendan enviar las preguntas a los participantes antes de la sesión, de esa manera
pueden pensar en aquello que quieren decir y aprovechar mejor el tiempo disponible.
Respecto a los GD por Internet, existen básicamente dos modalidades, el GD a
tiempo real en salas de chat y los foros de discusión. En ambos casos, la sensación
de anonimato entre los miembros es mayor, dado que no intervienen ni la imagen ni
la voz. La transcripción de la sesión es inmediata, dado que los participantes dejan
por escrito sus comentarios. No obstante, aunque se elimina el coste de viajes, dietas,
transcripciones y alquiler de sala de reuniones, se debe añadir el coste del alquiler o
bien la creación de un espacio virtual. Otra desventaja es que la expresión emocional
de las intervenciones, aunque es posible a partir de emoticones o mayúsculas, no deja
de ser artificial y pierde la espontaneidad y naturalidad del lenguaje hablado (Blader
y Rossi, 2002).
Los GD en salas de chat consisten en espacios web donde se invita a unos participantes a entrar para discutir en tiempo real sobre aspectos sugeridos por un moderador. La sesión se desarrolla a partir de la comunicación escrita entre los miembros,
aunque otros estímulos, como gráficos, vídeos, visitas a otras webs, etcétera, se pueden ir presentando durante la sesión. El número de participantes suele oscilar entre
los seis y ocho miembros y suele durar menos de 90 minutos (Krueger y Casey, 2009).
Por las características del contexto, las intervenciones de los miembros suelen ser espontáneas y no siempre los miembros con aportaciones más interesantes son los que
más intervienen, sino los que más rápido teclean. Un problema habitual en este tipo
de GD son las dificultades técnicas que pueden surgir y los problemas con la velocidad
de conexión de los participantes.
Los foros de discusión son GD diacrónicos. Los participantes no están conectados
al mismo tiempo, sino que la discusión transcurre a lo largo de varios días. Es habitual que el moderador presente unas cuestiones y deje un determinado tiempo para
que cada miembro entre y las conteste. Cada uno de los miembros puede contestar
[204)
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL
las preguntas generales del moderador o bien responder a las intervenciones previas
de otros miembros. Normalmente, las intervenciones aparecen en orden cronológico
y se identifica al autor y la hora de su intervención. Una diferencia de esta modalidad
respecto al resto de variantes es que permite emitir respuestas mucho más elaboradas
y meditadas. Los participantes pueden elaborar sus respuestas durante varios días,
contrastar sus opiniones con otros individuos fuera del grupo o bien buscar información que les ayude a su intervención. El hecho de que el participante pueda decidir
cuándo incorporarse al GD puede ser una alternativa para aquellos sujetos con una
difícil disponibilidad para participar en un GD presencial.
Es obvio que la aparición de Internet ha generado una nueva era para el campo de
la información y la documentación. En la actualidad, las bibliotecas digitales, páginas
web, portales, bases de datos, catálogos online o servicios online (servicios de referencia y bibliográficos en línea) son una realidad cotidiana para el usuario. A principios
del milenio Chase y Álvarez (2000) sugirieron que la evaluación o diseño de esta nueva realidad en línea era de hecho una buena candidata para aplicar la técnica del GD
en su modalidad virtual. Sin embargo, hasta ahora son muy escasas las publicaciones
que aplican la técnica en su versión online (Schenider y otros, 2002; Chase y Álvarez,
2000) y fundamentalmente su aplicación es con fines metodológicos para comparar
los resultados con la versión presencial.
7.7. EJEMPLOS DE INVESTIGACIONES
Ejemplo 1. Diseño de una versión web para dispositivos móviles
El trabajo de Seeholzer y Salem (2011) utilizó el grupo de discusión para conocer el
uso que los estudiantes daban al móvil como herramienta para conectarse a Internet
e investigar qué esperaban encontrar en ese entorno web. Concretamente, el estudio pretendía obtener información que ayudase a diseñar una web para dispositivos
móviles de una biblioteca universitaria. En este estudio los autores se centraron en
estudiantes de la Kent State University.
Los participantes fueron seleccionados a partir de un muestro accidental. Concretamente, el estudio se difundió a partir de anuncios en la web, folletos y el boca a
boca. Los autores no aportan los detalles del proceso de selección ni de las características de la muestra, pero a partir del texto se intuye que los grupos estaban formados por estudiantes con diferente frecuencia de uso tanto de los dispositivos móviles
como de la biblioteca. A todos los participantes se les recompensó con diez dólares y
un aperitivo que tuvo lugar durante la sesión. En total, se celebraron cuatro grupos,
aunque el primero sirvió de grupo piloto para valorar la adecuación del guión del
7. GRUPOS DE DISCUSIÓN
[2051
moderador. El tamaño de los grupos osciló entre cinco y nueve miembros. Todas las
sesiones se celebraron en la biblioteca central de la universidad, fueron grabadas y
posteriormente transcritas para su posterior análisis.
Vale la pena destacar dos aspectos del diseño de este estudio y su posible repercusión en los resultados: la composición de los grupos y la ubicación de las sesiones. Por
una parte, la composición de los grupos es heterogénea. Tal como indican los autores,
no todos los participantes disponían de dispositivos para navegar por Internet:
La mayoría de participantes en el focus group tenían acceso a Internet a partir de su dispositivo móvil, y aquellos que no lo tenían mostraron su interés en obtener un dispositivo
móvil con conexión a Internet.
Este aspecto, tal como se ha expuesto en el capítulo, puede afectar a la frecuencia
y calidad de las intervenciones de los participantes. Posiblemente, aquellos miembros
sin experiencia en la navegación con dispositivos móviles tendrían menos oportunidades de expresar sus experiencias y percepciones sobre la temática. Así, la discusión
podría estar dominada por aquellos con una mayor experiencia. Los participantes
también diferían en el uso de la web de la biblioteca, lo que también podría afectar a
sus intervenciones en la discusión. Una alternativa podría haber sido formar grupos
homogéneos en función de la disponibilidad de dispositivos móviles con acceso a
Internet y el uso de la web de la biblioteca por parte de los participantes.
Un segundo aspecto es el lugar donde tuvieron lugar los grupos de discusión. El
hecho de celebrar las sesiones en la biblioteca motiva en mayor medida a los usuarios de esta biblioteca a participar en el estudio. Posiblemente estos usuarios tienen
un mejor conocimiento de su web, lo que facilitaría la discusión que debía llevarse a
cabo en el grupo. No obstante, que las sesiones se celebraran en la biblioteca puede
fomentar una opinión sesgada y, en concreto, más favorable hacia la necesidad de
que la biblioteca disponga de una web para dispositivos móviles. Los autores no comentan sobre si las sesiones fueron dirigidas por un moderador externo o interno a
la organización, pero, sin duda, un moderador interno, también fomentaría opiniones
más positivas y favorables hacia una expansión de la biblioteca en este ámbito.
A medida que los participantes llegaban a la sesión se los invitaba a tomar un aperitivo y se les entregaba el consentimiento informado para su lectura y firma. Durante
la sesión se distribuyeron dispositivos móviles para que los participantes valoraran el
modo en que algunos recursos aparecían en la pantalla. También se proyectaron páginas de la web tradicional de la biblioteca y versiones web para dispositivos móviles
de otras bibliotecas.
La sesión se diseñó para valorar tres grandes aspectos:
[206]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL
~
Valoración de las experiencias personales en la navegación por Internet a través de dispositivos móviles.
~ Estudio del uso y las expectativas de una versión web para dispositivos móviles
de una biblioteca.
~ Discusión sobre otros posibles servicios o recursos que podían resultar interesantes para el usuario en una web para dispositivos móviles de una biblioteca.
El diseño de estos tres bloques sigue una estructura que va de lo más general a
lo más específico. En un primer bloque de preguntas se abordaban aspectos como
el tipo de dispositivos que los estudiantes utilizaban, así como la frecuencia de uso.
Se exploraban también la utilidad y las ventajas y limitaciones de la navegación con
dispositivos móviles. Mientras que el primer bloque de la sesión se centró en aspectos
generales, un segundo bloque abordó aspectos más concretos. El segundo bloque era
de hecho la base para dar respuesta a la finalidad del estudio. Se valoraba la necesidad de que una biblioteca tuviera una web de este tipo, así como las características
y atributos que serían interesantes que incorporara. En esta fase se indicaba a los
participantes que tomaran como ejemplo la web de la biblioteca de su universidad
y valoraran la utilidad que determinada información de la web tradicional estuviera presente en una web para dispositivos móviles. Por último, en la fase final de la
discusión, se pretendía que los participantes aportaran ideas acerca de otros posibles
servicios o recursos para una web de este tipo.
A partir del grupo de discusión este estudio logra conocer cómo los estudiantes
usaban el móvil para conectarse a Internet y qué desearían encontrar en una web de
una biblioteca universitaria. Los autores son conscientes de que este estudio sería el
primer paso para poder proceder a un diseño efectivo de una web para dispositivos
móviles. La información debería completarse con futuros estudios que incluyeran a
otros colectivos como profesores, trabajadores de la biblioteca o bien estudiantes a
distancia.
Ejemplo 2. Evaluación de un catálogo en línea desde la perspectiva de los usuarios
Posiblemente el estudio de Connaway y otros (1997) es la investigación que ha descrito de manera más detallada el procedimiento que siguieron al aplicar la técnica de
grupo de discusión. El estudio pretendía valorar los puntos fuertes y débiles de un catálogo en línea de la biblioteca de la Universidad de Wisconsin por parte de diferentes
colectivos de usuarios con la finalidad de mejorarlo.
El abanico de usuarios del catálogo incluía a estudiantes graduados y no graduados y a docentes de diferentes disciplinas. Bajo el supuesto de que el uso y la imagen
7. GRUPOS DE DISCUSIÓN
[207]
de cómo debe funcionar un catálogo serían diferentes en estos tres colectivos, se
decidió organizar los grupos en función de estas tres grandes tipologías de usuarios.
Esta agrupación permitió formar grupos homogéneos en cuanto al uso del catálogo
y al estatus académico. No obstante, se persiguió que las disciplinas dentro de los
grupos fueran lo más variadas posibles. Los autores comentan que, dado que el interés del estudio no era valorar las diferencias en el uso del catálogo entre las distintas
disciplinas, la diversidad dentro de los grupos evitaría posibles influencias derivadas
de un entrenamiento de búsqueda o de uso del catálogo dentro de un área concreta.
Los participantes se seleccionaron a partir de recomendaciones del personal de la
biblioteca. En un primer momento se seleccionaron unos cuantos docentes y alumnos que el personal conocía como usuarios frecuentes del catálogo o de la biblioteca.
Posteriormente, se les solicitó a estos participantes que recomendaran a otros para
participar en el estudio. La selección final de los candidatos se basó en la información
obtenida a partir de unas preguntas de preselección. Uno de los aspectos que se tuvo
en cuenta para seleccionar a los candidatos fue que estos estuvieran suficientemente
familiarizados con el catálogo, por lo que aquellos que mostraron dudas en conocerlo
suficientemente fueron descartados.
Unos pocos días antes se enviaron cartas a todos los candidatos para recordarles
el lugar y la hora en que se iba a celebrar la sesión. En la carta también se explicaba
la posibilidad de consultar otros catálogos de otras bibliotecas con el fin de poder
compararlos con el catálogo que se pretendía evaluar. El objetivo era evitar invertir
tiempo en demostraciones sobre funcionamiento de otros catálogos durante la sesión.
Finalmente, se celebraron dos sesiones para cada uno de los colectivos. Participaron
un total de 15 docentes, 14 estudiantes graduados y 19 estudiantes no graduados.
Se diseñaron cinco preguntas abiertas para ser abordadas durante la sesión. Las
primeras trataban temas generales, mientras que las últimas pretendían abordar temas más concretos y obtener ejemplos y respuestas específicas. La duración aproximada de cada sesión fue de una hora y media.
Un profesor de la UW-Madison School of Library and Information Studies fue el
encargado de moderar la sesión, mientras que un alumno de doctorado realizó el papel de ayudante tomando notas. Después de cada sesión el moderador y su ayudante
se reunieron para completar las notas. El análisis de los datos se llevó a cabo solo a
partir de estas anotaciones, dado que no se registró el audio de la sesión. Los resultados se organizaron en función del tipo de colectivo evaluado.
En este estudio se recogen las principales características que un GD debe presentar:
generación de varios grupos homogéneos, selección de los mejores informantes para
la discusión, presencia de un moderador y un ayudante que toma notas y un guión
de entrevista que trata los temas desde lo más general a lo más específico. El único
aspecto que no sigue las características generales de un grupo de discusión es la falta
[208]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL
de grabación de la sesión. Sin duda la escucha atenta de los comentarios de los participantes habría ayudado a un análisis más profundo del contenido.
Los autores señalan que, aunque el estudio abordaba la evaluación de un catálogo concreto que solo estaba disponible en la Universidad de Wisconsin, los resultados obtenidos a partir de los grupos de discusión seguramente reflejan opiniones
generales sobre la mayoría de los catálogos en línea y sus interfaces. Tal como se ha
comentado en otros apartados, los resultados de un grupo de discusión no son en
principio generalizables al conjunto de la población. En cambio, permiten obtener un
conocimiento detallado y profundo del tema que se aborda, lo que resulta altamente
informativo sobre el conjunto de la población de referencia.
7.8. RESUMEN
El grupo de discusión es una técnica cualitativa que consiste en entrevistar a un grupo
de individuos homogéneo sobre uno o varios temas concretos. La sesión es conducida
por un moderador y el objetivo que se persigue es obtener información sobre la percepción, actitudes o sentimientos de los participantes sobre algún aspecto específico.
La finalidad es que esta información sirva para la toma de decisiones y la planificación. En el área de la información y la documentación, el grupo de discusión se ha ido
utilizando desde la década de 1980 para la valoración de necesidades informativas de
diferentes colectivos, evaluar el uso de diferentes productos y servicios, conocer las
actitudes de los usuarios hacia los nuevos recursos de información o bien la planificación estratégica de una biblioteca, entre muchos otros aspectos.
En los últimos años, han aparecido variantes de la técnica como el GD por teléfono o por Internet. En ambos casos la ventaja principal es la posibilidad de reunir a
miembros geográficamente dispersos por un coste económico reducido. Comparado
con la versión presencial de la técnica, se pierde la información no verbal que puede
proporcionar una discusión en grupo. En el ámbito de la información y la documentación, la aplicación de estas nuevas variantes de la técnica es aún escasa.
CAPÍTULO 8
LA TÉCNICA DELPHI
8.1. DEFINICIÓN Y ÁMBITOS DE APLICACIÓN
El estudio Delphi es una técnica de estructuración del proceso de comunicación grupal que es efectivo a la hora de permitir a un grupo de individuos, como un todo, tratar un problema complejo (Linstone y Turoff, 1975). Se engloba en la denominación
genérica de técnicas de consenso, pues trata de conseguir niveles de acuerdo entre un
conjunto de individuos sobre cuestiones de interés para una investigación. El objetivo, por tanto, es establecer un mecanismo estructurado de comunicación y discusión
entre un conjunto de individuos cuyas opiniones son de probada solvencia por ser
expertos en la materia objeto de estudio.
La denominación De/phi es la traducción inglesa de Delfos, ciudad de la antigua Grecia, célebre por los oráculos que Apolo realizaba allí por medio de una
sacerdotisa. Este nombre se le asigna porque los primeros estudios que dan lugar
al desarrollo de esta técnica estaban orientados a predecir acontecimientos futuros
basándose en la opinión de expertos. Dichos estudios se realizaron en el seno de
RANO Corporation y dado su carácter militar sus resultados se difundieron años
después de su puesta en marcha. Uno de ellos fue The use of experts for the estimation of bombing requirements (Dalkey y Helmer, 1963). En esta investigación se
contó con un total de siete expertos en guerra nuclear y se les preguntó sobre el número de bombas atómicas que serían necesarias ante un eventual ataque soviético
antes de reducir la producción armamentística norteamericana hasta unos determinados niveles. La pregunta se realizó en una primera ronda y se siguió discutiendo
de forma sucesiva hasta un total de cinco rondas. En todo momento el proceso
aseguró el anonimato, pues los expertos no se conocían, aunque sí podían acceder
a las opiniones emitidas por el resto de participantes. El resultado fue que, tras las
cinco rondas, las estimaciones fueron convergiendo y las opiniones más dispares se
·
fueron acercando.
[210]
MÉTODOS Y T(~CNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO
INFORMACIONAL
En el ámbito de información y documentación, ha sido utilizado en numerosas
ocasiones con objetivos diversos:
<1111
<1111
<1111
<1111
<1111
<1111
<1111
<1111
Establecer la agenda de investigación de un grupo (Westbrook, 1997), una organización (Eldredge, Harris y Ascher, 2009) o un país (Maceviciute y Wilson,
2009).
Desarrollar el currículum en los estudios de biblioteconomía y documentación
en el ámbito de ciencias de la salud (Moran, 1997) o predecir el futuro de la
profesión bibliotecaria (Feret y Marcinek, 2005).
Establecer los contenidos que debe tener un programa de formación de usuarios (Howze y Dalrymple, 2004) junto con las estrategias para la gestión del
servicio (Neuman, 1995).
Determinar las características que debe tener el espacio bibliotecario (Ludwig
y Starr, 2005).
Establecer criterios para evaluar una biblioteca (Harer y Cole, 1999; Hsieh,
Chin y Wu, 2004).
El futuro desarrollo de las revistas electrónicas (Keller, 2001) y de las bibliotecas digitales (Kochtanek y Hein, 1999).
La selección de sedes web como fuente de información (Green, 2000).
Determinar la información mínima necesaria de un registro para gestionar un
sistema de información (Pérez Fernández, García Sagredo y Gervás, 1990).
Todos estos ámbitos donde el Delphi ha sido utilizado en el área de información y
documentación tienen en común que el usuario final de un sistema no está implicado
en el proceso de investigación, aunque los resultados puedan repercutir en su comportamiento ante la información. En general, en todos los casos está concebido desde
el punto de vista de la gestión.
8.2. CARACTERÍSTICAS
Siguiendo a Landeta (1999), la técnica Delphi posee las siguientes características distintivas: se conserva el anonimato entre los participantes, es un proceso iterativo que
permite un feedback controlado y permite la respuesta estadística de grupo.
a) Anonimato
En un estudio Delphi, los participantes no se conocen entre ellos y en todo momento
se mantiene el anonimato. Esto se consigue debido a que el modo en que se recaba
8. LATÉCNICADELPHI
[211)
la información es a través de cuestionarios remitidos por correo, teléfono u online a
través de un formulario. Asegurado el anonimato, se persigue que, a la hora de emitir
una opinión, nadie del grupo esté condicionado por la influencia de otro participante por el cargo que ostenta, por su reputación o por el mayor número de opiniones
emitidas en uno u otro sentido. Es decir, evita el efecto contagio (Linstone y Turoff,
1975). Igualmente, se evita la inhibición en la expresión de la propia opinión y se
facilita el que un participante pueda cambiar de opinión sin temor a resultar incongruente a juicio del resto de participantes.
No obstante, el anonimato se da en cuanto al conocimiento entre los miembros
del grupo pero no en cuanto a las opiniones por ellos emitidas. De esta manera y
dependiendo del protocolo seguido, en cada una de las iteraciones los expertos conocerán las opiniones emitidas por otros participantes, pero en todo momento esta
comunicación se hará en la intermediación y supervisión del grupo moderador.
b) Proceso iterativo con feedback controlado
Los expertos participantes en un Delphi emiten su opinión de forma iterativa en sucesivas rondas y la cuestión o cuestiones formuladas en cada una de ellas van incluyendo las opiniones emitidas en la ronda anterior a modo de feedback. De esta forma,
los participantes pueden reconsiderar la opinión emitida previamente a la vista de las
nuevas opiniones emitidas por sus compañeros. Es decir, se da la oportunidad a cada
uno de los participantes de confrontar su propia opinión con la del resto. Generalmente estas opiniones son bastante divergentes al inicio del estudio, pero a través de
las sucesivas rondas de recogida y análisis de la información suelen alcanzar mayor
grado de convergencia.
Por otra parte, las sucesivas rondas a través de las que transcurre un Delphi suponen un feedback controlado por el grupo moderador, ya que este, a través del análisis,
evita la transmisión de información y opiniones no relevantes para el objetivo de la
investigación y focaliza el proceso en aquello que realmente sí es relevante.
d) Respuesta estadística de grupo
La respuesta estadística de grupo asegura que las aportaciones u opiniones de
todos los miembros estén presentes en la respuesta que se le proporciona al conjunto
de participantes. Esto se consigue a través del análisis que se realiza de sus respuestas.
En general, se aportan medidas de tendencia central (media y mediana) y dispersión
(desviación típica y rango intercuartílico) para las preguntas con respuesta cuantitativa, así como porcentajes y frecuencias para los ítems cualitativos.
(212)
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL
8.3. PROCEDIMIENTO
8.3.1. Secuencia de un estudio Delphi
Para entender el proceso que se sigue en un estudio Delphi, Couper ( 1984) propone el
modelo de la figura 11. En primer lugar, el grupo moderador elabora un cuestionario
con una serie de cuestiones que servirán para iniciar la discusión. Tras ser validado,
se remitirá a los expertos participantes que contestarán y harán llegar de nuevo al
grupo moderador sus respuestas. Este analizará la información obtenida y planteará
un nuevo cuestionario que tendrá como objetivo encauzar la discusión hacia determinados niveles de acuerdo. Al igual que en la ronda anterior, se validará y se remitirá
a los participantes. Estos a su vez devolverán sus respuestas al grupo moderador, que
las analizará y, según el grado de acuerdo alcanzado, dará por concluido el estudio o,
por el contrario, iniciará una nueva ronda.
Figura11. Secuencia de un estudio Delphi (adaptado de Couper, 1984)
MODERADOR
.------
DISEÑOINICIAL
CUESTIONARIO
REDISEÑOSUCESIVO '
DE CUESTIONARIOS -----TEST
CUESTIONARIO
PILOTO
PLANY FEEDBACK
ANÁLISIS
FINALE
INFORME
' FINALIZACIÓN
CUESTIONARIO
ANÁLISISDE DATOS
ENVIO
· CUESTIONARIO .
RECEPCIÓNDE RESPUESTAS
RESPUESTAAL CUESTIONARIO
GRUPODE EXPERTOS
8. LATÉCNICADELPHI
[213)
La finalización de las rondas en un estudio Delphi en numerosas ocasiones está
determinada por criterios prácticos como el tiempo y los recursos disponibles, de
tal manera que a menudo se determina el número de rondas que se harán a priori,
normalmente entre dos o tres hasta un máximo de cinco. No obstante, el consenso
alcanzado (grado de convergencia de las estimaciones individuales), así como la estabilidad en las respuestas (no variación significativa de las opiniones de los informantes en rondas sucesivas), son los criterios básicos que determinan el fin de un estudio
Delphi, al margen de los criterios prácticos antes apuntados.
8.3.2. Grupo moderador y grupo de expertos
Según Landeta (1999), el grupo moderador en un estudio Delphi tiene los siguientes
cometidos. En primer lugar, debe establecer el protocolo a seguir. Esto incluye acordar los procedimientos de trabajo, los criterios de selección de los expertos, determinar el cronograma, procurar los medios necesarios para su puesta en marcha y el
diseño del informe final. En segundo lugar, el grupo moderador es quien acuerda y
decide la lista final de los expertos que participarán en el Delphi, según los criterios
establecidos previamente. En tercer lugar, diseña el cuestionario inicial, analiza las
respuestas y rediseña y analiza los sucesivos cuestionarios de tantas rondas como
conste el estudio y elabora el informe final. En definitiva, supervisa la correcta marcha de la investigación.
En cuanto al individuo considerado como experto, Landeta (1999) lo define como
aquel cuya situación y recursos personales le posibiliten contribuir positivamente a la
consecución del fin que ha motivado la iniciación del estudio Delphi.
Por otra parte, el grupo de expertos puede estar formado por individuos con tres
roles diferentes (Scheele, 1975): los interesados o stakeholders, que son los que están directamente afectados p~r el aspecto que se investiga; los especialistas, porque
tienen experiencia y pueden aportar esa visión a la investigación, y los facilitadores,
quienes tienen habilidades para aclarar, organizar, sintetizar y estimular el proceso
de discusión. El que para una investigación se consideren participantes de uno u
otro rol dependerá de los objetivos de la propia investigación. Por ejemplo, Neuman (1995) selecciona su panel de expertos para determinar los problemas y estrategias para asegurar el uso de recursos electrónicos en las escuelas de secundaria a
individuos que podían identificar esos problemas y potenciales soluciones porque
son bibliotecarios especialistas en recursos electrónicos y su trabajo se desarrollaba
en ese contexto.
Respecto al grupo de expertos, otra cuestión a considerar es qué criterios seguimos para su selección. Landeta (1999) propone los siguientes criterios: nivel de co-
[214]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO
JNFORMACIONAL
nacimientos, capacidad predictiva, grado de afectación por las consecuencias, capacidad facilitadora, grado de motivación y otros criterios más prosaicos como coste,
proximidad y accesibilidad. Aparte de seguir un mandato sistemático para la selección de expertos, la lógica puede guiar convenientemente esta decisión. Por ejemplo,
si se pretende conocer a través de un estudio Delphi las dificultades y problemas
que podemos encontrar en el proceso de implantación de un servicio de referencia
virtual en una biblioteca universitaria, los expertos que podrían aportar algo a los
resultados finales serían todos aquellos que cumplieran alguna de las anteriores características (conocimiento, capacidad predictiva, motivación, etcétera). Y además las
siguientes: que hayan estado implicados en un proceso similar, vayan a estarlo en un
futuro, tengan conocimientos sobre la cuestión, hayan tenido que tomar decisiones
en un proceso similar o deban tomarlas en un futuro. Cualquiera de los siguientes
individuos cumpliría con este papel: bibliotecarios, informáticos, gestores, profesores
universitarios, alumnos e investigadores en la materia.
Por último, otra cuestión relacionada con la selección del grupo de expertos trata
sobre el número de participantes. Respecto a esta cuestión no hay consenso, pues depende en gran medida del contexto donde se desarrolle la investigación. Sin embargo,
existen varias cuestiones que condicionarán el número además de esta última. Por
ejemplo, el hecho de que a lo largo de las diversas rondas los participantes pierden
motivación y son frecuentes los abandonos. Por esta razón, si se parte de un grupo
pequeño, se corre el peligro de acabar sin apenas participantes. Otra cuestión son los
condicionantes económicos y de tiempo, así como otros aspectos relacionados con
la organización como son el alcance geográfico que se le quiera dar al estudio o los
grupos que se quiera que estén representados. Como número orientativo Landeta
(1999) habla de entre 7 y 50, mientras que Couper (1984) entre 10 o varios cientos.
En el caso de investigaciones en el ámbito de información y documentación, en el
estudio de Maceviciute y Wilson (2009), por ejemplo, que investigó la agenda de
investigación en el ámbito de biblioteconomía y documentación, el número inicial de
participantes identificados e invitados a participar fue de 125 repartidos entre distintos grupos de bibliotecarios considerados expertos para este estudio. De ellos, en la
primera ronda devolvieron el cuestionario 78 (80 % de porcentaje de respuesta). En
la segunda y última ronda fueron invitados a participar 92 y, de ellos, 64 respondieron (69,5 % de porcentaje de respuesta).
8.3.3. El cuestionario en un estudio Delphi. Recogida y análisis de la información
Como se ha mencionado en el epígrafe anterior, las sucesivas rondas de un Delphi comienzan con un primer cuestionario en el que generalmente las preguntas son abier-
12151
8. LA TÉCNICA DELPHI
tas y el experto participante tiene la posibilidad de contestar ampliamente a lo que
se le pregunta. Posteriormente se realiza un análisis de contenido de las respuestas
recibidas. Para una descripción en detalle de esta técnica véase el capítulo 11, sobre
análisis de datos cualitativos.
Esta primera ronda, planteada de esta manera, es la fuente a partir de la cual se
van elaborando los cuestionarios de las siguientes. No obstante, otra forma de enfocar esta primera ronda es elaborar una lista de preguntas a partir de la literatura
especializada y comenzar el proceso Delphi a partir de la valoración de esos ítems.
No es lo más frecuente, aunque en ocasiones algunos estudios lo han planteado de
esta forma. Es el caso del estudio de Maceviciute y Wilson (2009).
Cuando las preguntas iniciales se formulan como preguntas abiertas, las respuestas dadas en esta primera ronda sirven para elaborar los siguientes cuestionarios,
normalmente con preguntas cerradas con distinto tipo de respuesta. Landeta (1999)
clasifica las preguntas de un Delphi según la opción de respuesta por jerarquización,
valoración, comparación y estimación. A continuación se describe el modo de formular cada uno de estos tipos de pregunta, así como el modo en que se analiza la
información obtenida. Respecto a esta última cuestión, consiste básicamente en la
integración de las respuestas obtenidas a través de medidas de tendencia central. En
el capítulo 10, sobre análisis de datos cuantitativos, se describe con más detalle esta
última cuestión.
a) Jerarquización: preguntas en las que se proporciona una lista de ítems y los
expertos deben ordenarlos de forma jerárquica según un criterio como puede ser,
por ejemplo, su importancia, relevancia o urgencia con relación al tema estudiado
(cuadro 27).
Cuadro 27. Pregunta jerarquizada en un cuestionario Delphi
De los siguientes ítems que describen las posibles causas de insatisfacción de los usuarios con la biblioteca, clasifique de mayor a menor según la probabilidad de que pueda darse en un futuro:
Causa de insatisfacción
Elevado coste de los servicios
Personal con poca disposición a ayudar
Incompatibilidad horaria
Falta de formación del usuario en el uso de recursos de información
Colecciones insuficientes
Poca accesibilidad física del edificio de la biblioteca
Ordenación de la colección de libre acceso con criterios poco claros
Espacio poco confortable
Puesto
[216]
MÉTODOS Y TÉCNICASPARA LA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL
El resultado es de tantas listas jerarquizadas como participantes tenga el estudio.
Para integrarlas se calculan las medidas de tendencia central (media y mediana) y
dispersión (desviación típica y rango intercuartílico) y se obtiene una lista ordenada
por alguno de estos valores (tabla 17). Por una parte, los valores de tendencia central
indican la valoración general del ítem, mientras que, por otra, los valores de dispersión indican el grado de acuerdo entre los diferentes participantes. Cuanto más altos
sean los valores de dispersión más desacuerdo existe entre los miembros. Por ejemplo,
en la valoración del ítem 3 (colecciones insuficientes) se observa que los valores de
IQR (rango intercuartílico) y desviación típica son altos comparados con los indicadores de tendencia central, lo que indican que existe desacuerdo entre los miembros.
En cambio, cuando los valores de dispersión son bajos es indicativo de que el ítem
presenta un alto grado de consenso. Por ejemplo en el ítem 8 (incompatibilidad horaria) se observa que prácticamente todos los participantes están de acuerdo en cómo
valorar este ítem. La discrepancia entre los valores de la media y la mediana indica la
presencia de algunos participantes con puntuaciones extremas. Por ejemplo, el ítem 1
(personal con poca disposición a ayudar) presenta valores de media y mediana bastante diferentes. Este ítem presenta un acuerdo notable, aunque hay dos participantes
con puntuaciones en el otro extremo de la variable.
Tabla 17. Análisis de las preguntas jerarquizadas de ocho participantes en un estudio Delphi
ordenadas según la mediana
Rt R2 R3 R4 RS R6 R7 R8 Mediana IQR Media Desviación
típica
1. Personal con poca disposición
a ayudar
2. Elevado coste de los servicios
3. Colecciones insuficientes
4. Falta de formación del usuario en
el uso de recursos de información
5. Ordenación de la colección de libre
acceso con criterios poco claros
6. Poca accesibilidad física del edificio
de la biblioteca
7. Espacio poco confonable
8. Incompatibilidad horaria
8
1
2
5
5,25
8
1
8
5
1
1
3
8
2
2
2,75
3,24
1,5
1,00
1,88
1,36
2
6,25
3,50
3,12
4
7
2
2
2
2
7
7
3
5,00
4,08
2,47
7
4
3
4
5
7
4
3
4
3,25
4,63
1,60
6
3
5
6
4
4
8
4
4,5
2
5,00
1,60
8
3
5
6
7
8
7
7
6
5
6
5
6
5
6
5,5
1,75
5,87
1,13
6
1,00
6,13
1,46
8
b) Valoración: se trata de una matriz de preguntas que muestran una serie de
ítems que el experto valora según una escala graduada tipo Likert (cuadro 28) o bien
a partir de preguntas dicotómicas con posibilidad de respuesta sí/no o verdadero/
falso.
[217]
8. LATÉCNICADELPHI
Cuadro 28. Pregunta con escala Likert en un cuestionario Delphi
1
Valore los siguientes ítems de 1 a 7 con relación al grado en que considere que su puesta en marcha
puede contribuir a aumentar la satisfacción del usuario con la biblioteca:
Totalmente de desacuerdo
Totalmente en acuerdo
Ampliación del horario de apertura
Mejora de la señalización y directorios
Puesta en marcha de un servicio de fotocopias
Posibilidad de reserva de puestos de lectura
1
2
3
4
5
6
7
o
o
o
o
o
o
o
o
o
o
D
D
D
D
D
D
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
o
D
D
D
D
o
o
o
o
El resultado de una pregunta formulada a partir de una escala tipo Likert es
una lista de los ítems con la puntuación de cada uno de los informantes. En este
caso, al igual que en las preguntas con respuesta jerarquizada, se calcula algún
indicador de tendencia central y de dispersión de las respuestas, reordenando la
lista según el resultado del indicador (tabla 18). Como en el caso anterior, los indicadores de dispersión (desviación típica y rango intercuartílico) son indicativos
del grado de acuerdo que presentan los participantes. La discrepancia que se puede
observar entre los valores de media y mediana es indicativo de valores dispares en
las valoraciones. En el caso de preguntas dicotómicas los resultados se darían en
porcentajes.
Tabla 18. Análisis de las preguntas formuladas a ocho participantes para la valoración
de unos ítems del estudio Delphi ordenadas según la media
Rl R2 R3 R4 R5 R6 R7 RS Mediana
Mejora de la señalización
y directorios
Puesta en marcha de un
servicio de fotocopias
Posibilidad de reserva
de puestos de lectura
Ampliación del horario
de apertura
IQR Media
Desviación
típica
4
5
6
5
6
7
6
5
5,5
5,5
0,93
4
5
6
5
6
7
5
6
5,5
5,5
0,93
7
7
6
5
4
6
5
5,5
2,50
5,13
1,96
6
6
7
6
7
5
6,00
4,75
4,88
6,13
e) Comparación: las preguntas se formulan a partir de la comparación de una serie de ítems emparejados en los que el experto debe seleccionar uno según un criterio
determinado (cuadro 29).
[218]
MÉTODOSY TÉCNICASPARALA INVESTIGACIÓNDEL COMPORTAMIENTOINFORMACIONAL
Cuadro 29. Pregunta por comparación en un cuestionario Delphi
Las actuales y futuras restricciones económicas de la biblioteca solo permiten desarrollar uno de los
siguientes programas estratégicos:
Alfabetización informacional
Extensión bibliotecaria
Formación del personal
Mejora de las instalaciones
Señale con una cruz el que considere prioritario entre cada uno de los siguientes pares:
a) Alfabetización informacional
b) Alfabetización informacional
c) Alfabetización informacional
d) Extensión bibliotecaria
e) Extensión bibliotecaria
f) Formación del personal
o
o
o
o
o
o
Extensión bibliotecaria
Formación del personal
Mejora de las instalaciones
Formación del personal
Mejora de las instalaciones
Mejora de las instalaciones
o
o
o
o
o
o
El análisis de esta respuesta se haría haciendo el recuento de las veces que cada
ítem comparado ha sido elegido y calculando el porcentaje de participantes que ha
priorizado cada uno de los elementos evaluados. Para los ocho participantes sería,
por ejemplo, el resultado que figura en la tabla 19. Los ítems entonces se presentan
ordenados según este criterio. Normalmente se dan porcentajes para evitar medidas
absolutas.
Tabla 19. Análisis de las preguntas formuladas para la comparación de unos ítems
en un estudio Delphi jerarquizadas según las veces en que han sido preferido a otros
Programa estratégico
Mejora de las instalaciones
Extensión bibliotecaria
Alfabetización informacional
Formación del personal
N.º de veces elegido
17
13
10
8
Porcentaje de veces elegido en primer lugar
70,83 %
54,17 %
41,67 %
33,33 %
d) Estimación: el experto hace una estimación desde su punto de vista a partir
de una pregunta previa. Como en los casos anteriores, las respuestas se analizan por
medio de las medidas de tendencia central y dispersión. Las medidas de tendencia
central informan sobre la tendencia general, mientras que los indicadores de dispersión indican el grado de acuerdo entre los participantes. La diferencia entre media y
mediana informa sobre la existencia de puntuaciones extremas, como por ejemplo las
respuestas de ocho participantes a la pregunta del cuadro 30.
8. LATÉCNICADELPHI
12191
Cuadro 30. Pregunta por estimación en un cuestionario Delphi
A la vista del desarrollo del mercado editorial actual, ¿cuántos libros electrónicos debería tener la colección de la biblioteca en enero del 2016 para atender la potencial demanda
Rt
R2
Número de libros electrónicos
Número de libros electrónicos
R3
R4
RS
R6
R7
RS
6
6
7
6
7
5
Mediana
IQR
6,00
4,75
Media
4,87
Desviación típica
2,47
8.4. VENTAJAS Y LIMITACIONES DE LA TÉCNICA DELPHI
Diversos autores analizan las ventajas y limitaciones del estudio Delphi. Como ventajas Fink, Kosecoff, Chassin y Brook (1984), Couper (1984) y Landeta (1999) destacan las siguientes:
~
Permite expresar puntos de vista impersonalmente sin la influencia del resto de
participantes en las diversas rondas del Delphi.
~ No tiene barreras geográficas, lo que permite recabar información de expertos
distantes geográficamente, cuestión que además permite reducir el coste del
estudio.
~ Es flexible en cuanto al número de rondas, puesto que se puede mantener el
equilibrio entre lo deseable según el grado de consenso alcanzado y lo viable
atendiendo a los recursos disponibles.
~ Más allá de la mayor o menor representatividad de los resultados, el Delphi
permite obtener desde el inicio del estudio gran riqueza de información.
Por el contrario, estos autores atribuyen las siguientes limitaciones al estudio Delphi:
~
~
~
Exige mucho esfuerzo y constancia de los participantes, que no se podrá conseguir si su grado de implicación con los objetivos del estudio es limitado.
Baja tasa de respuesta potencial debido a que durante las sucesivas rondas los
participantes van abandonando el estudio.
Supone un consumo de tiempo considerable no necesariamente dedicado a
tareas exclusivamente investigadoras sino a la contemplación de los tiempos
necesarios para recibir el mayor número de respuestas.
[220]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL
~
En la búsqueda del consenso es posible que llegue a moldear las opiniones de
los expertos.
~ El consenso aumenta con el incremento de las rondas y el número de participantes, pero los participantes se van cansando y dejan de participar.
~ No es la técnica adecuada cuando es deseable el contacto personal entre los
participantes.
8.5. EJEMPLOS DE INVESTIGACIONES
Ejemplo 1. Necesidades de información de los pacientes de atención primaria
Maderuelo-Fernández, Hernández-García, González-Hierro y Velázquez-San Francisco (2009) realizaron un estudio que tuvo como objetivo determinar las necesidades
de información de los usuarios-pacientes de atención primaria con relación a su propia salud y a los servicios ofrecidos en este ámbito asistencial. En este caso la visión
que se buscaba no era la del propio usuario-paciente sino la de los profesionales
sanitarios. Por lo tanto, se trata de un estudio en el que las necesidades de un grupo
de usuarios se investigan de forma indirecta, pues los expertos no son ellos sino los
profesionales que los atienden en un tipo determinado de servicio.
El grupo de expertos fue seleccionado entre el personal sanitario (médicos de
familia, pediatras y enfermeras de atención primaria) de la provincia de Salamanca
con dos condiciones: que llevaran desempeñando su actividad profesional en ese ámbito geográfico por un periodo superior a un año y que estuvieran motivados por el
trabajo y el desarrollo de la atención primaria. Por personas motivadas se entendía
aquellas que hubieran participado de forma activa en grupos de trabajo, comisiones,
actividades docentes, que asumieran alguna responsabilidad en el equipo de atención
primaria, etcétera. Se seleccionaron setenta profesionales, que aceptaron participar
en el estudio.
El estudio Delphi constó de tres rondas. En la primera se distribuyó por correo
un cuestionario con seis preguntas abiertas (cuadro 31) dando instrucciones de que
se contestaran ampliamente, evitando en lo posible monosílabos y frases estereotipadas.
Las respuestas a estas preguntas fueron analizadas de forma independiente
y posteriormente contrastadas por tres investigadores, profesionales también de
atención primaria. El resultado fue una lista de 140 sentencias que resumían la
información aportada por el grupo de expertos. A su vez, el análisis e interpretación realizado por tres expertos se consideró como una estrategia para asegurar la
validez del estudio.
8. LATÉCNICADELPHI
[221]
Cuadro 31. Cuestionario del estudio Delphi desarrollado por Maderuelo-Fernández
y otros (2009)
l. ¿Qué debería saber un ciudadano sobre aspectos relacionados con su salud?
2. ¿Qué debería conocer un ciudadano en relación a los servicios sanitarios que se prestan en su centro
de salud?
3. ¿Qué otros temas en relación con actuaciones de carácter administrativo, «papeleos», «gestiones» u
organización de los servicios sanitarios, pueden ser de utilidad a los ciudadanos?
4. En su opinión, ¿cuáles son los canales o medios de difusión que se deberían utilizar para dar información sobre temas sanitarios a la población? Indicar los medios más adecuados en función del
contenido que se pretenda difundir.
5. En su opinión, ¿cuál es la información, en relación con la salud y los servicios sanitarios de atención
primaria, que los ciudadanos esperan recibir?
6. ¿Cuáles cree usted que son los aspectos más deficientes en la comunicación e información a los
usuarios?
Las 140 sentencias, agrupadas por cada una de las seis preguntas que las generaron, constituyeron el cuestionario de la segunda ronda. En este se solicitaba a los
expertos que expresaran su grado de acuerdo con las sentencias según una escala de
O (desacuerdo) a 10 (acuerdo máximo). El análisis de las respuestas se hizo calculando la puntuación media obtenida por cada uno de los ítems con sus respectivos
intervalos de confianza a un nivel de confianza del 95 %, determinando a su vez el
porcentaje de desacuerdo de cada uno.
En la tercera ronda, el cuestionario estaba formado por las mismas 140 sentencias junto con la puntuación media obtenida por cada una y el porcentaje de
participantes que se habían mostrado en desacuerdo. Se pidió al grupo de expertos
que seleccionaran y priorizaran las cinco sentencias más relevantes de cada uno de
los seis epígrafes. Para el análisis, las sentencias priorizadas se puntuaron con una
escala Likert de cinco puntos, de 1 (menos importante) a 5 (más importante). Para
cada sentencia se calcularon la puntuación total y su puntuación media. Es importante destacar el riesgo de distorsión al proporcionar solo la media de la respuesta
del grupo. Tal como se ha expuesto en el presente capítulo y tal como se trata en
el capítulo 10, de análisis cuantitativo, la media es un indicador poco resistente y
fácilmente se ve influido por los valores extremos de la variable. Este aspecto es
importante tenerlo presente sobre todo cuando el número de participantes en el
Delphi es reducido.
Los resultados de la tercera ronda estaban compuestos por las ocho respuestas
con mayor puntuación en cada una de las preguntas analizadas, el número de veces
que fueron priorizadas y su puntuación media (tabla 20).
[222)
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL
Tabla 20. Resultados del estudio de Maderuelo-Fernández y otros (2009)
¿Qué debería saber un ciudadano sobre aspectos
relacionados con su salud?
Puntuación N.º de veces que Puntuación
total
ha sido priorizada
media
1. Información sobre su enfermedad: diagnóstico, evolu-
ción y pronóstico, prevención de complicaciones, facrores que mejoran o empeoran el proceso, autocuidados, seguimiento del tratamiento y criterios de alerta
para solicitar consulta médica.
2. Consejos sobre actividades preventivas y hábitos saludables: higiene, alimentación, ejercicio, prevención de
riesgos, tabaco, alcohol, educación para la salud.
3. Importancia de la responsabilidad del propio paciente
sobre su salud
4. Utilización adecuada de los servicios sanitarios: consultas, pruebas complementarias y urgencias.
5. Manejo de síntomas comunes o situaciones que no pre·
cisarían consultar a los profesionales sanitarios.
6. Criterios para solicitar asistencia sanitaria al centro de
salud, a urgencias y al servicio 112.
7. Información sobre derechos y deberes de los pacientes.
8. Información terapéutica: importancia del seguimiento
de las prescripciones terapéuticas, consejos y orienta·
ción sobre automedicación.
123
31
4,0
112
31
3,6
107
28
3,8
49
19
2,6
29
15
1,9
26
12
2,2
22
11
2,0
15
6
2,5
Respecto al porcentaje de respuesta, de los 70 expertos que inicialmente fueron
invitados a participar, 47 lo hicieron en la primera y segunda ronda (67,1 % de porcentaje de respuesta) y 44 en la tercera (62,8 % ), lo cual es una participación más
que aceptable.
Ejemplo 2. Necesidades de investigación para las bibliotecas suecas
El estudio de Maceviciute y Wilson (2009) tuvo como objetivo investigar las necesidades y prioridades de investigación de las bibliotecas suecas de distintos ámbitos
(bibliotecas públicas, académicas, infantiles, servicios de empresa, etcétera), con el fin
de desarrollar un programa de investigación con resultados útiles para estas.
En primer lugar, para la elaboración del cuestionario inicial, se construyó una
lista de potenciales líneas de investigación a partir de las revisiones de los temas
tratados en diversas listas de discusión especializadas de diversos países, así como
a través de la consulta directa a una lista de distribución utilizada por profesionales
suecos. Igualmente se revisó la literatura profesional en el ámbito de biblioteconomía
y documentación. Este proceso derivó en la construcción de una lista de preguntas
agrupadas en las siguientes áreas:
[223]
8. LATÉCNICADELPHI
Cuadro 32. Preguntas acerca de la prioridad de la investigación sobre usuarios en el estudio
de Maceviciute y Wilson (2009)
3. Usuarios
3.1. Implicación de los estudios de usuarios en el diseño de bibliotecas y servicios.
[Por ejemplo: las encuestas de usuarios de bibliotecas ¿qué es lo que realmente dicen? Necesidades
reales de los adultos de la biblioteca. Imagen de uso y de los usuarios de las bibliotecas universitarias
modernas. Servicios de biblioteca para los investigadores, el conocimiento de los servicios de biblioteca
por los investigadores. Estudios cualitativos de los usuarios que buscan en línea para la construcción
de mejores interfaces. Investigación sobre los usuarios para el diseño de una biblioteca. Los estudios
locales de usuarios, etcétera]
Prioridad muy baja 11121314151
6171819110
1Prioridad muy alta
3.2. Desarrollar la biblioteca como un espacio creativo.
[Por ejemplo: la biblioteca de una institución de educación o de ocio. La necesidad de salas de lectura y
espacios en las bibliotecas con colecciones digitales. Iniciativas innovadoras de la biblioteca. Actitudes
de los usuarios hacia la visualización de los elementos de la biblioteca. Roles de las pequeñas sucursales
de la biblioteca a distancia para los usuarios. Biblioteca como un lugar de encuentro, etcétera]
Prioridad muy baja 1 1 1213141516171819110
1Prioridad muy alta
l. Políticas bibliotecarias y legislación (9 preguntas).
2. Adquisición, organización, digitalización de recursos de información (7 preguntas).
3. Usuarios ( 10 preguntas).
4. Tecnología y herramientas para la gestión de recursos bibliotecarios (9 preguntas).
5. Gestión de bibliotecas 1: estrategia y cooperación. Gestión de bibliotecas 11:
gestión del trabajo bibliotecario ( 12 preguntas).
6. Aspectos profesionales (8 preguntas).
7. Desarrollo y prestación de servicios (9 preguntas).
Tras la obtención de esta lista, se procedió a la selección de los expertos que
iban a formar parte del estudio. Los criterios que guiaron esta selección fueron tener
experiencia activa y reconocimiento profesional. Inicialmente se seleccionaron 125
profesionales de bibliotecas de diverso tipo a los que se les invitó a participar. De
ellos, 97 aceptaron participar y en las dos rondas de las que constó el estudio, a la
primera contestaron 78 (86 % de porcentaje de respuesta) y a la segunda 64 (70 %
de porcentaje de respuesta).
El cuestionario de la primera ronda estuvo compuesto por la lista de pregunta
elaborada previamente, en la que los participantes debían valorar la prioridad como
[224)
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO
INFORMACIONAL
línea de investigación futura de cada ítem en una escala tipo Likert con puntuaciones
que oscilaban entre el 1 (muy baja prioridad) y el 10 (prioridad muy alta) (cuadro
32). Para cada ítem se proponía un ejemplo de posibles temas de investigación.
El análisis que se hizo de los resultados fue la puntuación media recibida por cada
ítem para el conjunto de respuestas y, de forma particular, para cada tipo de biblioteca. Según esta puntuación, se construyó el ranking de los temas de investigación, de
mayor a menor puntuación (tabla 21).
Tabla 21. Ranking de temas de investigación en la primera ronda del estudio de Maceviciute
y Wilson (2009). Cinco primeros y últimos ítems
Temas de investigación
5 primerosítcms
7.2: Bibliotecas en educación
1.4: Nuevas funciones de la biblioteca
3.7: Impacto de los programas
de la biblioteca en el aprendizaje
5 .12: Evaluación del trabajo
de la biblioteca
3.8: Directrices para los programas
de alfabetización informacional
5 últimos ítems
2.5: Proyectos de digitalización
en Suecia
1.1: Desarrollo histórico de las
bibliotecas
4.6: Implementación de redes
inalámbricas
6.1: Imagen pública de los
bibliotecarios
6.4: Papel de las asociaciones
profesionales
Todas Regional Pública Académica Escolar Especial
1
2
4
2
11
3
15
2
7
22
4
3
6
4
9
5
20
4
7
5
12
12
6
5
20
35
4
2
8
60
63
63
58
61
55
61
60
62
60
57
61
62
58
64
61
59
61
63
61
60
64
63
60
64
64
61
63
59
63
6
Para la segunda ronda, del ranking anterior, se seleccionaron aquellos ítems que
habían quedado en las 20 primeras posiciones para cada tipo de biblioteca, en total
42. El cuestionario presentaba estos ítems junto con la puntuación que habían recibido en la primera ronda. Además, se pedía a los expertos que valoraran la prioridad
como línea de investigación de cada ítem en el momento actual, así como en un periodo de cinco años. Al igual que en la ronda anterior, el análisis que se hizo fue la
puntuación media recibida en cada ítem, para el momento presente y para el futuro,
en ambos casos por tipo de biblioteca.
De nuevo, es importante remarcar el peligro de utilizar la media como único indicador de tendencia central por su baja resistencia a la presencia de valores extremos.
8. LA TÉCNICA DELPHI
[225)
En este caso seleccionar ítems a partir de la media podría ocasionar escoger o bien
descartar ítems en los que exista alguna respuesta extrema que provoque una distorsión en el valor de la media y que no represente a la respuesta del grupo. En estos
casos es mucho más aconsejable utilizar la mediana dado que no se ve afectada por la
presencia de valores extremos. Igualmente, en este caso, la aportación de una medida
de dispersión, como el rango intercuartílico, permitiría valorar la heterogeneidad u
homogeneidad de respuesta dentro del grupo, o lo que es lo mismo, el grado de acuerdo o desacuerdo entre los miembros.
En el caso del presente estudio, desde la primera ronda se alcanzó bastante consenso en cuanto a las líneas de investigación con prioridad baja, aunque el fin de las
sucesivas rondas no se hizo a partir de la valoración de este consenso. Para ello, en
una última fase, a partir de los resultados de la segunda ronda, se organizó un workshop en el que representantes de los distintos sectores bibliotecarios negociaban la
prioridad de las distintas líneas.
8.6. RESUMEN
La técnica Delphi se engloba en la denominación genérica de técnicas de consenso,
pues trata de conseguir niveles de acuerdo entre un conjunto de individuos sobre
cuestiones de interés para una investigación. Se trata de un procedimiento de estructuración del proceso de comunicación grupal que es efectivo a la hora de permitir a
un grupo de individuos, como un todo, tratar un problema complejo. Su nombre lo
toma por el oráculo de Delfos, puesto que su principal objetivo es la predicción de
acontecimientos futuros basándose en la opinión de expertos. En el ámbito del comportamiento informacional generalmente el usuario no está implicado en el proceso
de investigación, únicamente en las decisiones a las que da lugar dicho proceso.
Las principales características del Delphi son que se conserva el anonimato entre
los participantes, es un proceso iterativo que permite un feedback controlado y permite la respuesta estadística de grupo. El procedimiento de administración se basa en
la remisión de un primer cuestionario a un grupo de expertos para iniciar la discusión
de grupo. Una vez contestado este cuestionario, se analizan las respuestas y ello da
lugar a un segundo cuestionario con preguntas formuladas en base a las respuestas
del primero. Este proceso de elaboración-contestación del cuestionario se repite hasta
que se llega a un grado de consenso aceptable según los objetivos de la investigación.
Las preguntas de estos cuestionarios pueden ser preguntas abiertas pero también preguntas cerradas con varias opciones de respuesta clasificadas según estas requieran la
jerarquización, valoración, comparación o estimación de tal respuesta.
CAPÍTULO 9
ANÁLISIS DE LOS REGISTROS DE TRANSACCIONES
9.1. DEFINICIÓN Y ÁMBITOS DE APLICACIÓN
Peters, Kurth, Flaherty, Sandore y Kaske (199 3) definen el análisis de los registros de
transacciones (ART) en el ámbito de la información y documentación como el estudio
de las interacciones registradas de forma electrónica entre sistemas de recuperación
online y las personas que buscan en esos sistemas. El registro de transacciones es la
huella que deja un usuario en el sistema que consulta, en principio para monitorizar
el funcionamiento de dicho sistema, y que genera una serie de archivos con información que puede ser explotada desde el punto de vista de quien lo gestiona.
El análisis de las transacciones es una estrategia que se ha utilizado desde los
primeros estudios de usuarios. El número de préstamos, la cantidad de consultas
atendidas en un servicio de referencia o los artículos fotocopiados en una hemeroteca
son medidas que parten de los registros manuales de las transacciones entre usuario
y sistema y proporcionan los indicadores para evaluar una unidad de información.
Actualmente, el ART explota las transacciones registradas en sistemas de acceso a la
información automatizados, pero la filosofía que hay tras esta estrategia es la misma
que tuvo el análisis de los registros manuales anteriormente.
Aunque no existe un método o técnica a priori más o menos apropiada para
estudiar al usuario de los sistemas de información, el caso del ART es particular,
puesto que por sus características se centra únicamente en un aspecto concreto del
proceso de búsqueda de información: el uso de sistemas de información. Por lo
tanto, será una técnica de recogida de información útil para estudiar este aspecto
pero inadecuada si el objetivo es estudiar, por ejemplo, por qué un conjunto de
usuarios buscan información, si una vez encontrada la utilizan o no y para qué la
utilizan. Dicho de otra manera, el ART proporciona datos acerca de usuarios reales
que utilizan un sistema en concreto, por lo tanto sus resultados serán aplicables a
la evaluación de dicho sistema. Si el objetivo del estudio es más amplio y pretende
l228]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO
INFORMACIONAL
obtener resultados aplicables a la planificación de ese sistema, será necesario extender la población objeto de estudio a los usuarios potenciales y complementar
las observaciones obtenidas por medio del ART con otro tipo de estrategias que
nos permitan conocer otros aspectos del proceso de búsqueda de información del
conjunto de usuarios potenciales estudiados. Se trata de plantear una estrategia de
triangulación metodológica en la que los datos obtenidos se complementen o bien
se validen a través del uso de múltiples estrategias de obtención de información.
De esta manera, podríamos obtener información útil y válida también para la planificación de ese sistema de información. Un ejemplo de estudio que desarrolla la
triangulación de datos por medio del ART y entrevistas personales es el de B0ving y
Simonsen (2004) o los diversos estudios realizados en el seno del grupo de investigación CIBER (Centre for Information Behaviour and the Evaluation of Research)
del University College London (Williams y Gunter, 2006).
En un principio, los estudios que utilizaron el ART lo hicieron principalmente para
evaluar el funcionamiento de los sistemas de recuperación de información desde un
punto de vista técnico. Posteriormente, el ART se aplicó al estudio de los OPAC (online
public access catalog) con el fin de conocer cómo eran utilizados por sus usuarios.
Más tarde, se amplían los sistemas estudiados e interesó también la recuperación de
información en bases de datos locales o en soporte CD-ROM (Peters, 1993). Con la
extensión del uso de la tecnología web y su generalización como medio de acceder a
los sistemas de recuperación de información, podemos afirmar que actualmente los
estudios que utilizan el ART se basan en el análisis bien de los archivos de registro
(/ogs) generados en los servidores como resultado de su funcionamiento o bien en un
software específico de análisis de la Web como puede ser Google Analytics. De esta
manera, la definición de ART se amplía y se considera que comprende una serie de
métodos para el macro y microanálisis de los registros de transacciones o registros
electrónicos de interacciones que ocurren entre un sistema y el usuario del sistema.
Entre otros, el ART incluye el análisis de registros web, el análisis de los logs de buscadores e incluso el análisis de blogs (Taksa, Spink y Jansen, 2009).
La literatura sobre ART es extensa y variada en cuanto a la disciplina en la que
se enmarca. En el ámbito del comportamiento informacional, igualmente el uso que se
ha hecho de esta técnica es amplio, tan amplio como los sistemas de recuperación de
información disponibles. A modo de ejemplo, la siguiente lista ilustra algunas de las
aplicaciones más recientes de esta técnica; en los siguientes epígrafes se hará mayor
hincapié en el modo en que aplicaron la metodología:
<1111
Estudio del uso que hacen los usuarios del catálogo de una biblioteca (VillenRueda, Senso y Moya-Anegón, 2007; Waller, 2010) o de un repositorio institucional (Asunka, Chae y Natriello, 2011 ).
9. ANÁLISISDE LOS REGISTROSDE TRANSACCIONES
(229)
~
El uso de revistas electrónicas en un entorno académico (Nicholas, Williams,
Rowlands y Jamali, 2010).
~ Comportamiento del usuario en la búsqueda en una biblioteca electrónica
(Shiri, 2010).
~ Patrones de uso de la sede web de una universidad (Wang, Berry y Yang, 2003)
y de una biblioteca (Ghaphery, 2005; Black, 2009).
~ El modo en que se busca información en buscadores web públicos (Jansen,
Spink y Saracevic, 2000; Jansen y Spink, 2006) o en los buscadores de una
intranet (Stenmark y Jadaan, 2007).
~ Uso que los miembros de una organización hacen de una aplicación de trabajo
colaborativo para crear modelos de gestión del ciclo de vida de los documentos
administrativos (B0ving y Simonsen, 2004).
9.2. PROCEDIMIENTO
Para Jansen (2006), el análisis de los registros de transacciones comprende tres fases:
la recogida de información, la limpieza y preparación del fichero que contiene las
transacciones para su análisis y, por último, el análisis de la información.
a) Recogida de información
En primer lugar, respecto a la recogida de información, por definición, el ART parte de
la información registrada como consecuencia del acceso de un usuario a un sistema.
Ahora bien, el modo en que esa información se registra puede variar. Originalmente,
se almacena en un archivo o log generado con el fin de permitir su monitorización o
seguimiento. La información contenida en ese fichero varía en cuanto a cantidad y
tipo de información que proporciona.
Jansen (2009b) describe la existencia de varios tipos de logs o archivos de registro, de los que destaca cuatro. La tabla 22 muestra ejemplos de cada uno de ellos,
así como la información que contienen. No obstante, de forma sistemática, la información básica a la que vamos a poder acceder a través de estos ficheros fuente es la
que figura en la tabla 23. Estos datos serán el punto de partida para establecer posteriormente las distintas medidas e indicadores que nos permitirán realizar el análisis
y ponerlos en contexto.
Además, para otro tipo de sistemas más específicos, como los buscadores web, es
posible obtener información adicional como por ejemplo la página de resultados (un
código que representa un conjunto de resúmenes de resultados y las direcciones URL
que devuelve el motor de búsqueda en respuesta a una pregunta), el idioma (el idioma
[230]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL
Tabla 22. Formatos de archivos de registro (IBM, 2003)
NCSA
Common
Log
Formato
Ejemplo
Descripción
NCSA
Combined
Log
NCSA
Separate
Log
Formato
Ejemplo
Descripción
Formato/ejemplo
Descripción
W3C
Extended
Log
Formato/ejemplo
Descripción
hose rfc931 username date:time request statuscode bytes
147.156.224.93 - agonzal [18/0ct/2011:20:30:05 +0500] «GET/index.
html HTTP/1.0» 200 1043
Contiene información básica de acceso http, el recurso solicitado y otro
tipo de información.
host rfc931 username date:time request statuscode bytes referrer
user agent cookie
125.125.125.125 - dsmith [10/0ct/1999:21:15:05 +0500] «GET
/index.html HTTP/1.0,, 200 1043 «http://www.ibm.com/»
«Mozilla/4.05 [en] (WinNT; I)» «USERID:CustomerA;IMPID=01234»
Extensión del NCSA Common Log con tres campos adicionales
Common Log
host rfc931 username date:time request statuscode bytes
147.156.224.93 - agonzal [18/0ct/2011:20:30:05 +0500] «GET/index.
hcml HTTP/1.0» 200 1043
Referral log
date:time referrer
[1O/Oct/1999:21:15:05 +0500] «http://www.ibm.com/index.html»
Agent Log:
date:time agent
[10/0ct/2009:21:15:05 +0500] «Microsoft Internet Explorer-7.0»
Formato en el que la información se almacena en tres ficheros que
contienen: la información del NCSA Common log format, información
sobre el la url de inicio y sobre el navegador
#Software: Microsoft Internet Information Server 4.0
#Version: 1.0
#Date: 1998-11-19 22:48:39 #Fields: date time c-ip cs-username
s-ip cs-method cs-uri-stem cs-uri-query se-status se-bytes es-bytes
time-caken cs-version cs(User-Agent) cs(Cookie) cs(Referrer) 199811-19 22:48:39 206.175.82.5-208.201.133.173 GET/global/images/
navlineboards.gif - 200 540 324 157 HTTP/1.0 Mozilla/4.0+(compaci
ble;+MS1E+4.01;+Windows+95) USERID=CustomerA;+IMPID:01234
hnp://yourturn.rollingstone.corn/webx?98@@webx 1.html
Formato utilizado por Microsoft Internet Information Server
preferido del usuario de las páginas web recuperadas), la fuente (la colección de contenido federado buscado) y las páginas vistas (la dirección URL que el usuario visitó
después de introducir la consulta y visualizar la página de resultados). Un ejemplo de
la información contenida en el /og de un buscador aparece en la tabla 24.
Junto con el análisis de los datos en bruto de los ficheros de registro, para la observación y análisis de las transacciones entre el usuario y el sistema, es posible acceder
a los datos generados a través de otra estrategia como es el page tagging o etiquetado
de páginas. Consiste en insertar un código o script en la página o páginas de las que
se quiere hacer seguimiento para contabilizar las entradas y enviar información sobre
la página y el usuario a un servidor remoto. Una de las herramientas de page tagging
más populares actualmente es Google Analytics.
12311
9. ANÁLISISDE LOS REGISTROSDE TRANSACCIONES
Tabla 23. Datos en los archivos de registro (IBM, 2003)
Campo
Agent 131
Bytes (1, 2, 3)
Cookie 141
Date 141
date:time timezone
(1,2, 3,4)
End-Date 141
Fields 141
Host (1, 2, 3)
Referrer <2.3 ,
Descripción
Navegador utilizado por el usuario.
Número de bytes de datos transferidos.
Cookie que el servidor envía al cliente.
Fecha y hora en que se añadió la entrada.
Fecha, hora y zona horaria.
Fecha y hora de fin del registro.
Lista de información registrada en cada entrada.
La dirección IP o el host / subdominio del cliente HITP que ha solicitado el recurso.
La URL que enlaza con el sitio.
Solicitud http: recurso solicitado (index.html), método HTIP (GET) y la versión
Request (1, 2, 3)
del protocolo HTIP (1.0).
rfc931 (1, 2, 3)
Identificador del cliente que realiza la solicitud HITP. Si no hay ningún valor, un «- «.
Software 141
Software que genera el log.
Fecha y hora de inicio del registro.
Start-Date 141
Statuscode (1, 2, 3) Código numérico que indica el éxito o fallo de la solicitud http.
Navegador utilizado por el usuario.
User agent 141
Username (1, 2, 3)
Nombre de usuario para la autenticación. Si no hay ningún valor, un«-».
Versión del archivo de registro extendido.
Version 141
l -NCSA Common Log; 2- NCSA Combined Log; 3- NCSA Separate Log; 4. W3C Extended Log.
Tabla 24. Archivo de registro del buscador Alta vista (información facilitada por B. J. Jansen)
Número
de pregunta
Identificación
de usuario
406
bbwiwcdcwq
407
bbwiwcdcwq
408
bbwiwcdcwq
409
bbwiwcdcwq
410
bbwiwcdcwq
411
bbwiwcdcwq
412
bbwiwcdcwq
413
bbwiwcdcwq
414
bbwiwcdcwq
Estrategia
Fecha
Hora
contemplates OR weiss OR bran OR vice OR
airfields
contemporary OR flushed OR congressional
OR throttled OR bobby
correlated OR safeguards OR associative OR
assyria OR preconception
cuddle OR pronouns OR manipulating OR
repeats OR ribbed
debugs OR revises OR replaced OR understood
OR beneficence
dentist OR jealous OR contingents OR overture
OR upholsterer
disappeared OR allotropic OR inscrutable OR
knott OR lodging
dope OR reich OR stewardess OR dynamics
OR castor
dorado OR cupped OR simplified OR
entrepreneurs OR chaperon
2002-09-09
05:39:04
2002-09-08
23:44:39
2002-09-08
23:50:12
2002-09-08
20:30:06
2002-09-08
20:24:02
2002-09-08
20:22:42
2002-09-08
23:43:55
2002-09-08
20:31:19
2002-09-08
23:47:31
[232)
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL
Aunque el análisis directo de los logs tiene la ventaja de que no requiere la implementación de ningún software adicional puesto que el servidor almacena la información de forma automática a tiempo real, el uso del page tagging permite la obtención
de la información analizada inmediatamente. Además, este sistema permite acceder a
la información sobre las sesiones web en aquellos casos en los que no es posible acceder directamente a los servidores. La información a la que es posible acceder a través
de este medio varía según el sistema empleado. La Web Analytics Association (wAA)
establece 23 métricas o medidas básicas para analizar el tráfico en una sede web
(tabla 25). Cada uno de los proveedores de sistemas de page tagging pueden ofrecer
estas medidas en mayor o menor medida. Por ejemplo, según Cutroni (2010) de las
medidas proporcionadas por Google Analytics, 19 son compatibles con las de WAA.
Tabla 25. Métricas web de la Web Analytics Association (Web Analytics Definitions, 2008)
Término WAA
Término WAA en español
Descripción
TÉRMINOS GENERALES
Page
Page View
Visits
(Sessions)
Unique
Visitors
Página
Página vista
Visitas (sesiones)
Event
Evento
Visitantes únicos
Unidad de contenido definable.
Número de veces que una página se ha visitado.
Interacción de un individuo con un sitio web consistente en
una o más solicitudes de una página.
Número de usuarios individuales que visitan un sitio web en
un tiempo determinado, independientemente del número de
veces que accedan a ese sitio.
Cualquier acción registrada que tiene asignada una fecha y
hora por el browser o por el servidor.
VISITAS
Entry Page
Landing Page
Exir Page
Página de entrada
Página de entrada o de
aterrizaje
Página de salida
Visit Duration
Referrer
Duración de la visita
Referente
Page Referrer
Session
Referrer
Visitor
Referrer
Click-through
Click-through
Rate/Ratio
Páginas de referencia
Referente de sesión
Referente del visitante
Click-through
Tasa de Click-through
Primera página de una visita.
Página destinada a identificar el principio de una experiencia
de usuario resultante de una campaña de marketing.
La última página a la que se ha accedido durante una visita y
marca el fin de una visita o sesión.
Tiempo que dura una sesión
Término genérico que describe la fuente de tráfico a una página o visita.
Fuente de tráfico a una página.
Primera página de referencia en una visita.
La primera página de referencia en una primera sesión del
visitante.
Número de veces que un usuario hace click sobre un enlace.
Número de clics de un enlace específico, dividido por el número de veces que el enlace fue visto.
(2331
9. ANÁLISISDE LOS REGISTROSDE TRANSACCIONES
Término WAA
Término WAA en español
Descripción
VISITANTES
New Visitor
Visitante nuevo
Return(ing)
Visitor
Visitante recurrente
Repeat Visitor Visitante repetido
Visits per
Visitor
Visitas por visitante
Recency
Recencia
Frequency
Frecuencia
Número de visitantes únicos con actividad incluyendo la primera visita a un sitio durante un periodo de referencia.
Número de visitantes únicos con una visita a un sitio, durante
el periodo estudiado, y donde el visitante único también visitó
el sitio antes del periodo de estudio.
Número de visitantes únicos con actividad en los que se registran dos o más visitas a un sitio durante un periodo de estudio.
Número de visitas en el periodo de estudio dividido por el
número de visitantes únicos durante el mismo periodo.
Tiempo desde que un visitante único realiza una acción específica de interés para el analista
Número de veces que una acción fue realizada por un visitante único en un periodo de tiempo
ENGAGEMENT
Page Exit
Ratio
Single
Page Visits
(Bounces)
Bounce Rate
Page Views
per Visit
Tasa de salidas de
página
Visita de una sola
página (Rebote)
Número de salidas de una página dividido por el número total de páginas vistas de esa página.
Visita que consiste en la visualización de una página.
Porcentaje de
abandonos-rebote
Páginas vistas por visita
Visitas de una sola página dividida por las páginas de entráda
Número de páginas vistas en un periodo de referencia dividido por el número de visitas en el mismo periodo.
CONVERSION
Conversion
Conversion
Rate
Conversión
Tasa de conversión
Número de veces que se ha logrado el resultado deseado
Proporción de conversiones sobre un denominador relevante.
OTROS TÉRMINOS
Hit
Impressions
Hit
Impresión
Petición recibida por un servidor
Número de veces que una porción de contenido fue cargada
en el browser del usuario.
Tanto a través del archivo de registro como a través del page tagging,la información
se recoge en la parte del servidor. No obstante, existe otra posibilidad y es registrar esa
información en la parte del cliente a través de un software específico. Esta estrategia es
la que siguieron Choo, Detlor y Turnbull (2000) para investigar el modo en que utilizaban la web los trabajadores del conocimiento en las organizaciones para obtener información sobre el entorno de esa organización. Para ello, estos investigadores desarrollaron un software específico (WebTracker) para estudiar y reconstruir los movimientos
del usuario cuando utiliza un navegador web sin interferir en la búsqueda que realizaba
dicho usuario. La información que se recogió fue la siguiente: identificación de usuario,
1234)
MÉTODOS Y TÉCNICASPARALA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL
acción en el navegador, hora y fecha, URL y título de la página. En cuanto a las acciones
realizadas por el usuario en el navegador, la tabla 26 muestra algunas de ellas.
Tabla 26. Acciones en el navegador registradas por Web Tracker
(adaptado de Choo, Detlor y Turnbull, 2000)
Objeto
Botón
Botón
Botón
Tecla
Tecla
Tecla
Menú
Menú
Menú
Acción
Atrás
Adelante
Actualizar
Editar Favoritos
Copiar
Añadir a Favoritos
Nuevo archivo
Abrir archivo
Salvar como
Actividad del usuario
Botón Página anterior de la barra del navegador
Botón Página siguiente de la barra del navegador
Botón Actualizar página de la barra del navegador
CTRL + B para abrir el archivo de favoritos
CTRL + C para copiar el texto seleccionado en el portapapeles
CTRL + D para añadir la url actual al fichero de Favoritos
Archivo - Nuevo para abrir otra ventana del navegador
Archivo - Abrir página para acceder a una página de un archivo local
Archivo - Salvar como para guardar página en local
b) Limpieza y preparaciónde los datos
Una vez obtenidos los datos de las transacciones entre usuario y sistema, el siguiente
paso es la preparación de estos datos para su posterior análisis. Esto incluye tanto
la depuración como su estructuración para que sea posible su tratamiento final. Esta
fase se refiere de forma específica al caso en que los datos se hayan obtenido directamente del archivo de transacciones en bruto. Si se obtienen a través del sistema page
taggingo por medio de un software instalado en el cliente, dependerá del proveedor y
de las posibilidades que ofrezca para configurar los informes que reflejen los accesos
al sistema.
Esta fase del ART permanece bastante oculta cuando se documentan las investigaciones que utilizan esta técnica. En general, la limpieza de los datos brutos obtenidos
del registro de transacciones es necesaria por la posibilidad de que existan datos corruptos, innecesarios para la investigación (por ejemplo, la descarga de imágenes de
una página) o no uniformes que dificulten su estructuración posterior.
Tras la limpieza y depuración de los datos, será necesario contemplar su estructuración para el posterior análisis. Para ello, o bien se hace uso de un software específico que procese los archivos del registro o bien se construye uno a medida. El primer
caso es la estrategia que sigue Ortega Priego (2005) para el análisis de sesiones de la
web del Cindoc, en el que procesa y analiza los datos con 3dv8 Enterprise, software
específico de minería de datos. Por el contrario, Spink y Jansen (2004) desarrollaron
todo un sistema de base de datos relacional por medio de Microsoft Acces para analizar los logs de los buscadores Altavista, Excite y Altheweb.com.
9. ANÁLISISDE LOS REGISTROSDE TRANSACCIONES
(2351
c) Análisis de la información
La última parte del análisis de transacciones es el análisis de la información. Como
en el caso anterior, el análisis dependerá del sistema que esté siendo investigado, de
los objetivos del estudio y de la estrategia elegida para recoger la información. Por
ejemplo, en el estudio del uso de 26 libros electrónicos en la plataforma MyiLibrary
por parte de las universidades británicas, se analizaron los siguientes aspectos (Salazar, Nicholas y Rowland, 2009; JISC Collections, 2010):
1. Uso, en términos de páginas visualizadas, número de sesiones y tiempo de permanencia en línea, por día, mes, día de la semana y hora del día.
2. Comportamiento en la búsqueda (datos de cada sesión):
a. Número de visualizaciones en una sesión
b. Tipo de contenido visualizado
c. Uso del buscador interno
d. Método de acceso o link de referencia
e. Localización del uso (on/off campus)
f. Títulos visualizados
g. Materias visualizadas.
Por el contrario, en la serie de estudios desarrollados por Spink y Jansen (2004)
los sistemas analizados fueron los buscadores Altavista, Excite y Altheweb.com. En
este caso, por lo tanto, la información de partida fue la contenida en archivos similares a los que se presentan en la tabla 24. El análisis se hizo en diversos niveles. En
primer lugar a nivel de término de búsqueda. En segundo lugar a nivel de consulta,
entendida como un conjunto de términos introducidos en un buscador. De esta consulta se analizaron el número de términos utilizados, su complejidad en cuanto a la
sintaxis y la tasa de fallos. En tercer lugar el análisis se hizo a nivel de la sesión, es
decir, la secuencia entera de consultas para un único visitante identificado por una IP
(dirección de un dispositivo en una red). En cuarto lugar, análisis a nivel de páginas
de resultados vistas y por último a nivel de click-through o análisis de clicks de un
usuario en una página de resultados.
Estos dos ejemplos muestran dos estudios utilizando la misma metodología en
sistemas y contextos diferentes. Si al principio de este epígrafe se describían los datos
o medidas básicas que podíamos obtener por sistemas distintos (archivos de registros
y page tagging), a la hora del análisis de esta información será necesario poner esos
datos en contexto, es decir, construir indicadores que nos den el criterio para evaluar
el uso real del sistema estudiado. Pero esta evaluación deberá hacerse conforme al
cumplimento o no de unos objetivos previos que serán distintos según el contexto u
[236]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL
organización en la que funciona la herramienta evaluada. En el ámbito de la analítica
web varios autores se refieren a esta tarea como la extracción de indicadores clave de
rendimiento (KPI-[key performance indicators]). Jansen (2009a) define los KPI como
aquellos que proporcionan un panorama detallado del comportamiento del visitante
en un sitio y permiten a las organizaciones alinear los objetivos de sus sitios web
con sus objetivos de negocio con el fin de identificar áreas de mejora, la promoción
de partes populares del sitio, probar la funcionalidad de un sitio nuevo y en última
instancia incrementar los ingresos. Este mismo autor explica los posibles KPI según el
tipo de web. Así, por ejemplo, los sitios web dedicados a la difusión de contenidos o
medios de comunicación se nutren principalmente de publicidad y la principal meta
es incrementar los ingresos con más visitas y que estas visitas vuelvan. Para ello, los
contenidos deberán ser atractivos. Los principales indicadores clave de rendimiento
en este caso podrían ser los siguientes:
• Profundidad de visita: es la relación entre las páginas vistas y los visitantes
únicos, o el número de páginas a las que un visitante accede en cada visita.
• Visitantes que regresan: es la proporción de visitantes únicos respecto al total
de visitas y determinan el grado de fidelización de los clientes.
• Visitantes nuevos: cálculo del número de visitantes nuevos frente a visitantes
únicos para determinar si el sitio atrae a nuevos clientes y determinar nuevas
estrategias de marketing para atraer a un grupo de población concreto.
• Profundidad de visualización de página: relación entre las visualizaciones de
una página y el número de visitantes únicos de la página.
En el ámbito de las bibliotecas, Serrano-Cobos y Casado-Sánchez (2011) describen posibles KPI para el caso y los objetivos de los portales bibliotecarios. Según estos
autores, los objetivos del portal bibliotecario podrían ser atraer usuarios, fidelizarlos,
potenciar el uso de los servicios presenciales y no presenciales. Como indicadores
clave de rendimiento proponen, por ejemplo, la tasa de correspondencia entre las
palabras clave usadas en la búsqueda y los descriptores de un lenguaje controlado. O
el número de usuarios que visitan el portal bibliotecario y hacen una reserva de un
ítem online o se registran en un boletín de novedades.
9.3. VENTAJASY LIMITACIONESDEL ANÁLISISDE TRANSACCIONES
Numerosos autores analizan las ventajas e inconvenientes del ART. Como ventajas
Spink y Jansen (2004), Sheble y Wildemuth (2009),Jansen (2009a) y Ferrini y Mohor
(2009) destacan las siguientes:
9. ANÁLISISDE LOS REGISTROSDE TRANSACCIONES
[237)
~
Se pueden recoger datos de forma bastante barata utilizando pocos recursos.
Los costes son básicamente los programas informáticos y de almacenamiento.
~ La recogida de datos no es obtrusiva y los registros representan el comportamiento real del usuario que busca información. La calidad de los eventos
registrados no depende de la memoria del informante ni de su habilidad para
describir el modo en que buscó dicha información.
~ Es el único método para la obtención de gran cantidad de datos de múltiples
usuarios en el entorno complejo de la Web. Permite realizar estudios a gran
escala y por lo tanto sus resultados pueden ser más representativos de poblaciones más grandes que otros métodos.
~ En el caso del análisis de transacciones a partir de software instalado en el
cliente, es posible registrar acciones del usuario en cualquier aplicación que
corra en ese cliente, no solo lo que hace ese usuario en un navegador cuando
conecta a un sistema.
Algunas de las limitaciones que también apuntan estos autores son las siguientes:
~
El ART registra acciones del usuario en interacción con un sistema, pero no
permite observar otros aspectos del proceso de búsqueda como son las necesidades de información del usuario, las habilidades cuando busca información
o la satisfacción con los resultados de la búsqueda. Tampoco permite observar
los aspectos cognitivos o emocionales de ese proceso de búsqueda.
~ Generalmente la identificación real de las personas no se registra, solo la del
equipo que utiliza para acceder al sistema. No ocurre así en sistemas que requieren la autentificación y asignan al usuario unos privilegios de acceso determinado.
~ El registro de la duración de una visita puede ser impreciso. Esta medida normalmente se calcula en función del tiempo transcurrido entre la solicitud de
la primera y de la última página. Si la solicitud de la página siguiente no se
produce, la duración no se puede calcular y será subestimada o sobrestimada.
Tampoco es posible saber cuándo un usuario visita una página, deja el equipo
durante un tiempo, vuelve y hace clic a la página siguiente.
~ El recuento de visitas únicas puede ser también impreciso. Normalmente se
hace a partir de una IP, pero esto no siempre corresponde con un único usuario, puesto que es posible que un conjunto de usuarios entren en el sistema a
través de un proxy o un firewall que unifique esa identificación.
[2381
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL
9.4. EJEMPLOS DE INVESTIGACIONES
Ejemplo 1. Estudio del uso de un repositorio institucional
El trabajo de Asunka, Chae y Natriello (2011) presenta la aplicación de la técnica
del ART para el estudio del uso de un repositorio institucional, en concreto el repositorio PocketKnowledge (<http://pocketknowledge.tc.columbia.edu>) del Teachers
College de Columbia University. Se trata de una plataforma desarrollada por la
propia institución en la que, además del depósito de documentos, se ofrece la posibilidad de crear grupos, etiquetar contenido, comentarios y suscribirse a RSS, en la
línea de la Web 2.0.
Los objetivos de la investigación fueron: determinar el tipo y la cantidad de usuarios que se autentificaban en el repositorio cada semestre escolar, el tipo de contenido
que se archivaba así como el grado de crecimiento de este contenido y, por último,
hasta qué punto los usuarios aprovechaban el potencial del repositorio como plataforma de aprendizaje colaborativo o de interacción social. Para lograr estos objetivos
se realizó un análisis de los registros de transacciones de tres años de funcionamiento
del repositorio. El modo de recoger la información fue a partir de una herramienta
que preparaba las transacciones para su análisis posterior, disponiendo los datos ya
depurados en formato estructurado, en concreto en formato Microsoft Excel. La información que se recogió fueron los registros de datos de cada usuario (nombre, categoría y afiliación) y las comunidades creadas por estos usuarios, así como el número
de ítems que cada usuario depositó y descargó. Igualmente, estaban registrados datos
generales sobre el usuario, así como de acciones desarrolladas en el sistema como son
el número de búsquedas realizadas, el número de páginas vistas y el número de veces
que se habían descargado archivos.
El análisis que se hizo de la información fue descriptivo, con la expresión de frecuencias de registro de usuarios, crecimiento del contenido y características generales
de este contenido. Algunos de los resultados obtenidos a través de los registros de
transacciones contribuyeron a reafirmar la tendencia general en cuanto a la gestión y
mantenimiento de los repositorios institucionales.
El estudio de Asunka, Chae y Natriello (2011) es un estudio fundamentalmente
descriptivo sobre las transacciones entre los usuarios y el repositorio para un periodo
de tiempo determinado. La utilidad que tiene desde el punto de vista de la gestión de
ese repositorio será principalmente la evaluación de su uso por parte de los usuarios
reales de esta herramienta tal y como se ha descrito al principio de este capítulo.
9. ANÁLISISDE LOS REGISTROSDE TRANSACCIONES
[2391
Ejemplo 2. Uso e impacto de las revistas electrónicas en Reino Unido
El proyecto Evaluating the usage and impact of e-journals in the UK, desarrollado por
el Ciber (Centre for Information Behaviour and the Evaluation of Research) (CIBER,
2011 ), tuvo como objetivo evaluar el uso de las revistas electrónicas por parte de la
comunidad investigadora en Reino Unido, así como el impacto o beneficio del uso de
este recurso en los resultados de investigación.
Para ello, el proyecto se desarrolló en dos fases en las que se desarrollaron estrategias metodológicas complementarias. En la primera, los objetivos perseguidos fueron
los siguientes (CIBER, 2009a):
.,...Investigar el comportamiento de los investigadores, en términos de niveles y
patrones de uso, contenido visualizado, las preferencias de navegación y las
rutas utilizadas para acceder al contenido de revistas electrónicas .
.,...Determinar cómo varía el comportamiento de los investigadores según materia
y disciplina, y con relación al centro de investigación en el que trabajan .
.,...Recoger y analizar las pruebas de las relaciones entre las conductas de los investigadores y uso, y los gastos institucionales en revistas electrónicas .
.,...Recoger y analizar cualquier evidencia sobre las relaciones entre la conducta
de los investigadores, por un lado, y la productividad de la investigación, productos y resultados, por otro, incluyendo medidas tales como el número de publicaciones, citas recibidas y los resultados de evaluaciones de la investigación.
Para lograr estos objetivos se analizó la información sobre las transacciones entre
usuario y sistema de dos plataformas proveedoras de acceso a revistas electrónicas
en diversas instituciones de investigación de Reino Unido, en concreto ScienceDirect
y Oxford Journals. La información que se analizó fue la siguiente (CIBER, 2009b):
1. Uso o niveles de actividad
a) Páginas vistas, texto completo visualizado (PDF, HTML), sesiones realizadas
y el tiempo en línea.
b) Patrones de uso (uso durante el día, semana, meses).
2. Búsqueda de información (datos de sesión)
a) Métodos de acceso y preferencias de navegación.
• Gateways y enlaces de referencia, Google, Google Scholar, PubMed.
• Uso del menú, búsqueda avanzada/básica, descarga y vinculación de citas.
b) Contenidos visualizados
• Páginas y artículos vistos en una sesión, número de revistas diferentes
vistas en una sesión.
MÉTODOS Y TÉCNICASPARALA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL
[2401
• Antigüedad de los artículos usados y uso de artículos en prensa.
• Factor de impacto de las revistas visualizadas.
2. Títulos de revistas utilizados
• Nombre, número, rango, solapamiento y la concentración de uso.
Como resultado de este análisis, se obtuvo gran cantidad de información sobre un
extenso volumen de usuarios, sin duda unos resultados únicos nunca obtenidos por
estudios precedentes. Sin embargo, se trataba de datos cuantitativos acerca de acciones
concretas de estos usuarios en un sistema. Se obtuvo un panorama amplio de los patrones de búsqueda de revistas de los investigadores pero no de las motivaciones ni de las
consecuencias de esa búsqueda. Por ello, se decidió que en una segunda fase debía indagarse sobre estos resultados y validarlos a través de estrategias de obtención de datos
alternativas que permitieran aumentar su credibilidad y validez. Así, en una segunda
fase se formularon una serie de objetivos derivados de los patrones de búsqueda observadas en la primera. A través de encuestas, entrevistas y observaciones de búsquedas
online en investigadores y estudiantes de pre y posgrado, se obtuvieron los resultados
que se resumen en el cuadro 33 con relación al primer objetivo de esa fase dos.
Cuadro 33. Objetivos y resultados más relevantes de la segunda fase del estudio Evaluating
the usage and impact of e-journals in the UK (CIBER, 2011)
Objetivo 1. Conocer más profundamente los patrones de búsqueda observados en la fase I y en concreto responder a las siguientes preguntas:
¿Por qué los usuarios pasan muy poco tiempo en cada visita?
Los usuarios llegan a la plataforma de revistas desde un gateway y se mueven rápidamente a través de
enlaces directos al contenido para acceder a los artículos que buscan.
¿Por qué los usuarios usan gateways como Google, Google Scholar, Web of Knowledge y PubMed?
•
Cubren un gran número de títulos de revistas y artículos, además de incluir conferencias, informes técnicos y tesis doctorales. A pesar de que Google Scholar no indexa toda la literatura de
revistas, no es el escaparate de la plataforma de un editor.
•
Facilitan el encuentro casual, tanto por la variedad de la literatura que permiten recuperar
como por los enlaces que ofrecen.
• Tienen un uso intuitivo.
Por todas estas razones, los grandes gateways son poderosos e influyentes. Son actores clave en la cadena de información académica y su papel merece mayor investigación para comprender la conducta
que observamos en los sitios de los editores.
En resumen, las dos fases de este estudio ofrece resultados distintos. En la primera
el análisis de los registros de transacciones permite conocer el modo en que dos plataformas de acceso a revistas electrónicas se utilizan por parte de la comunidad uni-
9. ANÁLISISDE LOS REGISTROSDE TRAi'-iSACCIONES
[2411
versitaria. Se trata de información cuantitativa y descriptiva de las acciones que estos
usuarios desarrollan cuando buscan información. La segunda fase del estudio ofrece
información más cualitativa sobre los motivos que determinan el modo en que esos
sistemas se utilizan, a la cual se ha llegado a través de estrategias de obtención de datos complementarias. De esta manera, la principal limitación del ART desde el punto
de vista del estudio del comportamiento informacional, el ofrecer una visión parcial
del proceso de búsqueda, es suplida con técnicas de indagación directa acerca de las
razones que el usuario tiene para desarrollar los hábitos de búsqueda observados en
la primera fase del estudio. A través del ART podemos conocer lo que ocurre y a través
de los estudios de encuesta o entrevistas por qué ocurre, lo que nos da argumentos
válidos para planificar nuevos sistemas de información o mejorar los ya existentes.
9.5. RESUMEN
El análisis de los registros de transacciones (ART) en el ámbito de la información y
documentación es el estudio de las interacciones registradas de forma electrónica
entre sistemas de recuperación online y las personas que buscan en esos sistemas. El
registro de transacciones es la huella que deja un usuario en el sistema que consulta,
en principio para monitorizar el funcionamiento de dicho sistema, y que genera una
serie de archivos con información que puede ser explotada desde el punto de vista de
quien lo gestiona.
Las transacciones entre usuario y sistema han sido fuente de datos sobre el funcionamiento de las distintas unidades de información mucho antes de que el ordenador
entrara en tales unidades. Con los primeros catálogos automatizados empiezan a
generarse los primeros registros de transacciones como fuente de datos para la toma
de decisiones desde el punto de vista de la gestión de las bibliotecas. Actualmente, el
uso de sistemas automatizados está generalizado y los registros que generan permiten
disponer de un gran volumen de datos sobre el comportamiento del usuario con un
mínimo esfuerzo y coste.
El análisis de los registros de transacciones comprende tres fases: la recogida de información, la limpieza y preparación del fichero que contiene las transacciones para su
análisis y, por último, el análisis de la información. La recogida de información se puede
realizar a través de los datos en bruto de un fichero de registro, a través del etiquetado
de páginas web o web tagging o a través de la instalación de un software en el ordenador del cliente que consulta un servidor. Tras la recogida de información, el siguiente
paso es la preparación de estos datos para su posterior análisis. Esto incluye tanto la depuración como su estructuración para que sea posible su tratamiento final. Por último,
una vez recogidos y depurados los datos, el último paso es el análisis de la dichos datos.
CAPÍTULO 10
ANÁLISIS DE DATOS CUANTITATIVO
10.1. INTRODUCCIÓN
En los capítulos previos se ha contemplando cómo el investigador generaba una pregunta de investigación, se planteaba unas hipótesis, seleccionaba un diseño apropiado para el estudio y escogía una muestra de individuos para el estudio y un método
de recogida de datos. Una vez realizados todos estos pasos y recogidos los datos, se
está en condiciones de pasar a la fase de análisis y contrastar las hipótesis formuladas
con los datos observados.
Aunque este capítulo se encuentre al final del libro, no quiere decir que los aspectos que atañen al análisis de los datos deban dejarse para el final de un estudio.
Todo lo contrario, los objetivos, el diseño del estudio y la recogida de datos deben
plantearse de manera paralela al análisis de los datos. Por una parte, se debe prestar
especial atención a la selección del método. Este debe permitir una recogida de datos
que sea suficientemente válida y fiable y a la vez responder a los objetivos del estudio.
Por otra, se debe garantizar que los datos que se recojan podrán ser posteriormente
analizados de manera que den respuesta a los objetivos planteados. De hecho, con
el análisis de datos se cierra el círculo del proceso de investigación, dado que va a
permitir, entre otros aspectos, describir el fenómeno que se ha estudiado, predecir
eventos futuros, identificar y cuantificar diferencias entre distintas condiciones o bien
establecer la efectividad de alguna intervención.
El objetivo que se persigue con el análisis cuantitativo de datos suele ser doble. En
primer lugar, el análisis de los datos pretende organizar, sintetizar y resumir la información que ha sido obtenida de una muestra de sujetos procedentes de una población
de referencia. De este tipo de análisis se ocupa la llamada estadística descriptiva, la
cual utiliza fundamentalmente indicadores resumen y gráficos para presentar la información de forma resumida, lo que va a permitir una aproximación más comprensible
del fenómeno estudiado. En segundo lugar, la muestra estudiada ha servido para acer-
1244]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL
carnos y conocer el fenómeno que se pretende estudiar, pero sin ser el objetivo último
de nuestro estudio. En la mayoría de los casos, el objetivo que se persigue va más allá
del mero conocimiento del comportamiento de una muestra concreta. En realidad,
esta muestra va a servir para conocer cuál es el comportamiento en el conjunto de
una población. De este último punto se ocupa lo que se conoce como estadística
inferencia/. En este sentido, la estadística inferencia! va a permitir generalizar los
resultados obtenidos en muestras a la población de referencia.
En los siguientes apartados se exponen los conceptos básicos para llevar a cabo
un análisis cuantitativo. En un primer apartado se va a definir el concepto de variable
y las escalas de medida en las que una variable puede estar expresada. En segundo
lugar, se va a plantear el procedimiento más habitual que se debería seguir para
preparar los datos para un análisis cuantitativo. Es decir, cómo se deben depurar y
organizar los datos para poder ser procesados. En tercer lugar, se va a plantear una
revisión de los estadísticos descriptivos e inferenciales más habituales. Y, por último,
se van a revisar algunos de los conceptos más importantes para poder interpretar los
resultados del análisis y poder hacer inferencias a la población. Este capítulo dista
mucho de poder abarcar el abanico y la complejidad de las técnicas estadísticas, por
lo que se aconseja al lector interesado en llevar a cabo su propio análisis estadístico
consultar textos más detallados y manuales específicos sobre la cuestión.
10.2. TIPOS DE VARIABLESY ESCALASDE MEDIDA
Para llevar a cabo un análisis de datos cuantitativo, la información que ha sido recogida a partir de las diferentes técnicas debe ser transformada en valores numéricos.
El proceso de recogida de información va a permitir valorar diversas características
de los individuos. Cada una de estas características son las variables que posteriormente se analizarán. Se entiende por variable cualquier característica que se puede
manifestar en dos o más modalidades. Cada modalidad de la variable se traduce, si es
necesario, en un valor numérico.
Las variables pueden ser cuantitativas o cualitativas. Las modalidades de una variable cuantitativa corresponden a valores numéricos reales. Son ejemplos de variables cuantitativas la edad, el número de documentos que se solicitan en préstamo, el
número de visitas que recibe una página web, etcétera. En cambio, las modalidades
de una variable cualitativa no se expresan directamente en números, sino que son
categorías que valoran cualidades o atributos de los individuos. Estas modalidades
necesitan ser traducidas a valores numéricos, aunque debe tenerse en cuenta que estas
carecen de significado cuantitativo. El género de los usuarios, el nivel de estudios o el
lugar de residencia son ejemplos de variables cualitativas.
10. ANÁLISISDE DATOSCUANTITATIVO
[245]
Cuando se asignan valores numéricos a cada una de las modalidades de una variable se está generando una escala de medida. La categorización más conocida de las
diferentes escalas de medida es la propuesta por Stevens (1946). Así, las variables se
categorizan dependiendo de su naturaleza en cuatro clases: nominales, ordinales, de
intervalo y de razón.
Una categorización correcta de las variables es vital para llevar a cabo el análisis cuantitativo de los datos, dado que de la naturaleza de la variable dependerá el
tipo de técnica estadística que podrá utilizarse para obtener la información sobre
los individuos de la muestra. Las variables medidas en escala nominal son variables
cualitativas. Se caracterizan porque entre sus diferentes modalidades, solo puede establecerse una relación de igualdad o diferencia (por ejemplo, el género: hombre= O
/mujer= 1). De esta forma se transforma la información en valores numéricos que
permiten clasificar a los individuos en función del atributo que presenten. Cuando
los valores de la escala recogen una relación de orden, se dice que la variable está
valorada en escala ordinal (por ejemplo, el nivel de estudios clasificado como: primarios= 1, secundarios= 2, universitarios= 3). Cuando los números asignados a los
valores de la variable indican igual distancia entre ellos, la variable se clasifica como
escala de intervalo. No obstante, este tipo de escala carece de un O absoluto, lo que
indica que un valor de O en esta escala no significa ausencia de característica. El caso
más utilizado para ejemplificar este tipo de escala es la temperatura. Si se piensa en
grados centígrados, se observa que la distancia entre 10 y 12 grados es la misma
que entre 20 y 22 grados y esta se mantiene constante. Sin embargo, el valor de O
es arbitrario y no significa ausencia de temperatura. Por último, la escala de razón,
además de incorporar las relaciones de las escalas anteriores, incluye la noción de O
absoluto, por lo que la asignación del valor O indica ausencia de la característica que
se pretende medir. Son ejemplos de esta escala variables como el número de artículos
publicados por un investigador, la cantidad de visitantes que acceden a un sitio web
en un día o bien el número de consultas al mes que recibe un bibliotecario a través
de un formulario web.
10.3. PREPARACIÓN DE LOS DATOS
En primer lugar, la preparación de los datos implica que el investigador debe planificar detenidamente cómo generar la base de datos, cómo introducirá los datos y si
estos han de ser procesados o transformados previamente antes de ser analizados.
Es importante recordar que los datos pueden provenir de entrevistas, cuestionarios,
observaciones, etcétera, por lo que antes de su introducción en la base de datos, el
investigador debe revisarlos detenidamente. La precisión es sumamente importante
(246]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL
a la hora de generar una base de datos. Los errores que se pueden cometer en esta
fase pueden afectar de manera muy negativa a la validez del estudio y proporcionar
resultados erróneos y contradictorios.
En este sentido, existe una diferencia sustancial entre los instrumentos de recogida
de datos computerizados o no computerizados. Mientras que en los primeros el dato
se registra directamente en la base de datos, en los segundos se registra en la hoja de
recogida de datos y posteriormente se introduce en la base de datos. Es obvio que
la recogida de datos a partir de procedimientos computerizados tiene importantes
ventajas. Por ejemplo, al diseñar un cuestionario electrónico puede programarse para
que las respuestas de los individuos se encuentren en un determinado rango. Así,
cualquier respuesta fuera del rango establecido será identificada como un error y se
podrá programar el propio sistema para que avise al sujeto sobre la incorrección del
dato introducido, con el fin de que este pueda inmediatamente corregirlo. También se
puede evitar que el sujeto o bien el investigador olvide rellenar algún dato, obligando,
en este caso, a que el sujeto emita una respuesta antes de pasar a la pregunta siguiente. Sin duda, los instrumentos de recogida de datos computerizados evitan muchos
de los errores producidos por un despiste (olvidar marcar una casilla o introducir un
dato) o de transcripción (escribir un 7 cuando debería haberse escrito un 27), proporcionando una mayor calidad a los datos.
Cuando no se usan instrumentos computerizados, es esencial una revisión detenida de la información introducida en las hojas de recogida de datos. Cuanto menos
tiempo pase entre la recogida de datos y esta revisión, más probabilidades existen de
obtener los datos correctos (volviendo a contactar con los participantes, a partir del
recuerdo del investigador, etcétera) y poder corregirlos.
En algunas ocasiones los datos también deben ser transformados antes de la fase
de análisis. Algunos ejemplos habituales de transformación de datos son:
~
~
~
Transformar en categorías las respuestas abiertas de un cuestionario.
Recodificar variables cuantitativas en variables cualitativas. Por ejemplo, agrupar en intervalos la producción científica de un investigador de los últimos seis
años y clasificarlos en: producción baja (de O a 4 artículos), producción media
(de 5 a de 15 artículos) y producción alta (más de 15 artículos).
Convertir los datos en otro tipo de escalas. Por ejemplo, convertir la unidad
de medida de una variable expresada en horas a minutos o bien transformar
las puntuaciones directas en puntuaciones z, tal como veremos más adelante
en este capítulo.
Una vez los datos han sido revisados y transformados, si fuera necesario, es preciso definir las variables, especificar qué es lo que mide la variable y darle un nombre
10. ANÁLISISDE DATOSCUANTITATIVO
(2471
para su identificación futura. Una vez se ha llegado a este punto, el paso siguiente es
la entrada de datos. Para asegurar la corrección de este proceso algunas entidades
realizan una doble entrada de datos. Este procedimiento implica introducir dos veces
la información y posteriormente comparar ambas bases de datos. Las discrepancias
entre ambas indicarán que ha habido algún error en la introducción de datos. No
obstante, el coste económico, de personal y de tiempo hace que este procedimiento no
sea siempre utilizado. Otro procedimiento, no tan costoso, consiste en seleccionar un
porcentaje reducido de casos (10-15 % de los sujetos) y revisar si existe algún error.
Este procedimiento muestra la precisión con la que se han introducido los datos y, en
caso de no hallar errores, indica que la base de datos está lista para iniciar el proceso
de análisis. Otra alternativa ampliamente utilizada es revisar los datos a partir de
tablas de frecuencia y descriptivos para comprobar que dichos datos se sitúan dentro
de los rangos definidos en la variable, tal como se indicó en el capítulo 4 sobre la
técnica de encuesta.
10.4. ANÁLISIS DE LOS DATOS
Aunque una revisión completa de los procedimientos estadísticos está fuera de los
objetivos de este libro, en los siguientes apartados se presenta un breve resumen de
las principales ideas y conceptos que rige un análisis de datos cuantitativo. Tal como
se ha expuesto al principio del capítulo, dentro del análisis de datos se distingue entre
el análisis de datos descriptivo y el análisis de datos inferencial. El primero permite
organizar, resumir y proporcionar una visión general de los datos, mientras que el inferencia} va más allá de la propuesta de unas conclusiones para la muestra analizada
y permite generalizar los hallazgos a la población de referencia de esa muestra. En los
siguientes apartados se presentan los indicadores y conceptos más relevantes dentro
de la estadística descriptiva e inferencial.
10.4.1. Estadística descriptiva
Tal como su nombre indica, la estadística descriptiva permite describir los datos que
han sido recogidos durante el estudio y explorar las distribuciones de las variables
analizadas. Es importante tener en cuenta que este análisis descriptivo es también un
paso previo obligatorio antes de poner a prueba las principales hipótesis del estudio
a partir de la inferencia estadística. Frecuentemente, los estadísticos descriptivos se
clasifican en función del número de variables que se someten a análisis; así, hablamos
de estadística univariada (una variable), bivariada (dos variables) o multivariante
(248]
MÉTODOS Y TÉCNICASPARALA INVESTIGACIÓNDEL COMPORTAMIENTOINFORMACIONAL
(más de dos variables). El análisis univariado permite valorar cómo se comporta
cada una de las variables por separado, por lo que sin duda debe ser el paso previo a
cualquier otro tipo de análisis más complejo. En la tabla 27 se presenta un resumen
de las principales técnicas que se describen en este epígrafe.
Tabla27. Principales técnicas de la estadística descriptiva
lipo de técnica
Técnica
Variables implicadas
Univariable
Tabla de frecuencias
Cualitativa
Medidas de tendencia central
Cuantitativa
Medidas de dispersión
Cuantitativa
Puntuaciones z
Cuantitativa
Coeficiente de correlación
Cuantitativas y cualitativas
Tablas de contingencia
Cualitativas
Correlación parcial
Cuantitativas
Correlación múltiple
Cuantitativas
Bivariable
Multivariante
10.4.r.r.
DESCRIPCIÓN UNIVARIABLE
Existe una gran cantidad de métodos que permiten examinar las distribuciones de
las variables, pero posiblemente el método más básico sea una distribución de frecuencias. Una distribución de frecuencias es simplemente una lista completa de todos
los posibles valores o puntuaciones de una variable, junto con el número de veces
(frecuencia) en que este valor se repite dentro de la variable. Esta información se representa en una tabla de frecuencias que resume de una forma mucho más inteligible
y manejable los datos. Junto con los valores absolutos de la variable se suelen incluir
los valores relativos, como frecuencias relativas y porcentajes. La representación gráfica que acompaña y complementa este tipo de análisis son los diagramas de barras y
ciclogramas. Este tipo de descripción es la que se utiliza básicamente para las variables cualitativas. En el cuadro 34 se muestra un ejemplo numérico de la descripción
de una variable cualitativa.
Para las variables cuantitativas es más informativa una descripción a partir de
indicadores de tendencia central y dispersión. La tendencia central de una distribución es el valor que representa el valor más típico de una distribución. Las medidas
de tendencia central que con más frecuencia se utilizan son la media, la mediana y
la moda. De todas ellas, la media es el indicador de tendencia central más ampliamente utilizado. Se calcula a partir de la suma de todos los valores de la variable y
se divide por el número de valores que se han sumado. El resultado es la media de
[249 1
10. ANÁ LISIS DE DATOS CUANTITATIVO
Cuadro 34. Descripc ión de una varia ble cualit at iva
A parrir de un estudio de encuesta se pretende invesrigar la conducta de búsqueda de información en
Internet de los pediatras que trabajan en el ámbiro hospiralario. Una de las preguntas del cuestionario
que se les administró fue: ¿con qué frecuencia recomienda a los padres la consu lra de webs específicas
para obtener información sobre las parologías de sus hijos? A continuación, se presenta la rab ia de
frecuencias y la representación gráfica de los daros.
TABLADE FRECUENCIAS
fi
60
114
75
51
300
Siempre
En algunas ocasiones
Casi nunca
Nunca
Toral
pi
0,2
0,38
0,25
0, 17
1
Pi
20
38
25
17
100
fi: frecuencia absoluta, pi: frecuencia relativa, Pi: porcentaje
DIAGRAMA
DE llillmAS
50 ~------------------
45
40
35 .¡--~~~~~
30
25
20
15
10
5
o
Siempre
Enalgunas
Casinunca
Nunca
ocasiones
CiCLOGRAMA
• Siempre
• EnDlcunasocastonu
• casi nunca
• Nunca
A parrir de la rabia de frecuencias y los gráficos se puede concluir que mayorirariamenre los pediatras
son parridario s de recomendar a los padres la consulta de webs específicas para o btener información
sobre las pato logías de sus hijos, bien en algunas ocasiones (38 %) o bien siempre (20 %). Un 25 %
de los pediat ras afirma que casi nunca hace este tipo de recomendaciones, mientra s que un 17 % niega
esre ripo de conducta .
[250]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL
la distribución. Se trata de un valor muy informativo cuando la distribución sigue
una ley normal (la forma en que se distribuyen los datos tiene forma de campana).
Sin embargo, presenta el gran inconveniente de ser un indicador muy sensible a los
valores extremos de la variable, por lo que se desaconseja su uso cuando se detecten
valores extremos en alguna de las colas de la distribución. En el cuadro 35 se presenta
un caso que ejemplifica esta situación.
Cuadro 35. Cálculo de una media con y sin valores extremos
Se pretende conocer la edad de los usuarios que utilizan su dispositivo móvil para acceder a alguno
de los servicios de la biblioteca. Para ello se pregunta a seis usuarios sobre su edad. Las respuestas son
las siguientes:
CAsoA
Usuario
Edad
20
2
22
3
4
5
21
24
23
6
22
7
22
La media de la edad de estos usuarios sería:
~\
x=..!..:..!.
= 154=22
11
Si ahora se cambiara la edad de uno de ellos por un valor que se separara de manera importante de la
tendencia central de la variable, el resultado sería:
CASO
B
Usuario
Edad
20
2
3
22
21
4
24
5
23
6
22
7
64
x = 96
= 28
7
Del ejemplo anterior se desprende que, cuando existe algún dato que se separa de
la tendencia central, el resultado es que el valor de la media deja de informar adecuadamente sobre el conjunto de los datos.
Por el contrario, la mediana es un indicador resistente. Es el valor central de la
distribución y no se ve influido por los valores extremos. Para calcular la mediana se
necesita ordenar los valores de menor a mayor y hallar el valor central. El valor que
separa en dos partes iguales la distribución es la mediana. Por ejemplo, tal como se
muestra en el cuadro 36 la mediana en los dos ejemplos anteriores sería en los dos
casos la misma.
(251)
10. ANÁLISISDE DATOSCUANTITATIVO
Cuadro 36. Cálculo de una mediana
CA.soA
Mediana
CASO
Usuario
1
Edad
20
Usuario
1
Edad
20
2
21
3
22
2
21
3
22
4
5
22
22
6
23
24
6
24
64
7
B
Mediana
4
22
5
23
7
La moda es otro de los indicadores habituales para describir la tendencia central
de una variable. En este caso, se trata del valor que más se repite en la distribución.
En los ejemplos anteriores la moda sería el valor 22, dado que es el valor que se repite con mayor frecuencia. Existen distribuciones con más de una moda, bimodales
o trimodales, lo que quiere decir que dos o tres valores de la distribución se repiten
con la misma frecuencia.
Otro grupo de indicadores hace referencia a la forma de la distribución. En concreto se distinguen tres tipos fundamentales de formas que puede adquirir una distribución: simétrica, asimétrica positiva y asimétrica negativa. Cuando los tres valores
de tendencia central coinciden, la variable tendrá forma de campana a nivel gráfico.
Se dice entonces que la variable sigue una distribución normal, formará una distribución simétrica con forma de campana y en el punto de máxima altura coincidirán
los tres valores de tendencia central. En cambio, si la distribución cuenta con valores
extremos en la cola de los valores altos, la media se verá afectada por estos valores
y presentará el valor más alto, en el medio se encontrará la mediana y en la posición
más baja se encontrará la moda. La forma de está distribución será asimétrica positiva. Si, al contrario, existen valores extremos en la cola de los valores más bajos, la
media será el indicador que presentará el valor más bajo. La mediana se encontrará
en el medio y la moda presentará el valor más alto. La forma de la distribución será
asimétrica negativa. En la figura 12 se representan diferentes distribuciones simétricas y asimétricas.
Además de la tendencia central de la variable existen otro tipo de indicadores que
informan sobre la dispersión de los datos. Los indicadores de dispersión nos indican
cómo de agrupados o dispersos se sitúan los valores en relación a la tendencia central
de la variable. Incluso puede ocurrir que dos distribuciones con la misma media y
mediana presenten una dispersión de los datos muy diferente. En el siguiente ejemplo
[2521
MÉTODOS Y T ÉCNICAS l'ARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL
Fig ur a 12. Rep resentac ión gráfic a en la que se repr esenta un a distribución
posit iva (a), s im étr ica (b) y asimétrica
(b)
(a)
as im ét ri ca
n egativa (c)
(c)
(cuadro 37) se mu estra có mo en el caso A todos los va lo res se encuentran muy próx imos a la tende ncia cen tr al, mientras q ue en el caso B los va lores están m ucho más
di sper sos (más a lejad os) de la tendenc ia centr al de la var iab le.
C u adro 37. D ispe rsió n de los daro s d e una var iabl e
CASO A
Usuari o
Edad
CASO
1
2
20
21
14
15
4
5
22
6
23
7
24
Med ia: 22
4
5
Med ia: 22
28
6
29
7
22
30
Med iana : 22
3
22
22
3
16
Mediana: 22
B
Usuario
Edad
2
Las medida s d e di spe rsión más usa da s so n el ra ngo, el ra ngo int ercuartíl ico, la
var iancia y la desv iac ió n típ ica. El ra ngo es la dif erencia ent re el valo r máx imo y el
va lor mín imo . En los dos ejempl os a nt erio res, en el caso A, el ra ngo seria 4 (24 - 20 =
4) y en el caso B, sería 16 (30 - 14 = 16). Dado qu e so lo depen d e de dos valores d e la
distribu ció n, se trata de un a med ida d e dispers ió n mu y pobre (so lo con que ex istie ra
un va lor q ue se alejara considerab lemente de la te nde ncia cent ral, haría aumentar el
rango de la var ia ble). El rango intercua rtíli co es la d iferencia entr e los va lo res que
limitan el 50 % centra l de la var ia ble. Se trata del indi cado r de dispersió n q ue mejor
pue d e asoc iarse a la mediana. Indica la dispersión que ex iste en el 25 % inferior y
25 % superior respecto a la med iana . Una med ida de di spers ión más prec isa es la varianc ia y, derivada d e ella, la desviac ión típi ca . La var ia ncia es la media cuad r át ica de
las di ferenc ias d e cada va lo r respecto a la media . D e esta forma, los valo res que más
10. ANÁLISISDE DATOSCUANTITATIVO
[2531
se separan de la tendencia central de la variable tienen un mayor efecto en el valor
de la variancia. La desviación típica es la raíz cuadrada de la variancia, con lo cual
tiene la ventaja de que se presenta en las mismas unidades que la variable y de esta
forma es más fácil su interpretación. La desviación típica informa sobre la dispersión
promedio de los datos alrededor de la media de la variable. Además se cumple que si
la variable sigue una distribución normal:
.... Aproximadamente, el 68 % de los valores de la variable se situarán entre ± una
desviación típica de la media .
.... Aproximadamente, el 95 % de los valores de la variable se situarán entre± dos
desviaciones típicas de la media.
.... Aproximadamente, el 99 % de los valores de la variable se situarán entre ± tres
desviaciones típicas de la media.
De este modo, si se asume que una variable sigue una distribución normal, se
puede predecir que un determinado porcentaje de valores se situará alrededor de la
media. Por ejemplo, si la variable edad de los usuarios de una determinada aplicación
web para la reproducción de música sigue una distribución normal, con media 23
años y desviación típica de 4 años, se podría decir que:
.... Aproximadamente el 68 % de los individuos tendrá una edad entre 19 y 27
años (una distancia de una desviación típica respecto a su tendencia central) .
.... El 95 % de los usuarios tendrán entre 15 y 31 años (una distancia de dos desviaciones típicas respecto a su tendencia central).
.... El 99 % de los usuarios se situará en una edad entre los 11 y los 35 años (una
distancia de tres desviaciones típicas respecto a su tendencia central).
Solo un 1 % de los usuarios tendrá una edad inferior o superior a tres desviaciones típicas respecto a su media (es decir, serán menores de 11 o mayores de 35
años). Cuando esto se cumple, es fácil transformar las puntuaciones de la variable a
las llamadas puntuaciones z. Las puntuaciones z tienen una media de O (punto donde
coinciden los tres indicadores de tendencia central) y desviación típica de 1. En la
siguiente tabla (tabla 28) se muestra la correspondencia entre las puntuaciones de la
variable y las puntuaciones z.
Tabla 28. Correspondencia entre puntuaciones de una variable y puntuaciones z
Puntuaciones z
-3
-2
-1
o
Puntuaciones de la variable
11
15
19
23
27
2
3
31
35
[254]
ro.4. I.2.
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO
DESCRIPCIÓN
INFORMACIONAL
BIVARIABLE
Otro importante aspecto de los estadísticos descriptivos es que permiten valorar la
asociación entre variables. De este modo, se pasa de la estadística univariante a la estadística bivariante o multivariante, con dos o más variables. En concreto, las medidas
de asociación, como por ejemplo el coeficiente de correlación, permiten resumir en un
valor la relación entre dos o más variables. Que dos variables estén correlacionadas significa que cuando una de ellas varía también lo hará la otra variable. Existen diferentes
tipos de coeficientes de correlación y su uso depende fundamentalmente de la escala
de medida en que se expresen las variables. En la tabla 29 se presentan los principales
coeficientes de correlación en función del tipo de variables que se pretendan relacionar.
Tabla 29. Principales coeficientes de correlación
Coeficiente
Descripción
Relación entre dos variables cuantitativas medidas en escala de
intervalo o razón.
Correlación de Spearman Relación entre dos variables cuantitativas medidas en escala ordinal.
Correlación biserial
Relación entre dos variables, una cuantitativa medida en escala de
intervalo o razón y otra cuantitativa dicotomizada a dos categorías.
Correlación biserial
Relación entre dos variables, una cuantitativa medida en escala de
puntual
intervalo o razón y otra cualitativa dicotómica (dos categorías).
Correlación múltiple
Relación entre más de dos variables cuantitativas medidas en escala de intervalo o razón.
Correlación parcial
Relación entre dos variables cuantitativas eliminando el efecto de
otras variables cuantitativas.
Correlación de Pearson
Notación
r •r
r.
rb
rbr
Ry•••
rp.,
El coeficiente de correlación expresa la dirección de la relación, directa o inversa,
y su intensidad. En general, los valores de los diferentes coeficientes de correlación
oscilan entre 1 y -1. Cuando la relación entre las variables es directa e intensa, lo que
se observa es que los valores altos de una variable se relacionan con valores altos
en la otra variable. Cuanto mayor sea la relación, más se aproximará el valor del
coeficiente de correlación a 1. Por ejemplo, en un grupo de niños se puede observar
que, cuando presentan mayor edad, presentan también una mayor altura. En cambio,
cuando los valores bajos de una variable se asocian a valores altos en otra variable, se
trata de una relación inversa y el valor del coeficiente de correlación tenderá a -1. Por
ejemplo sería el caso de las variables valor de la venta de un coche usado y el número
de kilómetros recorridos. Cuanto más intensa sea la relación entre las variables, más
cercano será el valor del coeficiente a 1 o -1. En cambio, cuando no exista relación
entre las variables, el coeficiente de correlación tenderá a O.En la figura 13 se presentan de forma gráfica los diferentes tipos de relación entre dos variables.
[255)
10. ANÁLISISDE DATOSCUANTITATIVO
Figura 13. Diagramas de dispersión en los que se representa una relación directa (a), una
relación inversa (b) y una relación nula (e)
•
•
----•
•--~----• •
--- -----------+--·------------
•
•
-- -+ ·-----·------------
(a)
•
.
- ---------+------
•
--• •
-
-----
•
·- •·---·
•
--
- --
_________
.____
-
(b)
---
_____
.
.•
-
____
_
•
(e)
Aunque para interpretar adecuadamente un coeficiente de correlación es importante tener en cuenta el tamaño de la muestra, en la mayoría de libros de estadística se
proponen las siguientes reglas generales para interpretar la intensidad del coeficiente
de correlación (en valores absolutos).
... Cuando el valor es inferior a 0,2, la relación que se establece entre las variables
puede considerarse baja.
... Cuando el valor oscila entre 0,2 y 0,5, la relación que se establece entre las
variables puede considerarse moderada.
... Cuando el valor es superior a 0,5, la relación que se establece entre las variables puede considerarse alta.
Otro importante indicador es el cuadrado del coeficiente de correlación, el llamado coe-{icientede determinación. Este indica la proporción de variancia explicada
entre dos variables. Por ejemplo, si entre las variables tiempo de conexión a una
aplicación para la reproducción de música por Internet y la edad de los usuarios que
se conectan a esta aplicación se halla una correlación de 0,44, querrá decir que el
19,36 % de la variancia del tiempo que el usuario pasa conectado a la aplicación (de
la variabilidad de la variable) puede ser explicada por la edad del usuario. Es importante recordar que a partir del coeficiente de correlación se valora la relación entre las
variables, pero no se añade nada acerca de su relación causal.
La descripción de variables cualitativas que presentan pocas modalidades de respuesta se realiza a partir de tablas de contingencia. Las tablas de contingencia son
tablas de doble entrada, en las que por filas se disponen las modalidades de respuesta
de una de las variables y, por columnas, las modalidades de la otra variable. Los indicadores que se suelen representar dentro de las casillas donde se cruzan las modalidades de las dos variables son frecuencias y porcentajes. En el cuadro 38 se muestra
un ejemplo de tabla de contingencia.
[256)
~lÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL
Cuadro 38. Descripción de dos variables cualitativas
Retomando el ejemplo previo sobre la conducta de búsqueda de información en Internet de los pediatras que trabajan en el ámbito hospitalario, se pretende describir de manera conjunta las siguientes
variables:
Variable «recomendar»: frecuencia con la que se recomienda a los padres la consulta de webs para
obtener información sobre las patologías de sus hijos.
Variable «web profesional»: uso de webs profesionales como recurso básico para poder estar al día en
su profesión (web profesional).
A continuación se muestra la tabla de contingencia que resultaría de la combinación de estas dos
variables:
Web profesional
'"'
Sí
(U
-o
t:
V
E
o
u
V
~
Total
Siempre
En algunas ocasiones
Casi nunca
Nunca
45 (15 %}
86 (28,67 %)
11 (3,67 %)
13 (4,33 %)
155 (51,67 %)
No
15 (5 %)
28 (9,33 %)
64 (21,33 %)
38 (12,67 %}
145 (48,33 %)
Total
60 (20 %)
114 (38 %)
75 (25 %)
51 (17%)
300 (100 %)
A partir del análisis de los datos que se muestran en la tabla se puede apreciar cómo aquellos profesionales que usan webs profesionales como un recurso básico para poder estar al día de su profesión son
fundamentalmente partidarios de recomendar la consulta de webs a los padres para obtener información sobre las patologías de sus hijos, mientras que los profesionales que no son usuarios de las webs
profesionales afirman con menos frecuencia la recomendación de consultar webs.
10.4.1.3.
DESCRIPCIÓN MULTIVARIABLE
Demostrar la asociación entre dos variables es un paso importante, pero en la mayoría de ocasiones la realidad es bastante más compleja. Por ejemplo, el hecho de que
una actividad de promoción de la lectura tenga éxito (valorada a partir del número
de asistentes) puede estar relacionado, entre otros muchos aspectos, con la eficiencia
o popularidad del equipo organizador, con la existencia o no de programación de
otras actividades paralelas o bien con el horario en el que se programe la actividad.
De hecho, la relación que se establece entre dos variables puede estar influida por una
tercera o incluso más variables. En este sentido, por un lado, la correlación múltiple
permite relacionar un conjunto de variables y, por otro, la correlación parcial permite valorar la relación entre dos variables controlando el efecto de una tercera o más
variables que puedan influir en esta relación.
10. ANÁLISISDE DATOSCUANTITATIVO
[257)
10.4.2. Estadística inferencia}
Como se ha comentado en el epígrafe anterior, la estadística descriptiva permite ordenar, resumir y describir los datos de una muestra. Sin embargo, en la mayoría de
ocasiones, lo que realmente interesa es generalizar los hallazgos obtenidos a partir
de unos cuantos datos particulares a la población general. Esto se consigue gracias
a la inferencia estadística. Por ejemplo, si se realiza un estudio sobre necesidades
informativas de un grupo de usuarios, raramente al investigador le va a interesar ese
grupo concreto de usuarios que ha estudiado. La aplicación de técnicas inferenciales
va a permitir generalizar los resultados obtenidos en esa muestra, con un determinado grado de certeza, a la población general de usuarios que comparta las mismas características. En términos generales, la estadística inferencial permite extraer
conclusiones sobre una población a partir de los resultados obtenidos en muestras
representativas.
En este punto cobran una importancia vital las técnicas de muestreo probabilísticas descritas en el capítulo 2. Para asegurar la extracción de una muestra representativa de individuos de la población es necesario llevar a cabo un muestreo probabilístico. Existen otras técnicas que van a permitir formar una muestra representativa de la
población, pero solo las técnicas probabilísticas van asegurar la representatividad de
todas las características de la población, incluso aquellas que el propio investigador
no ha tenido en cuenta.
Existen dos formas básicas de inferencia estadística: la estimación de parámetros
y el contraste de hipótesis. A continuación, se presentan los aspectos básicos de cada
una de ellas, pero de nuevo es necesario recordar que para una exposición más detallada es conveniente acudir a textos estadísticos más especializados.
Mediante la estimación de parámetros se consigue tener una idea sobre alguna
propiedad de la población a partir de la información que se ha obtenido en una
muestra. Por lo general, esta estimación se realiza por intervalos, lo que significa
que a partir de un valor obtenido en la muestra se construye un intervalo de valores
alrededor de él. Dentro de los límites de este intervalo se espera que con una alta probabilidad (conocida) se encuentre el verdadero valor poblacional. Por ejemplo, si se
toma a un grupo de pediatras que consideran las webs profesionales como un recurso
básico para poder estar al día en su profesión y obtenemos que la media de edad es
de 37 años, se podría afirmar que el valor poblacional se situaría en torno a ese valor.
Determinar el rango de valores posible (el valor mínimo y el valor máximo) entre los
que se situará el verdadero valor poblacional depende de:
... La probabilidad de acierto o de error con la que se desee realizar la estimación.
... El número de individuos de la muestra.
[258]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO
<1111
INFORMACIONAL
La variabilidad de la característica que se está valorando. En el cuadro 39 se
expone un ejemplo de cómo calcular un intervalo a partir de una media.
Cuadro 39. Cálculo de un intervalo de confianza de medias
La media de edad de un grupo de 50 pediatras que consideran las webs profesionales como un recurso
básico para poder estar al día en su profesión es de 37 años y su desviación típica 4 años. En este caso,
se desea estimar la media de edad del total de la población de pediatras que presenten esta característica
con una probabilidad del 95 % de que el verdadero valor de la población se sitúe dentro del intervalo.
Para calcular este intervalo se aplicará la siguiente fórmula:
X±Z,,
x.
._s._
,.Jn
Donde:
x:es la media de la muestra
zx1
: es el valor de z correspondiente a una probabilidad de acierto del 95 %
2
S: es la desviación típica de la muestra
n: es el número de sujetos de la muestra
Así, el intervalo quedaría construido de la siguiente manera:
37± 1.96-~
,.J5o
El resultado es que con una probabilidad del 95 % el verdadero valor del parámetro estaría entre los
siguientes valores:
35,89 + 38, 11
No obstante, se puede considerar que la inferencia estadística moderna se basa,
fundamentalmente, en el contraste de hipótesis propuesto por Jerzy Neyman y Egon
Pearson hacia 1928 y que posteriormente estos mismos autores fueron desgranando
en diferentes publicaciones (Royal, 1997). El contraste de hipótesis es un proceso
equivalente a la estimación por intervalo, dado que ambos procedimientos permiten
llegar a la misma conclusión. La diferencia fundamental entre ambos procesos radica
en que el contraste de hipótesis se inicia desde la población y no desde la muestra.
En concreto, el contraste de hipótesis establece una afirmación sobre la población y
posteriormente comprueba si a partir de los datos obtenidos en muestras es posible
mantener esa afirmación. En este sentido, el contraste de hipótesis puede ser considerado como un procedimiento para tomar decisiones. Es decir, a partir de los datos
muestrales decidimos si una afirmación sobre la población puede ser mantenida o
debe rechazarse. Si la hipótesis coincide con los datos que se han observado, dentro
de un determinado margen de error, se podrá mantener la hipótesis. Mientras que
10. ANÁLISISDE DATOSCUANTITATIVO
1259)
en caso contrario se deberá rechazar y buscar nuevas hipótesis que sean capaces de
explicar la realidad.
El contrate de hipótesis se inicia con la formulación de dos hipótesis contrapuestas: la hipótesis nula (H0 ) y la hipótesis alternativa (H 1). La H 0 consiste en una afirmación concreta sobre la población en la que debe estar presente el signo de la igualdad
y es siempre la hipótesis que se somete a contraste. Por el contrario, la H 1 es la que se
deduce al rechazar la H 0 •
Retomando el ejemplo previo sobre la conducta de búsqueda de información en
Internet de los pediatras que trabajan en el ámbito hospitalario, se podrían plantear
las siguientes hipótesis:
H 0 : la media de edad de los pediatras que consideran las webs profesionales
como un recurso básico para poder estar al día en su profesión es igual a la
media de edad de aquellos que no consideran las webs profesionales como un
recurso básico para su profesión.
<111 H : la media de edad de los pediatras que consideran las webs profesionales
1
como un recurso básico para poder estar al día en su profesión es diferentea la
media de edad de aquellos que no consideran las webs profesionales como un
recurso básico para su profesión.
<111
Una discrepancia entre lo que afirma la H 0 y los datos observados en la muestra
puede indicar dos cosas diferentes:
<111
<111
Que la H 0 es correcta y la discrepancia que se observa es producto del azar.
Que la H 0 es incorrecta.
Para decantarnos por una u otra opción, es necesario determinar cuándo la discrepancia entre la hipótesis planteada y los datos es lo suficientemente grande para
considerar que el resultado obtenido en la muestra es incompatible con la H 0 formulada. Por consiguiente, si se considera que estas discrepancias son tan grandes que
resulta improbable que se deban al azar, se debe considerar que la H 0 formulada es,
de hecho, falsa.
Se debe tener en cuenta que la H 0 puede ser rechazada o no rechazada, pero nunca
aceptada como cierta. Si se rechaza la hipótesis nula, estamos afirmando que existen
diferencias entre los grupos (por ejemplo, entre el grupo de pediatras partidarios de
las webs profesionales y los no partidarios). Es decir, a partir de los datos empíricos
se ha podido corroborar que las discrepancias no son producto del azar. En cambio,
si se mantiene, lo único que podemos afirmar, en realidad, es que los datos no proporcionan suficiente evidencia empírica para afirmar que existen diferencias entre los
[260]
MÉTODOSY TÉCNICASPARALA INVESTIGACIÓNDEL COMPORTAMIENTOINFORMACIONAL
grupos. Así, el investigador deberá determinar si con las pruebas de que dispone puede mantener la hipótesis nula o bien puede rechazarla y quedarse con la alternativa.
En general, los investigadores buscan rechazar la H 0 porque rechazarla significa que
el fenómeno estudiado tiene algún efecto.
No obstante, tomar la decisión de mantener o rechazar una H 0 no está exento
de error. En concreto, existen dos tipos de error implicados en esta decisión: el error
tipo I y el error tipo II.
El error tipo I ocurre cuando el investigador considera que la H 0 es falsa (existe
diferencia entre los grupos) y rechaza la H 0 , pero en realidad la H 0 es cierta (no existe
diferencia entre los grupos), por lo que la H 0 no debería haber sido rechazada. A este
error se lo conoce como nivel de significación y se identifica como a.
El error tipo II ocurre cuando el investigador afirma que no existe diferencia entre
los grupos, mantiene la H 0 , pero en realidad sí existe diferencia entre los grupos y la
hipótesis nula debería ser rechazada.
En la tabla 30 se representan los dos tipos de error en función de la naturaleza de
la hipótesis nula y de la decisión que finalmente toma el investigador.
Tabla 30. Errores asociados a la prueba de contraste de hipótesis
e:
:9
<ll
·o
Q.J
Q
No rechazar H 0
Rechazar H0
Carácterde la Hn
Verdadera
Falsa
Decisión correcta
Nivel de confianza (1-a.)
Decisión incorrecta
Error tipo I (a)
Decisión incorrecta
Error tipo 11(13)
Decisión correcta
Potencia ( 1-~)
Es necesario tener cautela al tomar la decisión, ya que existe una relación inversa entre el error tipo I y el error tipo II. Esto significa que cuando se reduce la
probabilidad de cometer un error tipo I, se está aumentando la probabilidad de
cometer un error tipo II. ¿Qué error es más importante evitar? Esto depende en
cada caso de la situación de investigación que se aborde. Feinberg (1971) propone
un ejemplo ampliamente utilizado en los libros de texto para comprender las consecuencias de estos errores. En concreto, este autor compara el proceso de contraste
de hipótesis con un proceso judicial en el que se debe decidir si el acusado es inocente o culpable. En este caso, la hipótesis nula propone que el acusado es inocente (en
base a la presunción de inocencia), mientras que la hipótesis alternativa afirmará
todo lo contrario, el acusado es culpable. Si se acepta la H 0, el acusado es inocente,
mientras que, si se rechaza, al acusado se le declarará culpable. Cometer un error
tipo I significa que se declara culpable al acusado, siendo este inocente. Mientras
que cometer un error tipo II significa declarar inocente al acusado, siendo este cul-
10. ANÁLISISDE DATOSCUANTITATIVO
1261)
pable. Desde el punto de vista de nuestro sistema judicial parece más grave cometer
un error tipo l. Por ese motivo, se fija una probabilidad de error pequeña antes de
realizar la investigación y analizar los datos. Por convención, en la mayoría de áreas
de la ciencia, se permite un 5 % de error al tomar la decisión de rechazar la H 0 por
error (es decir, de cometer un error tipo 1). De esta manera, se establece una regla
de decisión y se acepta que, en promedio, 5 de cada 100 veces que la H 0 sea cierta,
esta sea rechazada.
10.4.2.1.
PRUEBAS DE CONTRASTE DE HIPÓTESIS
El proceso de contraste entre la H 0 y los datos se realiza mediante un estadístico o
prueba de contraste. Existen numerosas pruebas de contraste de hipótesis para escoger. La selección de la prueba apropiada depende fundamentalmente de dos factores:
de la naturaleza de la pregunta de investigación que se pretende responder y del tipo de
variables implicadas en el estudio.
La lógica de un contraste de hipótesis es idéntica en todas las pruebas y se basa
en la división de la distribución muestral del estadístico en dos zonas mutuamente
excluyentes: una zona de aceptación y una zona de rechazo. En la figura 14 se muestra la ubicación de la zona de aceptación y de rechazo de un estadístico con distribución muestral normal. La zona de aceptación es aquella área de la distribución que
corresponde a valores del estadístico compatibles con la afirmación de la H 0 • Por el
contrario, la zona de rechazo es aquella área de la distribución que contiene valores
del estadístico de contraste incompatibles con la afirmación de la H 0 •
Cuando se aplica la prueba de contraste con los datos de la muestra se obtiene
un valor del estadístico. De esta manera, la hipótesis es rechazada si el valor del estadístico obtenido en la prueba de contraste toma un valor que cae dentro de la zona
de rechazo. Como se ha expuesto en el epígrafe anterior, esta zona ocupa el 5 % de
la distribución del estadístico (porcentaje de error que se asume al poder rechazar la
H 0 por error). En consecuencia, el 95 % restante de la distribución corresponde a
la zona de aceptación. Esta zona de aceptación es lo que se llama nivel de confianza
de la prueba, o lo que es lo mismo, la probabilidad de no rechazar la H 0 cuando esta
es cierta. Por el contrario, si el estadístico de contraste toma un valor que cae en esta
zona de aceptación se mantiene la H 0, dado que el error que se cometería al rechazarla sería superior al error tipo I o nivel de significación.
Una revisión exhaustiva de los diferentes tipos de técnicas sobrepasaría el objetivo
del presente texto, por lo que en los apartad~s siguientes se presenta tan solo una
revisión de las pruebas de contraste más utilizadas en la literatura.
1262]
~I ÉT01)0S Y TÉ CNICAS PARA L,\ INV ESTI GACIÓ N DEL COMPORTAMIE NTO INFORMACION A L
Figura 14 . Zona de aceptación (lisa) y rechazo (rallada) de un estadíst ico de contraste con
distribuc ión muestra! normal
T de Student
En el caso de un d isefio ele g rupos ind ependi entes, la prueba de t de Stud ent se uti liza
para va lorar si ex isten d iferencias en las puntuaciones medi as de dos grup os de individuos, sien do necesario qu e la var ia ble cuan tit ativa esté medida en enca la de int erva lo o razón. Esta p rueba esta dí stica se utili za ría por ejempl o si se qui sieran valo rar
las diferencias en la media de edad de los ped iatras que usan webs profes ionales como
recurso para esta r a l día y aq ue llos pedi at ras que no las usa n.
Si la situació n que se p lantea es va lorar la dif eren cia de medi as en una var iable
cua ntit at iva med id a en esca la de inter va lo o de razón en dos m om ento s tem por ales
diferentes, se uti lizaría la versió n de t d e Student para medidas repetidas. Sería el caso
de va lora r el grado de co noc imiento sobre un a materia (pu ntu ac ión en un exa m en)
ante s y después de una ac ti vidad de formación.
Análisis de la variancia (AN O \/A)
El ANOVA, al igua l que la prueba de t de Stude nt , permit e estud iar las d ifere ncias de
medias entr e grupos . La diferencia funda ment a l entr e am ba s téc n icas es que el ANOVA
permite comparar las medias de más de dos gru pos a l mismo tiempo y presenta una
mayor flexibilidad en lo que se refiere a su capacidad pa ra asu mi r diferente s tipos de
disefios. Por ejemp lo, el ANOVA de un factor se util iza para comparar las d iferenc ias
de medias entre los diferentes niveles de una var iab le ind epen di ente. No obstante, el
ANOVA p ermit e amp liar el número de vari ables independientes
en el aná lisis, por lo
que podemo s ha bla r de un ANOVA de dos factores o ANOVA mu ltifa ctor ia l (más de
10. ANÁLISISDE DATOSCUANTITATIVO
1263]
dos factores). Este tipo de diseño permitirá valorar los efectos principales de cada
variable independiente así como la posible interacción entre dos o más variables
independientes. Esta prueba también admite un diseño de grupos independientes, de
medidas repetidas o bien, un diseño mixto, donde una variable independiente valora
grupos independientes y otra, medidas repetidas.
Chi cuadrado
La prueba de chi cuadrado compara dos variables cualitativas medidas en escala
nominal o ordinal. Se basa en la comparación de las frecuencias observadas con
las frecuencias teóricas que se esperaría observar en caso de no existir relación entre las variables (en caso de que la H 0 fuese cierta). Cuanto mayor es la diferencia
entre las frecuencias observadas y las esperadas, mayor será el valor del estadístico
chi cuadrado y mayor probabilidad de que esa relación pueda observarse también
en la población. Dicho de otra manera, cuanto mayor sea el estadístico, más alejado
estará de la zona de aceptación, por lo que podrá rechazarse la H 0 y afirmar que las
variables están relacionadas.
Regresión
La regresión es un método que permite estimar o predecir los valores de una variable
dependiente dados los valores de una (regresión simple) o más (regresión múltiple)
variables independientes. Como variables independientes debemos considerar aquellas que pueden ser manipuladas por el investigador con el objetivo de observar su
efecto en la variable dependiente. La variable dependiente es aquella que se pretende
medir y presumiblemente tomará valores en función de la o las variables independientes por las que esté influida. En la regresión las variables deben ser cuantitativas
medidas en escala de intervalo o razón, aunque es posible incluir variables cualitativas dicotomizadas como variables independientes.
Para poder predecir los valores de una variable es necesario que exista relación entre la variable dependiente y la independiente. Si se observa que las variables tiempo
de conexión a Internet a partir de un dispositivo móvil y la edad están relacionadas,
el siguiente paso que puede interesar es predecir el número de horas que pasará conectado (variable dependiente) por término medio un sujeto en función de su edad
(variable independiente). La capacidad de la predicción del modelo dependerá de la
intensidad de la relación que se observe entre las variables. No obstante, el mayor
interés de la regresión radica en su versión múltiple, dado que permite construir modelos capaces de explicar una variable dependiente. En este sentido, la regresión múltiple permite conocer el efecto de cada una de las variables independientes sobre la
[264]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO
INFORMACIONAL
variable dependiente que se esté valorando. En el ejemplo anterior, variables como
la edad, el nivel de estudios, el género o el nivel de ingresos pueden estar relacionadas con el tiempo de conexión a Internet. A partir de la regresión múltiple se puede
llegar a conocer el efecto de cada una de esas variables (cuál de ellas tiene una mayor
influencia) sobre la variable tiempo de conexión.
10.4.2.2.
CUESTIONES DE INTERÉS PARA UNA CORRECTA INTERPRETACIÓN
DE LOS RESULTADOS
La historia de la estadística y, en concreto, de la inferencia estadística no está exenta
de interesantes disputas entre autores, malas interpretaciones e incluso errores en la
valoración y en el comentario de los datos. Para una correcta interpretación de los
resultados es importante tener en cuenta una serie de cuestiones. A continuación,
se recogen algunos de los puntos más polémicos y a veces olvidados a la hora de
interpretar los resultados de un estudio. Para una revisión más profunda de estos
conceptos se recomienda al lector la obra de Good y Hardin (2006) sobre los errores
más comunes en estadística.
Grado de significación
Es habitual que en los artículos científicos se indique, por un lado, el nivel de significación (error tipo I que se asume al realizar el contraste) y, por otro, el grado de
significación de cada uno de los estadísticos de contraste. La prueba de contraste
de hipótesis asume que la hipótesis nula es cierta en la población y calcula la probabilidad de que sea así también en la muestra. Esta probabilidad obtenida es la
probabilidad asociada al valor del estadístico obtenido en la prueba de contraste y
es lo que se llama grado de significación. Así, este grado de significación indica la
probabilidad de error al rechazar una hipótesis nula cierta a partir de los datos de
la muestra. De esta forma, si el grado de significación es menor al nivel de significación (por ejemplo, fijado al 5 % ), se podrá rechazar la hipótesis nula, dado que el
error tipo I que se cometerá será menor que el fijado a priori por el nivel de significación. En estos casos, se dice que el contraste es estadísticamente significativo, es
decir, la hipótesis nula es rechazada y se afirma que existe un efecto en los datos. Un
inconveniente del grado de significación es que está condicionado al tamaño de la
muestra. Muestras grandes se asocian a grados de significación más pequeños, con
lo que la probabilidad de rechazar una hipótesis nula aumenta, aunque el efecto
que se esté estudiando sea pequeño.
10. ANÁLISISDE DATOSCUANTITATIVO
[2651
Comparaciones múltiples
La mayoría de investigaciones no hacen uso de un único contraste estadístico, sino
que aplican diferentes pruebas de contraste para valorar sus hipótesis. Sin embargo,
tal como se ha expuesto en los epígrafes previos, el nivel de significación implica que
existe la probabilidad de un 5 % de rechazar una hipótesis nula cierta por error cuando se realiza un contraste estadístico. Por esta razón, si se realiza más de un contraste
con los mismos datos, la probabilidad de encontrar un resultado estadísticamente
significativo por azar (rechazar la hipótesis nula) aumentará. Por ejemplo, si en un
estudio se realizan seis contrastes estadísticos, en realidad existe una probabilidad de
0,3 de que alguno de ellos sea estadísticamente significativo por azar. Por ello, deben
escogerse técnicas estadísticas que minimicen el número de contrastes a realizar o
bien disminuir el nivel de significación (por ejemplo, pasar de un 5 % a un 1 %). En
la práctica, el método más simple, aunque también más conservador, es utilizar la corrección de Bonferroni. Esta corrección se basa en dividir el nivel de significación por
el número de contrastes realizados. En este caso, el nivel de significación corregido
sería 0,008 (resultado del cociente 0,05/6) y debería ser utilizado como valor límite
para determinar si un contraste es estadísticamente significativo o no.
¿Significación estadística o diferencia significativa?
Existen múltiples estudios publicados con contrastes estadísticamente significativos que
presentan una significación práctica nula. Que un contraste sea estadísticamente significativo, es decir, se rechace la hipótesis nula porque el grado de significación sea menor
que el nivel de significación seleccionado no quiere decir que la diferencia encontrada
entre los grupos sea relevante. En última instancia el investigador debe preguntarse si
los resultados encontrados tienen alguna relevancia en el mundo real. Por ejemplo, que
la diferencia en la edad de dos grupos de individuos sea de 27 y de 32 años ¿tiene alguna repercusión práctica para el fenómeno estudiado? La diferencia encontrada puede
ser estadísticamente significativa pero carecer de sentido y utilidad práctica.
Esto no quiere decir que la significación estadística sea irrelevante. Al contrario, la
significación estadística es esencial para determinar si la probabilidad de un resultado
se ha producido por azar o bien indica un verdadero efecto que está presente en los
datos.
Tamaño de muestra
Tal como se ha indicado cuando se ha expuesto el grado de significación, se debe
tener en cuenta que el tamaño de muestra influye en la probabilidad de hallar un
(266]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL
resultado estadísticamente significativo. Mientras que utilizar un tamaño de muestra
grande aumenta la posibilidad de rechazar la hipótesis nula, aun cuando la discrepancia entre los datos teóricos y empíricos sea muy pequeña, utilizar un tamaño muestral
pequeño puede dificultar rechazar una hipótesis nula, aún cuando esta discrepancia
entre los datos sea relevante. Esto implica que es importante a la hora de plantear la
investigación determinar a priori el número de sujetos que deberían estudiarse. Existen múltiples métodos para determinar el tamaño de muestra apropiado para realizar
un estudio, fundamentalmente la elección de uno u otro depende del número y del
tipo de contraste estadístico que se pretenda ejecutar.
Tamaño del efecto
El tamaño del efecto es una medida que en parte viene a resolver el problema planteado en los epígrafes anteriores y en la actualidad es aceptada como el complemento necesario cuando se realiza una prueba de contraste de hipótesis. El tamaño del
efecto ha sido definido de diferentes formas, aunque quizá la explicación más sencilla
e intuitiva es la propuesta por Cohen (1992), quien la define como el grado en que
la hipótesis nula es falsa. Otra manera habitual de referirse al tamaño del efecto es
en términos de variancia explicada. En este sentido, el tamaño del efecto indica la
proporción de variabilidad que puede ser explicada en la variable dependiente y que
puede ser atribuida a la variación de la variable independiente (Sheskin, 2003 ). El
tamaño del efecto es sumamente útil, dado que proporciona una medida objetiva de
la importancia del efecto hallado en los datos.
Cada prueba de contraste tiene asociada su propia medida de tamaño del efecto,
aunque todas las medidas tienen en cuenta para su cálculo el tamaño de la muestra
y el estadístico obtenido en la prueba de contraste. La ventaja clara del tamaño del
efecto respecto al grado de significación estadística es que se trata de una medida
estandarizada y permite comparar los efectos que se han encontrado en diferentes estudios y a partir de distintos estadísticos de contraste. Por lo cual, permite comparar
la magnitud de las discrepancias halladas por diferentes estudios (valorar si estas son
grandes o pequeñas) y en consecuencia de la relevancia de esta discrepancia. Cohen
(1988, 1992) propone una clasificación de la magnitud de tamaño del efecto para las
pruebas de contraste. En términos generales, se acepta que medidas de tamaño del
efecto capaces de explicar un 1 % del total de la variancia de la variable dependiente tendrían un efecto pequeño, aquellas capaces de explicar al menos un 9 % de la
variancia de la variable dependiente, un efecto moderado y, si se logra explicar por
encima de un 25 % la variabilidad de la variable dependiente, se hablaría de una
magnitud del tamaño del efecto importante.
10. ANÁLISISDE DATOSCUANTITATIVO
12671
Potencia estadística
La potencia de una prueba hace referencia a la capacidad de un contraste estadístico
para rechazar una hipótesis nula falsa. En otras palabras, la potencia de una prueba
hace referencia a la probabilidad de encontrar un resultado estadísticamente significativo cuando en realidad existe un efecto. A mayor poder estadístico de una prueba
mayor es la probabilidad de encontrar significación estadística si la hipótesis nula es
falsa. La potencia estadística depende de tres factores: del tamaño de muestra, del
nivel de significación escogido (0,05 o 0,01) para decidir si un contraste es estadísticamente significativo o no y del tamaño del efecto (la magnitud de las diferencias de
medias entre los grupos).
Se aconseja que la potencia estadística de una prueba no sea inferior a 0,8 con el
fin de evitar cometer un error tipo 11 (Cohen, 1988). La potencia estadística puede
calcularse antes de iniciar el estudio, por lo que puede determinarse el tamaño de
muestra necesario para alcanzar una potencia mínima, en base al nivel de significación escogido y el tamaño del efecto que se prevé conseguir. Sin embargo, es habitual
que por diferentes motivos no se logre el tamaño de muestra o bien que el tamaño
de efecto sea inferior al esperado, por lo que se deberá tener en consideración la
potencia real para poder detectar diferencias entre los grupos. Este hecho es particularmente importante cuando se interpretan resultados de un estudio en el que no se
han encontrado diferencias estadísticamente significativas, porque es posible que las
diferencias estadísticamente significativas existan, aunque la potencia del contraste
sea insuficiente para detectarlas.
10.5. RESUMEN
En este capítulo se han presentado los conceptos básicos para llevar a cabo un análisis cuantitativo de los datos. Un aspecto fundamental para proceder con el análisis es
la definición del tipo de variable y su escala de medida. Esta definición de la variable
condiciona el tipo de análisis que posteriormente se podrá realizar. No obstante, es
sumamente importante antes de pasar al análisis asegurarse de la corrección de los
datos. Estos deben ser revisados antes y después de ser introducidos en la base de
datos. El objetivo es asegurarse de que no se han cometido errores en el proceso. Los
errores en los datos pueden llevar a resultados contradictorios y por supuesto invalidar la investigación. En algunas ocasiones, se requerirá que los datos sean transformados en categorías o bien en otras escalas de medida. En este sentido, cada estudio
tendrá unos requisitos propios en función del tipo de datos que trabaje. Un paso obligado en cualquier análisis de datos es el análisis descriptivo. Este tipo de análisis per-
[268]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL
mite, por una parte, estudiar el comportamiento de las variables (presencia de valores
extremos, asimetría, etcétera) y, por otra, resumir a partir de indicadores o representaciones gráficas la información que aportan las variables. La inferencia estadística
permite generalizar los hallazgos obtenidos a partir de muestras, a la población general. Fundamentalmente, existen dos procedimientos para llevar a cabo un análisis
de inferencia estadística: la estimación de parámetros y el contraste de hipótesis. En
el primer caso el conocimiento de la población se consigue a partir de la información
que se ha obtenido en una muestra. En el segundo, el proceso requiere formular una
afirmación sobre la población para posteriormente comprobar si esta afirmación puede ser mantenida a partir de los datos muestrales. El proceso de contraste de hipótesis
se realiza mediante estadísticos o pruebas de contraste. Se han presentado algunas
de las principales pruebas más utilizadas en la literatura: chi cuadrado, t Student,
ANOVA y regresión. Por último, se han tratado algunos aspectos importantes para la
correcta interpretación de los resultados de un análisis inferencia!, como la influencia
del tamaño de muestra, el número de contrastes que se utilizan en un estudio o la
importancia de valorar la significación práctica de los resultados obtenidos.
CAPÍTULO II
ANÁLISISDE DATOS CUALITATIVO
11.1. INTRODUCCIÓN
Bernard y Ryan (2010) definen el dato cualitativo como aquel que resulta de la reducción de los pensamientos de las personas, conducta, emociones, artefactos, entornos
sonoros, palabras o imágenes y que nos llega de cinco formas distintas: como objetos
físicos, imágenes fijas, sonidos, imágenes en movimiento y como palabras escritas. La
fuente de estos datos cualitativos puede ser una serie de entrevistas a un conjunto de
usuarios donde se indaga sobre sus experiencias mediante el uso de una interfaz para
el acceso a una base de datos. Pero también son una fuente de datos cualitativos los
documentos generados en una organización y que analizamos tratando de entender
los flujos de información de esa organización.
Bogdan y Biklen (1982) definen el proceso de análisis de datos cualitativos como
un proceso de búsqueda sistemática y organización de las transcripciones de entrevistas, las notas de campo y otros materiales que el investigador recopila para aumentar
su propia comprensión y presentar lo que ha descubierto a los demás. El análisis consiste en trabajar con los datos, su organización, la división en unidades manejables,
la síntesis, la búsqueda de patrones, el descubrimiento de lo que es importante y la
decisión de lo que se comunicará a los demás.
Existen diversas tradiciones en el modo de abordar el análisis de datos cualitativos y
es una materia que dista mucho de estar tan sistematizada como el análisis cuantitativo.
Una clasificación de los distintos tipos de análisis cualitativo es la de Ryan y Bernard
(2000), que, en la línea de Tesch (1990) y centrándose en el texto como dato cualitativo, distinguen dos tradiciones (cuadro 40). Una tradición arraigada en la sociología que
trata el texto como un medio de acceder a la experiencia humana y otra, que se enmarca en la tradición lingüística, que aborda el texto como objeto de análisis en sí mismo.
En la consideración del texto como ventana a la experiencia de la tradición sociológica, además se distingue entre aquellas técnicas que analizan el texto obtenido
[270]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL
Cuadro 40. Clasificación y definición de las técnicas de análisis cualitativo de textos
(síntesis de Ryan y Bernard, 2000; Bernard, 2006; Bernard y Ryan, 2010)
A) TRADICIÓN SOCIOLÓGICA. EL TEXTO COMO VENTANA A LA EXPERIENCIA
1. Elicitación sistemática
• Análisis componencial: es una técnica formal, cualitativa para el estudio del significado. Tiene dos objetivos:
(1) especificar las condiciones en que un hablante nativo de una lengua nombra algo (como una planta, un
pariente, un coche) con un término en particular y (2) comprender el proceso cognitivo por el cual los hablantes nativos deciden, de los posibles, el término que debe aplicarse a una cosa en particular (Bernard, 2006).
• Taxonomías: su objetivo es capturar la estructura jerárquica de un conjunto de términos y por lo general
se muestran como diagramas de árbol ramificado (Ryan y Bernard, 2000). Representan el modo en que
las personas en diferentes grupos culturales organizan su conocimiento en el mundo natural (Bernard y
Ryan, 2010).
• Mapas mentales: son representaciones visuales de las similitudes entre ítems, sean o no los elementos organizados jerárquicamente (Ryan y Bernard, 2000).
2. Texto libre
• Palabras
- Kw1c (palabras clave en contexto): es una lista de las palabras sustantivas de un texto asociadas con su
oración para determinar el contexto en que esa palabra es utilizada (Ryan y Bernard, 2000).
- Recuento de palabras: tiene como objetivo descubrir patrones de ideas en cualquier corpus textual, sea
la información recogida a través de preguntas abiertas o a través de las notas de campo.
- Redes semánticas: más allá del recuento de palabras, examina las relaciones entre palabras a través de
un conjunto de textos. Los textos que comparten muchas palabras -y las personas u organizaciones
que producen las palabras- son más similares entre sí que los textos que comparten pocas palabras
(Bernard y Ryan, 2010).
- Mapas cognitivos: combinan la intuición de los codificadores humanos con los métodos cuantitativos de
análisis de redes (Ryan y Bernard, 2000).
• Códigos
- Teoría fundamentada: trata de entender las experiencias de la gente de la forma más rigurosa y detallada
posible. Pretende identificar las categorías y conceptos que emergen del texto y vincularlos en teorías
sustantivas y formales (Ryan y Bernard, 2000).
- Análisis de esquemas: combina elementos de las tradiciones lingüísticas y sociológicas. Se basa en la
idea de que la gente debe utilizar simplificaciones cognitivas para ayudar a dar sentido a la información
compleja a la que está constantemente expuesta. Desde un punto de vista metodológico es similar a la
teoría fundamentada. En ambos casos se comienza con una lectura cuidadosa de los textos, palabra por
palabra, tratando de descubrir y vincular los temas a modelos teóricos (Ryan y Bernard, 2000).
- Análisis de contenido clásico: comprende diversas técnicas para reducir el texto a una matriz unitaria
por variable y el análisis de esa matriz cuantitativa para probar una hipótesis (Ryan y Bernard, 2000).
- Diccionarios de contenido: están basados en el uso de ordenador, puesto que consisten en la automatización de la codificación de textos. Para construir los diccionarios, los investigadores asignan palabras
manualmente a una o más categorías de acuerdo con un conjunto de reglas. Las reglas son parte de un
software que analiza los nuevos textos, asignando palabras a las categorías (Ryan y Bernard, 2000).
- Inducción analítica: tiene como objetivo la construcción de explicaciones causales de los fenómenos a
partir de un minucioso examen de los casos. El método comprende los siguientes pasos: ( 1) Definir un
fenómeno que requiere explicación y proponer una explicación. (2) Examinar un solo caso para ver si
la explicación se ajusta. (3) Si lo hace, a continuación, examinar otro caso. La explicación es aceptada
hasta que un nuevo caso demuestre que es falsa (Bernard, 2006).
- Modelos de decisión etnográfica: se trata de un análisis causal que predice las opciones de comportamiento en determinadas circunstancias. A menudo se representa como un árbol de decisión o diagrama
de flujo que comprende una serie de condiciones anidadas (Ryan y Bernard, 2000).
B) TRADICIÓN LINGÜÍSTICA. EL TEXTO COMO OBJETO DE ANÁLISIS
• Conversacional o del discurso: es el estudio de la gramática más allá de la frase, el lenguaje en uso y la
retórica del poder (Bernard y Ryan, 2010).
• Narrativo: se centra en las estructuras de las narrativas buscando regularidades en cómo las personas, en
una cultura o entre culturas, cuentan historias (Bernard y Ryan, 2010).
11. ANÁLISISDE DATOSCUALITATIVO
[271]
por medio de técnicas de obtención de información como entrevistas (elicitación sistemática) y aquellas que parten del texto libre no generado ad hoc (texto libre). En
este último caso, además se distinguen aquellas técnicas orientadas a la reducción del
texto a palabras y aquellas orientadas a la traducción de palabras en códigos. En el
cuadro 40 se presenta la clasificación de las técnicas de análisis cualitativo de textos
junto con la definición que dan de cada una de ellas Ryan y Bernard (2000), Bernard
(2006) y Bernard y Ryan (2010).
El uso de algunas de las técnicas incluidas en esta clasificación, en el contexto
del estudio del comportamiento informacional, es nulo o meramente testimonial.
Por el contrario, otras como el análisis de contenido o la teoría fundamentada son
frecuentemente utilizadas. En el presente capítulo se describirán los fundamentos
de ambas, así como ejemplos de aplicación al estudio de los distintos aspectos del
comportamiento informacional. Otros textos pueden servir como referencia para el
estudio, en el contexto de la información y documentación en general, del análisis
del discurso (Frohmann, 1994), narrativo (Gazan, 2005) o conversacional (Solomon, 1997).
11.2. ANÁLISIS DE CONTENIDO
11.2.1. Definición
El análisis de contenido (AC) es definido por Piñuel Ragada (2002) como el conjunto de procedimientos interpretativos de productos comunicativos (mensajes, textos
o discursos) que proceden de procesos singulares de comunicación previamente registrados, y que, basados en técnicas de medida, a veces cuantitativas (estadísticas
basadas en el recuento de unidades), a veces cualitativas (lógicas basadas en la combinación de categorías), tienen por objetivo elaborar y procesar datos relevantes sobre
las condiciones en que se han producido aquellos textos, o sobre las condiciones que
puedan darse para su empleo posterior. Este epígrafe se centra en el análisis de contenido cualitativo, que es definido por Mayring (2000) como una aproximación empírica y metodológica al análisis de textos en su contexto de comunicación siguiendo
unas reglas analíticas de contenido sin cuantificación.
Por lo tanto, tal y como muestra la definición de la técnica, generalmente se
distingue entre análisis de contenido clásico, de orientación cuantitativa, y análisis
de contenido cualitativo. Son dos extremos que en la práctica no tienen por qué ser
excluyentes. Algunas de las características de uno y otro son las que figuran en la
tabla 31.
1272]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO
INFORMACIONAL
Tabla 31. Características del análisis cuantitativo frente al cualitativo
(adaptado de Zhang y Wildemuth, 2005; White y Marsh, 2006)
Análisisde contenido cuantitativo
Análisis de contenido cualitativo
Antropología, sociología cualitativa
Origen y desarrollo
Comunicación
Muestreo
Producto
Codificación
y categorización
Probabilístico
Datos tratados estadísticamente
No probabilístico
Descripciones
Previo al análisis
Se construye según emerge de los datos
y psicología
En primer lugar, el análisis de contenido cuantitativo tiene su origen en el ámbito de la comunicación como forma de poner de manifiesto los elementos textuales,
mientras que el cualitativo se desarrolló principalmente en la antropología, la sociología cualitativa y la psicología, con el fin de explorar los significados subyacentes de
los mensajes.
En segundo lugar, respecto al modo de seleccionar los datos, el AC cuantitativo
lo hace con procedimientos probabilísticos para asegurar que los resultados sean
representativos y generalizables, además la selección de los datos se hace previamente
al análisis. Por el contrario, el AC cualitativo pretende mostrar una imagen rica en
detalle, basada en la comprensión de los fenómenos bajo los propios términos de
quien los narra y por lo tanto parte de un muestreo no probabilístico y, en ocasiones,
la selección de datos y el análisis corren paralelos.
En tercer lugar, el AC cuantitativo produce datos tratados estadísticamente, mientras que el AC cualitativo genera descripciones o tipologías que son el resultado de la
interpretación de una realidad.
Por último, en el AC cuantitativo las pautas de categorización y codificación se
construyen a priori y pueden provenir de otros estudios; por el contrario en el AC
cualitativo el esquema de codificación emerge de los datos analizados.
Como ya se ha dicho, ambos extremos no tienen por qué ser excluyentes ni sus
particularidades exclusivas de uno u otro enfoque. Por esa razón en este texto se
describe el AC desde el punto de vista de la investigación cualitativa pero integrando
un enfoque inductivo y deductivo. El primero basado en la obtención de categorías a
partir del texto, el segundo basado en la correspondencia de categorías predefinidas
a las unidades de análisis (figura 15). Existen numerosos textos, como los de Weber
(1985), Bardin (1986) o Krippendorff (2004), que pueden ser utilizados como referencia para completar la visión del AC que aquí se ofrece desde la perspectiva de una
explotación de los datos más cuantitativa.
12731
11. ANAI.IS IS DE DATOS CUA LITAT IVO
Figura 15. Proceso de análisis de conte nido cuali tat ivo (adaptado de Elo y Kyngas, 2008)
Obtención/Selección
datos
de
Unidades de registro y
contexto
Deductivo
Inductivo
Esquema de
codificación
Codificación
abierta
-----'-----
signación de códigos
y categorías
Categorización
Evaluación del
proceso y
resultados
Interpretación
delos
resultados
Asignación de
códigos y
cate orías
1274)
.MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO
INFORMACIO~AL
11.2.2. Proceso de análisis de contenido
I I .2.2. I.
ÜBTENCIÓN
Y/O SELECCIÓN DE LOS DATOS
Los datos que son susceptibles de ser analizados por medio del análisis de contenido
son todos aquellos que se presentan en forma de texto o que pueden ser transformados en texto. En el ámbito del comportamiento informacional, el AC cualitativo se ha
utilizado en el análisis de diversos tipos de datos. Por ejemplo, Wang y Soergel (1998),
Wang y White (1999) y Sairanen y Savolainen (2010) utilizan esta técnica para el
análisis de los resultados de entrevistas. En el caso del estudio de Radford (1998)
el AC es la estrategia utilizada para el análisis de los resultados de las observaciones
estructuradas. Marsh y White (2003) lo utilizan para el análisis de imágenes mientras
que Haas y Grams (2000) para el análisis del contenido de páginas web. Por último,
Green ( 1991) desarrolla esta técnica para el análisis de los abstraer de la literatura
especializada en información y documentación.
En general, los datos para un análisis de contenido pueden provenir de un proceso
de observación o entrevista cuyos resultados se han transcrito. Igualmente estos datos
pueden ser una serie de textos no elaborados ad hoc como por ejemplo un análisis
de prensa escrita o el análisis de las palabras clave asignadas a una colección de documentos. En definitiva, el corpus que va a ser objeto de análisis puede simplemente
recopilarse, en caso de que exista con independencia de la investigación, o bien puede
producirse a través de un proceso de recogida de información por medio de cualquier
técnica de investigación social (Navarro y Díaz, 1994).
En cualquier caso, la selección del texto para su análisis vendrá determinada por
el diseño de la investigación. No obstante, si el objetivo es conseguir la representatividad de resultados, será necesario un muestreo probabilístico. Por el contrario,
si lo que se busca no es la representatividad, sino lograr la riqueza y variedad de
incidentes que nos den la imagen rica en detalle de una realidad, la selección del
material se realizará a través de un muestreo no probabilístico, por ejemplo detectando los casos más típicos, homogéneos, extremos o cualquiera de las estrategias
del muestreo intencional, tal y como se ha descrito en el capítulo 2. A este respecto
y conforme a la óptica de la investigación cualitativa, es posible también realizar
de forma paralela la selección y análisis de la información, en la línea del muestreo
teórico, propio de la teoría fundamentada.
I I ,2,2,2,
DETERMINACIÓN DE LAS UNIDADES DE ANÁLISIS. UNIDADES DE REGISTRO Y CONTEXTO
El siguiente paso en el AC, tras la recopilación y/o producción del texto objeto de análisis, es determinar las unidades básicas que constituirán los ítems que el investigador
11. ANÁLISISDE DATOSCUALITATIVO
[275]
extraerá de los textos a analizar. Estas unidades básicas son las unidades de registro
y las unidades de contexto.
Las unidades de registro son el elemento básico a partir del cual se realizará el
análisis del texto. Cada una de ellas debe corresponder a un aspecto del conjunto de
textos considerado relevante en la investigación. Bardin (1986) distingue las siguientes unidades de registro:
<11111
<11111
<11111
<11111
<11111
<11111
Palabra: se pueden tener en cuenta todas las palabras de un texto o simplemente aquellas que son claves para la investigación.
Tema: se trata de enunciados significativos cuya presencia, ausencia o cualquier otro tipo de indicador transmite un mensaje relevante.
Objeto o referente: se trata de un tema que supone el eje argumental a través
del cual se realiza el análisis.
Personaje: el actor que aparece en el texto.
Acontecimiento: por ejemplo, en el caso de relatos o narraciones, las unidades
de registro pueden ser los acontecimientos que ocurren en esa narración.
Documento: se refiere a un texto en concreto o la respuesta a la pregunta abierta de una entrevista.
Con relación a qué tipo de unidades de análisis son las más adecuadas, todo
dependerá de los objetivos de la investigación. A este respecto, Hernández Sampieri
y otros (2010) hacen algunos apuntes, como, por ejemplo el que en un estudio sea
posible seleccionar más de una unidad de análisis. Igualmente afirman que aquellas
unidades menos concretas como el personaje o el acontecimiento requerirán menos
tiempo de análisis y codificación que si la unidad seleccionada es la palabra o el tema.
La información que aportan las unidades de registro deben completarse con el
significado que aporta, por ejemplo, el lugar en el texto en el que aparecen con vistas
a determinar sus coocurrencias con otras unidades, o bien su relación con información más allá del texto que tenga que ver con su producción (autores, circunstancias,
etcétera) (Navarro y Díaz, 1994). Es decir, además de las unidades de registro, es
necesario definir las unidades de contexto.
La unidad de contexto es la unidad de comprensión para codificar la unidad de
registro y corresponde al segmento del mensaje cuyo tamaño es óptimo para captar
la significación exacta de la unidad de registro (Bardin, 1986). Navarro y Díaz (1994)
afirman que las unidades de contexto pueden definirse siguiendo dos criterios: un
criterio textual o un criterio que va más allá del texto. Respecto al primero, es posible
definir la unidad de contexto con relación a alguna característica sintáctica, semántica o pragmática de la unidad de registro. Por ejemplo, una unidad de contexto puede
ser la frase para la palabra o el párrafo para el tema. Pero también, es posible definir
[276]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL
la unidad de contexto siguiendo criterios que tienen que ver con la producción del
texto, por ejemplo el autor de dicho texto.
I 1.2,2,J,
ANÁLISIS
Una vez establecidas las unidades de registro y de contexto a partir de las que realizar
el AC, la siguiente fase consiste en la codificación y categorización de los datos. Existen dos enfoques en esta fase, uno inductivo que realiza el procedimiento fundamentándolo en los propios datos analizados y otro deductivo que parte de presupuestos
previos.
A) Enfoque inductivo
Una aproximación inductiva al análisis de contenido se fundamenta en la revisión de
los datos dispuestos para tal fin y se plantea cuando no existe un conocimiento previo
sobre el ámbito de estudio o si este conocimiento previo está muy fragmentado (Elo
y Kyngas, 2008).
El proceso de análisis con un enfoque inductivo parte de la lectura y revisión detallada del texto en busca de unidades de significado, asignándoles códigos para su
diferenciación. Esta tarea se realiza en todo el material a la vez que se van generando
reglas de codificación que contienen los criterios por los que, a una determinada
unidad de análisis, se le asigna determinado código. Se trata de un proceso de codificación abierta donde el significado de las distintas unidades de análisis determina la
asignación de códigos. El cuadro 41 presenta la codificación de dos textos obtenidos
por medio de entrevistas según la técnica del incidente crítico. Se trata de la respuestas de estudiantes universitarios a la pregunta:
En el contexto de tu vida en la universidad, relata un problema que tuviste, para cuya
resolución hubieras necesitado más información que la que tenías en ese momento y describe qué hiciste, si buscaste la información que necesitabas y dónde la buscaste.
El texto resultante relata dos incidentes distintos que constituyen la unidad de
contexto. Cada uno de ellos posee diversas unidades de registro que pueden ser lapalabra, la frase o el párrafo. A cada una de esas unidades de registro se le ha asignado
un código según su significación.
Tras el proceso de codificación abierta, los códigos que van surgiendo deben agruparse para formar categorías de mayor nivel que agrupen las unidades identificadas
en el proceso de codificación. El propósito de la creación de categorías es proporcionar un medio de describir el fenómeno, aumentar la comprensión y propiciar la gene-
(277]
11. ANÁLISISDE DATOSCUALITATIVO
Cuadro 41. Ejemplo de codificación en el análisis de contenido
e~~~:r:
coámprar
q:~e:~:::~:s:rd:c~:e:~!~:t~::::::~o:;:::
}b sica. Pero no apunté correctamente los datos, solo sabía el
primer apellido del autor, la editorial y el año. Además el año
era incorrecto, lo que complicó la búsqueda.
Mi primer paso fue ir a una librería que aón no había
abierto así que acudí a la biblioteca para buscar el título
correcto del libro.
Gracias a la búsqueda en el catálogo de la biblioteca
Localizar bibliograf(a
Ubrerfa
Biblioteca
descubrí el nombre completo del autor ya que sólo había un
autor con ese apellido que escribiera sobre Documentación.
Pero tenía dos publicaciones en distintos años y ninguno
Compañero
coincidía con el que yo había apuntado en clase.
Entonces recurrí a un compañero, el cual no supo
decirme el año pero sí parte del título que me aclaraba cuál de
las dos publicaciones me interesaba más para la asignatura.
Tenfa que pedir la beca de Generalltat Valenciana y
necesitaba información de cómo hacerlo. Quise saber la
documentación que pedfan para acceder a ella por lo que ful a la
secretaríade la facultad.Allí me dieronla URLdondepodíabajarme
e imprimirformularlode solicitud.
Paraasegurarmede que realmentehabía que hacerloasí
preguntéa un compañeroque sabíaque lo habfahechoantes.Él me
lo confirmóy entoncesentréen la web.
Al principiotuve problemasy la página no se abría, lo
Intenté más tarde y tampocofuncionaba.Al final tuve que Ir a la
consellerla
paraque me dieranel formularlo.
Solicitud
de beca
Secretaría
Compañero
Web
Accesibilidad
ración de conocimiento (Elo y Kyngas, 2008). La tabla 32 muestra la agrupación de
códigos obtenidos en la codificación abierta del cuadro 41 en tres grandes categorías:
problemas de información, recursos y barreras para obtener la información.
Tabla 32. Agrupación de códigos en categorías en un análisis de contenido
Problemasde información
Localizar bibliografía
Solicitud de beca
Recursos
Librería
Biblioteca
Compañero
Web
Barreras
Accesibilidad
[278]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL
En opinión de Bardin (1986) un buen sistema de categorización es aquel en que
las categorías son mutuamente excluyentes (cada elemento solo puede ser asignado a
una sola categoría), homogéneas (determinadas por un criterio común), pertinentes
para el objetivo de la investigación, objetivas (fragmentos similares deben codificarse
siguiendo las mismas pautas) y productivas, es decir, que aporten algo a la investigación. Por otra parte, puesto que la pregunta de investigación inicial debe guiar el proceso de AC, el sistema de categorías debería desarrollarse conforme a dicha pregunta
de investigación.
Un ejemplo de la correspondencia entre pregunta de investigación y categorías
de análisis lo podemos encontrar en el trabajo de Sairanen y Savolainen (2010), que
tuvo como objetivo estudiar la evitación de la información sobre salud. En concreto,
las peguntas de investigación fueron tres: cuál es el grado de evitación de la información en salud, por qué y qué estrategias se emplean. Para ello se realizaron entrevistas
semiestructuradas con nueve estudiantes de la Universidad de Tampere, escogidos
porque, por una parte, tenían riesgos de salud (agotamiento, depresión, disminución
de la actividad física y mala alimentación), aunque, por otra parte, tenían conciencia
de estar sanos e inmunes a las enfermedades por su juventud. Los resultados de las
entrevistas fueron analizados por medio del AC con un enfoque inductivo. Es decir,
las categorías desarrolladas estaban basadas en los datos y dirigidas a responder a las
tres preguntas de investigación que habían motivado el estudio (tabla 33 ).
Tabla33. Categorías obtenidas por Sairanen y Savolainen (2010) del análisis de contenido
de las entrevistas sobre evitación de información sobre salud
Preguntas de investigación
Categorías
Grado de evitación
Evitación amplia.
Evitación selectiva.
Voluntad de evitar las emociones negativas.
Voluntad de evitar la información que no es adecuada para
las necesidades.
Retirada intencional de las situaciones sociales que podrían
exponer a la información no deseada.
Acceso a fuentes de información de forma selectiva.
Evitación de los profesionales de la salud.
Abstenerse de pensar en los problemas de salud.
Razones para la evitación
Estrategias de evitación
B) Enfoque deductivo
Una aproximación deductiva al AC parte de supuestos previos sobre los aspectos
investigados. Estos presupuestos pueden ser la propia experiencia, investigaciones
11. ANÁLISIS DE DATOSCUALITATIVO
[279]
previas o teorías o modelos previamente establecidos por otros investigadores. En
el caso de una aproximación deductiva, el primer paso consiste en la determinación del sistema de categorización que va a servir como punto de partida al análisis
de la información. A partir de la lectura del texto objeto de análisis, se irán asignando a cada unidad de registro el código y la categoría del esquema previamente
definido.
El estudio de Meho (2001) y Meho y Tibbo (2003) es un ejemplo de esta forma
de proceder en cuanto análisis de contenido con un enfoque deductivo. El principal
objetivo de esta investigación fue explorar y analizar las necesidades de información
y el comportamiento de búsqueda de información de los científicos sociales que se
dedican al estudio de las naciones sin estado. Un segundo objetivo buscaba comparar
y contrastar los resultados con el modelo de comportamiento informacional de los
científicos de David Ellis (1989). Este modelo describe las diferentes conductas observadas en los científicos cuando buscan información (tabla 34).
Tabla 34. Categorías conductuales del modelo de búsqueda
de información de Ellis ( 1989)
STARTING (comienzo)
CHAINING (encadenado)
BROWSING (examen u ojeo)
DIFFERENTIATIN G (diferenciación)
MONITORING (seguimiento o vigilancia)
EXTRACTING (extracción)
La información obtenida por medio de entrevistas en el estudio de Meho fue analizada en una primera fase partiendo de las categorías del modelo de Ellis (1989). Es
decir, las diferentes conductas relacionadas con la búsqueda de información fueron
asignadas a una de las seis categorías conductuales descritas por Ellis. Este planteamiento sigue las pautas de un análisis de contenido en el que el proceso de codificación y categorización posterior parte de un modelo teórico previo y, por lo tanto,
asume un enfoque deductivo.
Pero, tras esta primera fase en la que se adoptó un esquema de codificación previo,
en las siguientes fases se desarrolló un esquema más amplio fundamentado en los
datos y con categorías que describieran con más detalle la información obtenida. Es
decir, un enfoque inductivo. De esta manera, además de las categorías iniciales, del
estudio emergieron cuatro nuevas:
Accesing: acceso a la información previamente localizada.
Verifying: verificación de la exactitud de la información encontrada.
[280]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL
Figura 16. Modelo de comportamiento informacional de Meho (2001)
Starting, Chaining,Browsing,Monitoring
Differentiating,Extracting,Networking
1
Searching
~
.s
Q) Q)
u,
l\1.s .s
m
e
ea>~e:~ ..
·ª
1
.g
:.:: ~-1::!
e: tlS §
~<o;
cSe: .s
~~i
...,, tlS tlS
.s E e:
't3
~ ~
~e~
!,,,;;: r:::'>JI
~
llJ c;:ñ,!::!
-.s
~-S;
.s ~s
.s 'i ~
DirectSources
lndirect Sources
o
z
.5
1
t
Yes
ProceLsslng
..
t
1
~
JAccesing----J
~
0
~ :s CI)
o
¡~
z
Endlng
Networking: estar en contacto con otras personas interesadas en el mismo tema
con el fin de intercambiar información.
lnformation managing: actividades relacionadas con registrar, archivar y organizar la información recopilada.
Además de determinar estas categorías conductuales, Meho las agrupó en cuatro
etapas interrelacionadas, es decir, cada una de esas conductas fue asociada con una
etapa del proceso de búsqueda de información. Las cuatro etapas son las siguientes:
Searching: el periodo en que se identifican los materiales potencialmente relevantes a través de diversos medios.
Accesing: etapa puente entre la búsqueda y procesamiento, especialmente cuando
las fuentes que se utilizan son fuentes de información indirecta.
Processing: se llevan a cabo la síntesis y el análisis de la información recogida.
Ending: etapa final que marca el final del ciclo de investigación de un proyecto.
Este proceso de análisis dio lugar a la construcción de un modelo teórico de comportamiento informacional basado en un modelo previo, el de Ellis, así como en
datos empíricos obtenidos por este investigador (figura 16).
11. ANÁLISISDE DATOSCUALITATIVO
I r.2.2.4.
[281]
CRITERIOS DE CONFIABILIDAD EN EL ANÁLISIS DE CONTENIDO
Los criterios a partir de los cuales se asegura la confiabilidad del AC no difieren de los
expuestos para la investigación cualitativa en el primer capítulo de este libro (credibilidad, transferibilidad, dependibilidad y confirmabilidad). No obstante, en el caso
concreto de esta técnica de análisis, diversos autores como Graneheim y Lundman
(2004), Elo y Kyngas (2008) y Zhang y Wildemuth (2005) ofrecen consideraciones
específicas que hay que observar. Estas se resumen en tres:
~
Se debe establecer una definición clara de los códigos y de las categorías que
van emergiendo o que son consideradas de forma deductiva, así como de los
procedimiento de asignación de estos códigos y categorías para homogeneizar
el proceso de análisis en el caso de que haya más de un investigador.
~ Es posible también determinar el grado de acuerdo entre investigadores respecto a la asignación de categorías con el fin de determinar la validez interna
del proceso.
~ Es necesario demostrar la conexión entre los datos y los resultados a través de
una descripción detallada y transparente de todo el proceso e ilustrada, en la
medida de lo posible, con explicaciones sobre el significado de las categorías
o citas textuales al texto, por ejemplo. Se trata de que quien lo lea entienda
perfectamente cómo transcurrió el proceso y pueda valorar sus fortalezas y
limitaciones.
11.3. TEORÍA FUNDAMENTADA
11.3.1. Introducción
La teoría fundamentada (TF) es un método de análisis de datos cualitativos que
tiene su origen en el trabajo de los sociólogos Barney Glaser y Anselm Strauss, en
concreto en sus estudios sobre la experiencia de la muerte en los hospitales. Esta
investigación tuvo gran impacto en el ámbito de las ciencias sociales y, como respuesta a la curiosidad que había levantado el modo en que la llevaron a cabo, en
el año 1967 publican el libro The discovery of grounded theory. En él presentan
la TF y constituye el primer texto de referencia para su estudio. De acuerdo con
Strauss y Corbin (1998), este libro tuvo tres objetivos: ofrecer un fundamento de
la teoría fundamentada, generada y desarrollada a través de la interacción con los
datos recogidos en los proyectos de investigación, sugerir la lógica y los detalles de
las teorías fundamentadas y legitimizar una investigación cualitativa cuidadosa.
[282]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL
A partir de este momento, la TF se ve secundada por numerosos trabajos, fruto de
las enseñanzas de Glaser y Strauss en los estudios de posgrado. Esto da lugar al
desarrollo de diversas investigaciones centradas, por ejemplo, en la socialización
profesional, los foros de política, los nuevos matrimonios después del divorcio, la
gestión de un embarazo peligroso, la donación de óvulos del ovario entre hermanas,
el abuso conyugal, las experiencias con enfermedades crónicas o el trabajo de los
científicos (Strauss y Corbin, 1998).
Tras esta primera colaboración, ambos autores publicaron nuevos trabajos que
ampliaron las ideas originales sobre la TF. Por una parte, Glaser publica en 1978
Theoretical Sensitivity, donde ahonda en la sensibilidad teórica o la capacidad del
investigador de elaborar conceptos y formular teoría basándose en los datos. Por
otra parte, Strauss publica en 1987 Qualitative analisys for social scientists, donde
profundiza en los procedimientos de la TF. Tras estas primeras publicaciones, ambos investigadores emprenden caminos marcadamente diferentes, hecho motivado
en gran medida por la publicación en 1990 de la primera edición del libro Basics
of Qualitative Research: Grounded Theory Procedures and Techniques, en el que
Strauss y Corbin presentan los procedimientos analíticos de la TF. Como respuesta
a este, Glaser publica Basics of Grounded Theory Analysis: Emergence vs Forcing,
como crítica por haberse apartado, según él, de los principios que inspiraron la TF. En
opinión de Trinidad, Carrero y Soriano (2006), a partir de este momento empieza a
hablarse de dos versiones de la TF: la glaseriana, fiel a los principios de descubrimiento a partir de los datos, y la straussiana, orientada a un trabajo de investigación más
enraizado en la descripción interpretativa que en la construcción de teoría formal
emergente. No obstante, como alternativa a estas primeras versiones de la TF han
surgido otras como por ejemplo la versión constructivista de Charmaz (2006), que
sigue fiel a los principios de esta pero profundizando en el papel del investigador en
el proceso de investigación.
Fruto de esta diversidad de planteamientos surge el primer problema a la hora
de exponer los fundamentos de la TF pues existen diferencias tanto en un nivel superficial, en cuanto al lenguaje empleado y los procesos que se siguen, como en las
asunciones metodológicas que guían estos procesos. No obstante, tal y como afirman
Walker y Myrick (2006) al referirse a las versiones de Glaser y Strauss, existen elementos comunes como la codificación, la comparación constante, las preguntas, el
muestreo teórico y los memos en el proceso de generar teoría. Además, ambas versiones siguen una serie de fases como son reunir datos, codificar, comparar, clasificar, el
muestreo teórico, el desarrollo de una categoría central y la generación de una teoría.
Concretamente, Charmaz (2006), a la vista de los escritos precedentes de Glaser y
Strauss, determina que los componentes definitorios de la TF son los siguientes:
11. ANÁLISISDE DATOSCUALITATIVO
<1111
<1111
<1111
<1111
<1111
<1111
<1111
[283]
Simultaneidad de la recogida y análisis de datos.
Construcción de códigos y categorías analíticas a partir de los datos, no a partir de hipótesis preconcebidas deducidas lógicamente.
Utilización del método comparativo constante, lo que implica la realización de
comparaciones en cada etapa del análisis.
Avanzar el desarrollo de la teoría en cada paso de la recolección y análisis de
datos.
Redacción de memos para la elaboración de categorías, para determinar sus
propiedades, definir las relaciones entre las categorías y determinar las deficiencias.
Muestreo dirigido hacia la construcción de teorías, no hacia la representatividad de la población.
Llevar a cabo la revisión de la literatura después de desarrollar un análisis
independiente.
No es propósito de este texto ahondar en las divergencias y/o similitudes de las
distintas versiones de la TF; para un estudio más al detalle de esta cuestión se aporta
literatura de referencia. Sí lo es hacer hincapié en los procedimientos básicos y en la
aplicación que para el estudio del comportamiento informacional ha tenido o puede
tener la TF.
11.3.2. La teoría fundamentada para el estudio del comportamiento informacional
El enfoque que la TF da a la investigación social ha permitido que, a lo largo de los
últimos años, haya contribuido en gran medida al desarrollo de una base teórica de
los estudios sobre comportamiento informacional. Si en los años ochenta el principal
escollo que debía salvar esta línea de investigación era la falta de una base conceptual
y teórica que fundamentara su consolidación (Wilson, 1994 ), actualmente es posible
afirmar que, en el contexto de la información y documentación, es la línea que posee
mayor desarrollo teórico (McKechnie, Pettigrew y Joyce, 2001) y a ello ha contribuido en parte la TF.
Uno de los primeros desarrollos en este sentido es la teoría de la ansiedad en la
biblioteca (/ibrary anxiety), propuesta por Constance Mellan. El desarrollo de esta
teoría partió de la información proporcionada por estudiantes universitarios sobre
la búsqueda de información en la biblioteca, información recopilada por medio de
diarios personales. Aparte de las cuestiones relacionadas con el proceso de búsqueda,
los estudiantes describían su interacción inicial con la biblioteca en términos de miedo o ansiedad. Las palabras miedo, abrumadora, perdido, impotente, confundido y el
[284)
MÉTODOS Y TÉCNICAS PARALA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL
miedo a lo desconocido aparecían frecuentemente cuando estos estudiantes relataban
sus sentimientos con relación al uso de la biblioteca (Mellon, 1986).
Otro ejemplo de desarrollo de un marco teórico para el estudio del comportamiento informacional es el modelo de recuperación de información de David
Ellis (1993) ya mencionado anteriormente. Este investigador determinó que existen
diversas características en la conducta del individuo cuando busca información
que pueden constituir patrones, más o menos generalizables, y que pueden ser utilizados como recomendación para el diseño y evaluación de sistemas de recuperación de la información. Si estos patrones conductuales se analizan y el sistema
de recuperación es capaz de reflejar esas características, entonces el usuario podrá
reproducir sus propios patrones de búsqueda mientras interactúa con el sistema de
información.
En ambos casos, el proceso de investigación seguido fue inductivo basado en el
análisis de los datos obtenidos. El proceso contrario, desde una óptica deductiva,
habría partido del establecimiento de una serie de hipotéticas categorías inventadas,
supuestas u observadas de forma no sistemática y el proceso de investigación se hubiera dirigido hacia la comprobación de esas categorías. Este planteamiento, en una
fase exploratoria de la investigación, provocaría la perdida de información que, por
partir de supuestos apriorísticos, no se contemplaría recoger en un principio. Por el
contrario, asumir el enfoque de la TF permitió incorporar a la teoría final toda la riqueza de la información proporcionada por los informantes. Pero, además, en ambos
casos el desarrollo teórico no se queda en eso, en teoría, sino que deriva en un modelo
que permite desarrollar estrategias de intervención concretas. En el caso de Mellon,
para el desarrollo de programas de formación de usuarios, en el de Ellis para el diseño
de sistemas de recuperación de información.
Más recientemente, la TF para el estudio del comportamiento informacional sigue
utilizándose, sobre todo en el ámbito de la información en salud, no en vano el origen
de la TF se ubica en ese contexto tal y como se ha descrito anteriormente. Es el caso
del trabajo de Adams y Blandford (2002), que investiga la aceptabilidad de las bibliotecas médicas digitales, el de Embi, Yackel y Logan (2004), que describe el impacto
percibido por los médicos debido a la implantación de un sistema de documentación
computerizado en las actividades docentes y clínicas, o el de McKnight (2007), que
investiga el comportamiento informacional de las enfermeras. Igualmente existen estudios que utilizan la TF en otros ámbitos como el académico, por ejemplo, el trabajo
de Mansourian (2008) que estudia la influencia del contexto en la interacción de los
usuarios con sistemas de búsqueda web. También en el ámbito organizacional como
el trabajo de Correia y Wilson (2001 ), que investiga los factores que influyen en el
escaneado del entorno en diversas empresas. Por último, también existen trabajos
que se centran en el estudio del comportamiento informacional de la vida cotidiana
11. ANÁLISISDE DATOSCUALITATIVO
[2851
como el de Ostrander (2008), que observa la conducta de búsqueda de información
en Second Life.
11.3.3. Elementos básicos de la teoría fundamentada
El objetivo de la TF es generar teoría a partir de los datos obtenidos en contextos
naturales a través de un proceso inductivo que refleje una realidad, no la realidad,
a través de la estrategia del método comparativo constante. En la TF, los supuestos
teóricos se descubren y formulan al relacionarse con el campo y emergen de los datos
empíricos que se extraen de él. Como afirma Flick (2004 ), el propósito no es reducir
la complejidad de la realidad observada a variables, sino, al contrario, aumentarla
incluyendo el contexto. Desde esta perspectiva, el proceso de investigación transcurre
de forma que la recogida y análisis de datos se hace de forma simultánea y recurrente,
sirviéndose para ellos de diversas estrategias como el muestreo teórico, la saturación
teórica, el método comparativo constante y diversos procedimientos de codificación.
A continuación se describen estos elementos básicos de la TF.
I 1.3.3.1. MUESTREO
Y SATURACIÓN TEÓRICA
Strauss y Corbin (1998) definen el muestreo teórico como la recolección de datos
guiada por los conceptos derivados de la teoría que se está construyendo y basada en
el concepto de «hacer comparaciones», cuyo propósito es acudir a lugares, personas
o acontecimientos que maximicen las oportunidades de descubrir variaciones entre
los conceptos y que hagan más densas las categorías en términos de sus propiedades
y dimensiones. Una descripción detallada con relación a otras técnicas de muestreo
no probabilístico aparece en el capítulo l.
El muestreo teórico es uno de los pilares básicos del proceso de investigación
según la TF ya que, lejos de establecer las pautas a priori sobre los casos o incidentes
que será necesario observar, la selección de más casos transcurre de forma paralela y
guiada por el análisis de la información previamente obtenida y por los conceptos y
categorías derivados de tal análisis. El muestreo teórico busca la selección de nuevos
incidentes o casos, no de nuevos informantes. O, dicho de otra manera, se seleccionan
nuevos informantes en la medida en que aportan nueva información para el desarrollo de la investigación. Esta nueva información se busca con el objetivo de maximizar
las oportunidades de comparar acontecimientos, incidentes o sucesos para contrastar
y enriquecer el análisis que se está realizando.
Por ejemplo, un investigador estudia el uso que hacen de la información los estudiantes universitarios. Tras el análisis inicial de una serie de entrevistas, determina
[286]
MÉTODOS Y TÉCNICAS PARALA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL
que existe una categoría que es «uso de información informal» y surge la idea de que
esa categoría varía en función del grado que cursen los estudiantes, del área de conocimiento y del centro donde realicen sus estudios. Entonces el investigador realizará
nuevas observaciones en otros grados, áreas de conocimiento y centros para buscar
similitudes y diferencias que permitan consolidar esa categoría.
Strauss y Corbin ( 1998) afirman que el muestreo teórico está condicionado tanto
por la sensibilidad del investigador como por la fase de análisis en la que se encuentre
la investigación. En primer lugar, la sensibilidad del investigador apunta a uno de los
conceptos principales de la TF, la sensibilidad teórica. Se entiende por sensibilidad
teórica la pericia del investigador para elaborar conceptos y formular teorías basándose en los datos (Valles, 1999) o como explican Strauss y Corbin (1998):
Tener sensibilidad significa ser capaz de penetrar y dar significado a los acontecimientos
y sucesos que muestran los datos. Significa ver más allá de lo obvio para descubrir lo nuevo.
Esta cualidad del investigador se da cuando trabaja con los datos, hace comparaciones,
formula preguntas y sale a recoger más datos. Por medio de estos procesos alternos de
recolección y análisis de datos, los significados que a menudo son engañosos al comienzo,
se vuelven más claros. Sumirse en el análisis lleva a esas comprensiones súbitas, a ese «ajá»,
tan familiar a quienes hacemos investigación cualitativa.
Respecto a la segunda cuestión, como se verá más adelante, el proceso de análisis
en la TF está concebido como un proceso no lineal sino iterativo, en el que, como afirma Bernard y Ryan (2010), la codificación comienza con la primera línea de la primera entrevista realizada. En los primeros momentos, el análisis tendrá como objetivo
la búsqueda de categorías que describan los conceptos identificados en los datos, por
lo tanto el muestreo teórico irá encaminado a obtener casos de forma amplia y exhaustiva. Más adelante, las categorías identificadas previamente deberán ser relacionadas y consolidadas, por lo que el muestreo se dirigirá a contrastar estas categorías.
Por último, en el momento en que las categorías están consolidadas y establecidas
las relaciones entre ellas, el muestreo teórico se dirigirá a: a) validar el producto del
análisis y b) saturar las categorías, dicho de otra forma, buscar la saturación teórica.
La saturación teórica es el punto en el que la obtención de más datos acerca de una
categoría teórica no revela nuevas propiedades y, por lo tanto, es el signo de que no
son necesarios más casos (Charmaz, 2006).
I 1.3.3.2.
MÉTODO
DE COMPARACIÓN CONSTANTE
El método de comparación constante es la principal estrategia de la TF. Proporciona un
procedimiento para generar teoría a partir del análisis comparativo y sistemático de los
incidentes observados. El método de comparación constante es descrito en cuatro etapas:
11. ANÁLISISDE DATOSCUALITATIVO
[2871
comparación de incidentes y su categorización, integración de categorías y sus propiedades, delimitación de la teoría y, finalmente, escritura de la teoría (Glaser y Strauss, 1967).
Según este proceso, una vez obtenidos los primeros datos, la fase inicial del análisis es la comparación de la información obtenida asignándole una denominación
común a un conjunto de fragmentos que desarrollen una idea común (Valles, 1999).
Es decir, codificar esos fragmentos y establecer categorías que agrupen una serie de
conceptos. A la vez se van escribiendo notas, memorandos o memos con las ideas
que van surgiendo basadas en los datos en el transcurso del análisis. Estos memos se
elaborarán durante todo el análisis y servirán para ir conformando la teoría.
En segundo lugar, tras el desarrollo de diversas categorías y la redacción de más memorandos, dichas categorías se compararán buscando refinar sus propiedades o bien
integrándolas en otras categorías. De forma paralela, se buscarán nuevos datos para
integrarlos y para que ayuden a delimitar esas categorías a través del muestreo teórico.
En tercer lugar, la delimitación teórica, consistirá en clarificación conceptual de las
categorías y en desestimar aquellas propiedades menos relevantes. Reducir las categorías y dotarlas de mayor significado ayudará a centrar la investigación y a realizar
las comparaciones de sucesos entre aquellas categorías seleccionadas. Por último, en
la cuarta etapa, la escritura de la teoría, donde a partir de la información codificada,
los memorandos con las notas de la investigación y una propuesta teórica con las categorías y sus relaciones fruto de los sucesivos análisis y comparaciones, se redactará
el informe de investigación.
Estas etapas describen el proceso de investigación en la TF y los instrumentos con
los que se avanza en esa comparación constante son los distintos procedimientos de
codificación.
I I .3.3.3.
CODIFICACIÓN
En la TF el proceso de análisis de la información recogida se realiza por medio de
diversos procedimientos de codificación a través de los cuales los datos se fracturan,
conceptualizan y se integran para formar teoría (Matavire y Brown, 2008). Se trata
de la codificación abierta, axial y selectiva. La figura 17 ilustra estos procedimientos.
a)
Codificación abierta
En primer lugar, la codificación abierta se define como el proceso analítico por medio
del cual se identifican los conceptos y se descubren en los datos sus propiedades y dimensiones (Strauss y Corbin, 1998). En esta fase inicial de codificación, los fragmentos (palabras, líneas o incidentes) de los datos recogidos son analizados, comparados
unos con otros, agrupados en conceptos similares y etiquetados con un código.
[288)
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL
Figura 17. Niveles de codificación en la teoría fundamentada (adaptado de Harwood, 2001)
Conceptos
Codlgos
Subcategoría
categoría
Propiedades Proflndlzaclón
y
Categorías:
dimensiones Cuando?
Porqué?
Como?
Dónde?
...-- ........
r=-t---41"\
Codificación
selectiva
Codificaciónaxial
Codificaciónabierta
~
', ' ...·········~··
,'
\::····
'>'
Descubrirla categoría
central
Descubrirlas
relacionesentre
categorías
,'
·..
...
Y··
../·c==>·.. -~
''-::/
·--~
---,:l<-b--------
"'
-----
Boeije (2010) descompone en ocho tareas este proceso de identificar y codificar
conceptos de la codificación abierta:
•
•
•
•
•
•
•
•
Leer el documento completo.
Releer el texto línea a línea y determinar el principio y fin del fragmento.
Determinar por qué este fragmento es un todo significativo.
Juzgar si el fragmento es relevante para la investigación.
Asignar un nombre apropiado para el fragmento, es decir, un código.
Asignar este código al fragmento del texto.
Leer todo el documento y codificar todos los fragmentos relevantes.
Comparar los distintos fragmentos para detectar fragmentos que deberían tener el mismo código.
Tras codificar una serie de conceptos, Strauss y Corbin (1998) consideran que
en el curso del análisis, el analista percibe que «varios conceptos se pueden agrupar
bajo un orden abstracto más elevado, basado en su capacidad de explicar lo que está
sucediendo». Es decir, conceptos similares se pueden agrupar en categorías que posteriormente serán analizadas en detalle para desarrollar sus propiedades y dimensiones.
Las propiedades son las características que delimitan una categoría, mientras que las
dimensiones son aspectos que modifican las características generales de esa categoría.
[289]
11. ANÁLISISDE DATOSCUALITATIVO
A su vez, cada categoría puede ser más especificada con el desarrollo de subcategorías que responden a preguntas como cuándo, dónde, por qué, cómo o consecuencias
respecto al fenómeno de cada categoría. El resultado de este proceso es un esquema
de codificación que contiene la lista de códigos.
Un ejemplo del proceso de identificación de conceptos y su codificación, agrupación de conceptos en categorías y subcategorías con sus propiedades y dimensiones podemos encontrarlo en el trabajo de Mutshewa (2010). En él se presenta
un modelo teórico que describe el uso de la información por los planificadores
ambientales, es decir, funcionarios públicos que toman decisiones con relación a los
recursos naturales de un país. El proceso inicial de análisis resultó en la obtención
de ocho categorías principales. Una de estas categorías principales fue Patrón de
uso de la información. Esta categoría surgió a partir de la agrupación de 8 conceptos y categorías diferentes (columna A, tabla 35), se definieron sus propiedades y
dimensiones (columna B, tabla 35) y todo ello originó la definición de una categoría
principal (columna C, tabla 35), Patrón de uso de la información, con tres subcategorías: packaging de información, adquisición y verificación de la información y
difusión de información (tabla 35).
Tabla 35. Proceso de codificación abierta en la teoría fundamentada
(adaptado de Mutshewa, 2010)
1
A
Conceptos y categorías iniciales
B
Propiedades o dimensiones
c
Categoría principal
y subcategorias
Patrón de uso de la
información.
Obtención de información.
DERNIClóN:tareas de información,
acciones y actividades que se
caracterizan por formas de adquisición, Packaging de información.
packaging y verificación de la
Adquisición y verificación de la
información.
información.
Estas categorías definen las actividades
Difusión de información.
reales que los planificadores hacen en
relación a la información.
Intercambio de información/
planificador como un transmisor
de información/compartir
información
Los siguientes son subcategorías
amplias que definen las actividades que
son realizadas por los planificadores en
relación a la información:
Packaging de información/
extracción de información/apoyo
a las actividades de expertos/
producción de productos de
información.
Adquisición de la información y
verificación de la información.
Adquisición de la información.
Recopilación de información/
fuentes de información.
Difusión y recepción de
información.
Solicitud de información.
Verificación de la información/
comparación de información/
orientación frente a la
desinformación.
Packaging de información.
Dar información.
Estas subcategorías definen un patrón
de actividades que caracterizan la
forma de manejar la información.
1290)
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL
b) Codificación axial
Si durante la codificación abierta se fracturan los datos en busca de conceptos y
categorías, a través de la codificación axial, los datos se reagrupan. Se denomina
axial porque la codificación ocurre alrededor del eje de una categoría y enlaza las
categorías en cuanto a sus propiedades y dimensiones, es decir, es un proceso en el
que se relacionan las categorías con sus subcategorías para formar categorías más
precisas y densas. La codificación axial no se realiza con posterioridad a la codificación abierta, sino que, una vez definidas una serie de categorías a través de la
codificación abierta, se busca las relaciones entre ellas. Es decir, pueden ser procesos
que transcurran de forma paralela.
Strauss y Corbin (1998) describen la codificación axial como la realización de
las siguientes tareas: a) explicar las propiedades de una categoría y sus dimensiones;
b) identificar condiciones, acciones/interacciones y consecuencias asociadas con un
fenómeno descrito por la categoría; e) relacionar una categoría con sus subcategorías por medio de oraciones que denoten las relaciones de unas con otras; d) buscar
claves en los datos que denoten como se pueden relacionar las categorías principales
entre sí.
Con la codificación axial se obtiene un esquema que facilita una mejor comprensión de los fenómenos y proporciona un camino para configurar la categoría central.
La categoría central es aquella categoría que podemos considerar más importante
para la investigación. Strauss (1987) enumera los siguientes criterios para juzgar una
categoría como central:
.,.. Debe ser realmente central, es decir, relacionada con otras categorías y sus
propiedades lo máximo posible .
.,.. Debe aparecer frecuentemente en los datos, es decir, es un patrón estable .
.,.. Se relaciona fácilmente con otras categorías y esta relación no tiene que ser
forzada. Dado el grado de relación con otras categorías, la central tarda más
en saturarse .
.,.. Su denominación debe ser lo suficientemente abstracta como para que pueda
ser utilizada en otra área de investigación, permitiendo que lleve al desarrollo
de una teoría más general.
.,.. A medida que los detalles de una categoría central se resuelven analíticamente,
la teoría avanza notablemente.
Tal y como se ha mencionado anteriormente, el análisis realizado por Mutshewa
(2010) derivó en la obtención de ocho categorías principales. Para cada una de esas
categorías se definió el qué, cuándo, dónde, por qué, cómo y la consecuencia. Este
11. ANÁLISISDE DATOSCUALITATIVO
(291]
proceso buscó determinar la relación entre las categorías. En la tabla 36 se describen
estos aspectos para la categoría Patrón de uso de la información, de la que previamente se ha descrito su emergencia a través de la codificación abierta (tabla 35).
Tabla 36. Proceso de codificación axial en la teoría fundamentada
(adaptado de Mutshewa, 2010)
Categoría
principal
PATRÓNDE USO
DE LA INFORMACIÓN
QUÉ
Define las actividades conductuales observables de los planificadores durante el
curso de un proyecto.
Crear un ambiente propicio para la interpretación de las situaciones por los stakeholders.
CUÁNDO
A lo largo del tiempo de vida del proyecto.
DÓNDE
Lugar de realización del proyecto, el contexto de información del proyecto, el
centro de información.
POR QUÉ
Acción para facilitar la planificación del medio ambiente; realizar su trabajo.
CóMO
Información para la acción, tareas y actividades.
Extracción, clasificación y resumen de información, traducción, recogida y recopi!ación de información, verificación de la información, difusión de la información.
CONSECUENCIA
Poder informacional fuerte, valor de la información, permitir acciones, permitir
planificación ambiental, planificador se convierte en el distribuidor de información, la participación de los planificadores cobra sentido, los stakeholders
vinculados con la información, se hace posible más adquisición de información,
más poder de negociación para los planificadores, interpretación del problema
ambiental de los planificadores, solo la información relevante se da a las partes
interesadas.
c) Codificación selectiva
Por último, el tercer procedimiento de codificación definido en la TF es la codificación selectiva. El lugar que ocupa en todo el proceso es descrito por Strauss y Corbin
(1998) de la siguiente forma:
En la codificación abierta, el analista se preocupa por generar categorías y sus
propiedades y luego busca determinar cómo varían en su rango dimensional. En la
codificación axial, las categorías se construyen de forma sistemática y se ligan a las
categorías. No obstante, solo cuando las categorías principales se integran finalmente
para formar un esquema teórico mayor, los hallazgos de la investigación adquieren
la forma de teoría. La codificación selectiva es el proceso de integrar y refinar las
categorías.
[292]
MÉTODOSY TÉCNICASPARALA INVESTIGACIÓNDEL COMPORTAMIENTOINFORMACIONAL
Por lo tanto, a través de la codificación selectiva se revisan y actualizan las categorías integrando los conceptos entorno a la categoría central y construyendo la
teoría final.
11.3.3-4- TEORÍA SUSTANTIVA Y TEORÍA FORMAL
Como se ha mencionado previamente, el objetivo básico de la TF es la emergencia
de teoría de los datos recogidos durante el proceso de investigación social. Glaser y
Strauss (1967) destacan como los principales objetivos de la teorización en sociología, entre otros, el permitir la predicción y explicación de la conducta y el contribuir
al avance teórico de la disciplina.
Glaser y Strauss (1967) distinguen dos tipos de teoría, la sustantiva y la formal,
dependiendo del grado de desarrollo alcanzado. En palabras de estos investigadores:
«[... ] por teoría sustantiva entendemos aquella desarrollada para un área sustantiva
o empírica de la sociología tal como el cuidado del paciente, las relaciones de razas,
la formación profesional, delincuencia o organizaciones de investigación». Se trata de
áreas específicas donde estos investigadores habían trabajado. Igualmente, por teoría
formal entienden «el desarrollo de un área formal o conceptual de la sociología, tales
como el estigma, la conducta desviada, la organización formal, la socialización, la
congruencia de estado, la autoridad y el poder, los sistemas de recompensa, o lamovilidad social». O, dicho de otra manera, la teoría formal explica fenómenos sociales
de mayor amplitud
La teoría sustantiva está basada en la investigación en un área social específica y
su aplicación se limita a esa área de conocimiento. Tiene un carácter interino, pues da
base conceptual a los interrogantes planteados en el curso de una investigación y son
la base de una posterior construcción de teoría formal. La teoría sustantiva es la que
deriva de una investigación específica y la teoría formal es la «gran teoría» elaborada
a partir de diversas teorías sustantivas que han alcanzado un nivel conceptual sólido
(Valles, 1999). Desde este punto de vista, la mayoría de modelos teóricos en el ámbito
del estudio del comportamiento informacional podrían considerarse teorías sustantivas, ya que son el resultado de un proceso de investigación en un ámbito en concreto a pesar de que en raras ocasiones se refieran a esos modelos de tal forma. Una
excepción es el trabajo de Mccaughan y Mckenna (2007), en el que proponen una
teoría sustantiva de forma explícita que describe el comportamiento informacional
de los pacientes recién diagnosticados de cáncer. En la mayor parte de las ocasiones
la propuesta teórica que deriva de los estudios basados en la teoría fundamentada es
denominada como modelo, categorías emergentes, marcos teóricos, teorías o categorías centrales (González Teruel y Abad González, 2012).
11. ANÁLISISDE DATOSCUALITATIVO
(2931
11.4. RESUMEN
El proceso de análisis de datos cualitativos es un proceso de búsqueda sistemática y
de organización de las transcripciones de entrevistas, las notas de campo y otros materiales que el investigador recopila para aumentar su propia comprensión y presentar lo que ha descubierto a los demás. El análisis consiste en trabajar con los datos, su
organización, la división en unidades manejables, la síntesis, la búsqueda de patrones,
el descubrimiento de lo que es importante y la decisión de lo que se comunicará a los
demás.
Existen diversas tradiciones en el modo de abordar el análisis de datos cualitativos y es una materia que dista mucho de estar tan sistematizada como el análisis
cuantitativo. Una clasificación de los distintos tipos de análisis cualitativo distinguen
dos tradiciones. Una tradición arraigada en la sociología que trata el texto como ún
medio de acceder a la experiencia humana y otra, que se enmarca en la tradición lingüística, que aborda el texto como objeto de análisis en sí mismo.
En la consideración del texto como ventana a la experiencia de la tradición sociológica, además se distingue entre aquellas técnicas que analizan el texto obtenido por
medio de técnicas de obtención de información como entrevistas (elicitación sistemática) y aquellas que parten del texto libre no generado ad hoc o proveniente de preguntas abiertas de entrevistas (texto libre). En este último caso, además se distinguen
las técnicas orientadas a la reducción del texto a palabras y aquellas orientadas a la
traducción de palabras en códigos. En el ámbito de la información y documentación
las técnicas más frecuentemente utilizadas son el análisis de contenido y la teoría
fundamentada.
El análisis de contenido es definido por Piñuel Ragada (2002) como el conjunto de
procedimientos interpretativos de productos comunicativos (mensajes, textos o discursos) que proceden de procesos singulares de comunicación previamente registrados, y que, basados en técnicas de medida, a veces cuantitativas (estadísticas basadas
en el recuento de unidades), a veces cualitativas (lógicas basadas en la combinación
de categorías), tienen por objetivo elaborar y procesar datos relevantes sobre las
condiciones mismas en que se han producido aquellos textos, o sobre las condiciones
que puedan darse para su empleo posterior. Este epígrafe se centra en el análisis de
contenido cualitativo, que es definido por Mayring (2000) como una aproximación
empírica y metodológica al análisis de textos en su contexto de comunicación siguiendo unas reglas analíticas de contenido sin cuantificación.
El objetivo de la teoría fundamentada es generar teoría a partir de los datos obtenidos en contextos naturales a través de un proceso inductivo que refleje una realidad, no la realidad, a través de la estrategia del método comparativo constante. En la
teoría fundamentada, los supuestos teóricos se descubren y formulan al relacionarse
[294]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL
con el campo y emergen de los datos empíricos que se extraen de él. Desde esta pers- pectiva, el proceso de investigación transcurre de forma que la recogida y análisis
de datos se hace de forma simultánea y recurrente, sirviéndose para ello de diversas
estrategias como el muestreo teórico, la saturación teórica, el método comparativo
constante y diversos procedimientos de codificación.
BIBLIOGRAFÍA
ADAMS,A., y A. BLANDFORD
(2002): «Acceptability of medical digital libraries», Health Informatics
Jorm1al, 8(2), 58-66.
ADLER,P. A., y P. Adler (1994): «Observacional techniques», en N. K. DENZINy Y. S. LJNCOLN
(eds.):
Handbook of qualitative research (pp. 377-392), Thousand Oaks, CA: Sage.
ANDER-EGG,
E. (1987): Técnicas de Investigación Social, México: El Ateneo.
s.,l. RANDERS,E. NASLUND,D. STOCKELD
y A. C. MATTIASSON
(2006): «Patients'
ANDREASSEN,
experiences of living with oesophageal cancer», ]ournal of Clínica/ Nttrsing, 15(6), 685-695.
(2005): «Family members' experiences, information needs and information seeking in relation to
living with a patient with oesophageal cancer», Ettropean ]ournal of Cancer Care, 14(5),
426-434.
J. E., K. A. PEARCE,C. IRESONy M. M. LovE (2005): «Information-seeking behaviors of
ANDREWS,
practitioners in a primary care practice-based research network (PBRN)»,Journal of the Medica/
Library Association, 93(2), 206-212.
ANGUERA,
M. T. (1990): «Metodología observacional», en J.ARNAU,M. T. ANGUERA
y J. GóMEZ:
Metodología de la investigación en Ciencias del Comportamiento (pp. 125-236), Murcia:
Secretariado de Publicaciones de la Universidad de Murcia.
(1995): «La observación participante», en A. AGUIRREBAZÁN(ed.): Etnografía. Metodología
cualitativa en la investigación sociocttltttral (pp. 73-84), Barcelona: Bixaren Universitaria.
(2003): «La observación», en C. MORENORossET (ed.): Evaluación psicológica. Concepto, proceso
y aplicación en las áreas del desarrollo y de la inteligencia (pp. 271-308), Madrid: Sanz y Torres.
H. y P. T. KNJGHT( 1999): lnterviewing for social scientists. An introductory resottrce with
ARKSEY,
examples, Thousand Oaks, CA: Sage.
AsuNKA,S., H. S. CHAEy G. NATRIELLO
(2011 ): «Towards an understanding of the use of an
institutional repository with integrated social networking tools: A case study of PocketKnowledge»,
Library & Jnformation Science Research, 33(1), 80-88.
BADER,G. E., y C. A. Ross1 (2002): Focus Groups: A Step-By-Step Guide (3." ed.), The Bader Group.
BAKEMAN,
R., y J. M. GoTTMAN(1989): Observación de la interacción: una introducción al análisis
secitencial, Madrid: Morata.
L. M. (1998): «Sense making in multiple sclerosis: The information needs of people during an
BAKER,
acure exacerbation», Qualitative Health Research, 8(1 ), 106-120.
BALDWIN,
N.S., y R. E. RICE(1997): «Information-seeking behavior of securities analysts: Individual
and institucional influences, information sources and channels, and outcomes», Journal of the
American Society for Jnformation Science, 48(8), 674-693.
BARDIN,L. (1986): El análisis de contenido, Madrid: Akal.
BARRIOS,
M., T. CoscuLLUELAy J.TuRBANY(2008): «Estudio bibliométrico de la producción científica
sobre encuestas en línea», V Congreso de Metodología de Encuestas, Córdoba: Consejo Superior de
Investigaciones Científicas.
(296]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL
BARRIOS,
M., A. VJLLARROYA,
A. BORREGO
y c. ÜLLÉ(2011 ): «Response rates and data quality in web
and mail surveys administered to PhD holders», Social Science Computer Review, 29(2), 208-220.
BERG,B. L. (2001): Qualitative research methods for the social sciences (4." ed.), Boston: Allyn & Bacon.
BERKNER
D. S. (1979): «Library staff development through performance appraisal», College and
Research Libraries, 40(4), 335-344.
BERNARD,
H. R. (2000): Social research methods. Qualitative and quantitative approaches, Thousand
Oaks, CA: Sage.
(2006): Research methods in anthropology: qualitative and quantitative approaches (4." ed.),
Lanham: Altamira.
y G. W. RYAN(2010): Analyzing qualitative data: systematic approaches, Newbury Park, CA: Sage.
BERRYMAN,
J. M. (2008): Judgements during information seeking: policy and research workers'
assessments of enough information social sciences (tesis doctoral no publicada), Sydney: University
of Technology.
BtGGS,M. (1991): «The role of research in the development of a profession ora discipline», en
C. McCLUREy P. HERNON(eds.): Library and information science research: perspectives and strategies
for improvement, Information management, po/icy, and services (pp. 72-84), Norwood: Ablex.
BLACK,E. (2009): «Web analytics: A picture of the academic library web site user», Journal of Web
Librarianship, 3(1), 3-14.
BLAKE,C., y W. PRATI(2006): «Collaborative information synthesis l. A model of information behaviors
of scientists in medicine and public health», Journal of the American Society for Information Science,
57(13), 1740-1749.
BLYTHE,J.,y J. A. RoYLE(1993) «Assessing nurses' information needs in the work environment»,
Bulletin of the Medica/ Library Association, 81 (4 ), 433-435.
BOEIJE,B. (2010): Analysis in qualitative research, Los Ángeles, CA: Sage.
BoGDAN,R. C., y S. K. BtKLEN(1982): Qualitative research for education: An introduction to theory and
methods, Boston: Allyn and Bacon.
BORREGO
A., L. ANGLADA,
M. BARRIOS
y N. CoMELLAS
(2007): «Use and users of electronic joumals at
Catalan universities: The results of a survey»,Journa/ o/ Academic Librarianship, 33(1), 67-75.
B0v1NG,K. B., y J. StMONSEN
(2004): «Http log analysis. An approach to studying the use of web-based
information systems», Scandinavian ]ournal of Information Systems,
16(1), 145-174.
BROWNC. M. (1999): «Information seeking behavior of scientists in the electronic information age:
Astronomers, chemists, mathematicians, and physicists»,Journal o/ the American Society for
Information Science, 50(10), 929 -943.
BRYANT,
J., G. MATIHEWSy G. WALTON
(2009): «Academic libraries and social and learning space: A
case study of Loughborough University Library, UK», ]ournal of Librarianship and Information
Science,41(1), 7-18.
BucHANAN,B.,J. D. MooRE, D. E. FORSYTHE,
G. CARENINI,
S. ÜHLSSONy G. BANKS
(1995): «An
intelligent interactive system for delivering individualized information to patients», Artificial
lntelligence in Medicine, 7(2), 117-154.
K. J.,J.SEEHOLZER
y J. SALEM(2009): «No Natives Here: A Focus Group Study of Student
BuRHANNA,
Perceptions ofWeb 2.0 and the Academic Library»,Journal of Academic Librarianship, 35(6), 523-532.
BurrERFIELD,L. D., W. A. BoRGEN,N. E. AMUNDSON
y A.-S. T. MAcuo (2005): «Fifry years of the
critica! incident technique: 1954-2004 and beyond», Qualitative Research, 5(4), 475-497.
CARLOCK,
D.M., y A.M. PERRY(2008): «Exploring faculty experiences with e-books: a focus group»,
Library Hi Tech, 26(2), 244-254.
CARR,D. (1980): «The agent and the learner: interactions in assisted adult library learning», Public
Library Quarterly, 2 (2), 3-19.
CASE,D. O. (2006): «Information behavior», Annual Review of lnformation Science and Technology, 40,
293-327.
CHARMAZ,
K. (2006): Constructing grounded theory: a practica/ guide through qualitative analysis,
Thousand Oaks, CA: Sage.
CHASE,L., y Alvarez, J. (2000): «Internet research: the role of the focus group», Library & Information
Science Research, 22(4), 357-369.
BIBLIOGRAFÍA
[297)
CHELL,E. (2004): «Critica) incident Technique», en C. CASSELLy G. SYMON(2004): Essential guide to
qualitative methods in organizacional research (pp. 45-60), Londres: Sage.
Cttoo, C. W., B. DETLORy D. TuRNBULL(2000): «Information Seeking on the Web: An Integrated
Model of Browsing and Searching», First Monday, 5(2). Recuperado de http://firstmonday.org/htbin/
cgiwra p/bin/ojs/index. ph p/fm/article/view Article/729/63 8.
(2000): Web work: lnformation seeking and knowledge work on the World Wide Web, Dordrecht:
Kluwer Academic Publishers.
CIBER(2009a): Evaluating the usage and impact of e-journals in the UK. Aims, scope, methods and
research context. Recuperado de http://www.rin.ac.uk/system/files/attachments/Aims_scope_
methods_context_CIBER_ejournals_working_paper.pdf.
(2009b): Evaluating the usage and impact of e-journals in the UK. Jnformation usage and seeking
behaviour subject and institutional profiles. Recuperado de http://www.rin.ac.uk/system/files/
attachments/lnformation_usage_behaviour_c1BER_ejournals_working_paper.pdf.
(2011): E-journals: their use, value and impact-final report. Research Information Network.
Recuperado de 2011, from work/communicating-and-disseminating-research/e-journals-their-usevalue-and-impact.
COBBLEDICK,S. (1996): «The information-seeking behavior of artists: Exploratory interviews», Library
Quarter/y, 66(4), 343-372.
CoCHRAN,W. G. (1987): Técnicas de muestreo (7.ª imp.), México, DF: Compañía Editorial Continental.
COHEN,J.(1988): Statistical power analysis for the behavioral sciences (2.ª ed.), Hillsdale, NJ: Lawrence
Erlbaum.
- (1992): «A Power Primer», Psychological Bulletin, 112(1), 155-159.
CONVERSE,P. D., E. w.WOLFE,X. HUANGy F. L. ÜSWALD(2008): «Response rates for mixed-mode
surveys using mail and e-mail/Web», American journal of Evaluation, 29(1), 99-107.
CooK, T. D. y D. T. CAMPBELL( 1979): Quasi- experimentation: Design and analysis issues for field
settings, Boston: Houghton Mifflin.
CoorER, J., R. LEWISy C. URQUHART(2004): «Using participant or non-participant observation to
explain information behaviour», Jnformation Research, 9(4). Recuperado de http://informationr.net/
ir/9-4/paperl 84.html.
CoorER,J., y URQUHART(2005): «The information needs and information-seeking behaviours of homecare workers and clients receiving home care», Health Information and Libraries Journal, 22(2),
107-116.
CoRBETTA,P. (2010): Metodología y técnicas de investigación social (ed. revisada), Madrid: McGrawHill.
CoRREIA,Z. P., y T. D. WILSON(2001 ): «Factors influencing environmental scanning in the
organizational context», Information Research, 7(1). Recuperado de http://informationr.net/ir/7-1 /
paper121.hrml
Couper, M. R. (1984): «The Delphi technique: characteristics and sequence model. Advances in Nursing
Science, 7(1), 72-77.
CoYNE, l. T. (1997): «Sampling in qualirative research. Purposeful and theorical sampling; merging or
clear boundaries?»,Journa/ of Advanced Nursing, 26, 623-630.
CRAVEN,J., F.JoHNSON y G. BuTTERS(2010): «The usability and functionality of an online catalogue»,
Aslib Proceedings, 62(1 ), 70-84.
CuLLEN, R., M. CLARKy R. EssoN (2011): «Evidence-based information-seeking skills of junior doctors
entering the workforce: an evaluation of the impact of information literacy training during preclinical years», Health Information and Libraries Journa/, 28(2), 119-129.
CURRY,A. (2005): «If I ask, will they answer? Evaluating public library reference service to gay/lesbian
youth», Reference & User Services Quarter/y, 45(1), 65-75.
CURTIS,K. L., A. C. WELLERy J. M. HuRD (1997): «Information-seeking behavior of health science
faculty: the impact of new information technologies», Bul/etin of the Medica/ Library Association,
85(4), 402-410.
CuTRONI,J. (2010): Google Analytics, Sebastopol, CA: O'Reilly.
DALKEY,
N., y O. HELMER(1963): «An experimental application of the Delphi method to the use of
experts», Management Science, 9(3), 458-467.
12981
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL
DALTON,
M.S., y L. CHAR.'JIGO
(2004): «Historians and their information sources», College & Research
Libraries, 65(5), 400-425.
DE LEEUW,
E. D. (2005): «To mix or not to mix data collection modes in surveys», Journal of Official
Statistics, 21(2), 233-255.
DEBus, M. (1988): A handbook for excellence in focus group research. Healthcom Project special Report
Series, Washington, DC: Porter/Novelli.
DELGADOLórEz-CózAR, E. (2000): «Los métodos de investigación empleados en la literatura científica
producida en Biblioteconomía y Documentación», en J. LóPEZ-YEPES
(ed.): Congreso Universitario
de Ciencias de la Documentación. Teoría, historia y metodología de la documentación en España
(1975-2000). l. 2000, Madrid (pp. 625-641 ), Madrid: Facultad de Ciencias de Información.
Universidad Complutense de Madrid.
DENSCOMBE,
M. (2007): The good research guide for sma/1-scale social research pro;ects (3." ed.),
Maidenhead: McGraw-Hill.
DICKERSON,
S., A.M. REINHART,
T. H. fEELEY,R. BIOANI,E. RICH,V. K. GARGy C. 0. HERSHEY
(2004):
«Patienr Internet use for health information at three urban primary care clinics»,Journa/ of the
American Medica/ Informatics Association, 11(6), 499-504.
DILLMAN,
D. A. ( 1978): Mail and telephone surveys: The total design method for surveys, Nueva York:
Wiley-lnterscience.
( 1991 ): «The design and administration of mail surveys», Annz,al Review of Sociology, 17, 225-249.
(2007): Mail and Internet surveys: The tailored design method (2.ª ed.), Hoboken, NJ: John Wiley &
Sons.
DILLMAN,D. A.,J. R. CLARKy M. A. Sinclair (1995): «How prenotice letters, stamped return envelopes,
and reminder postcards affect mailback response rates for census questionnaires», Survey
Methodology, 21, 1-7.
DILLMAN,
D. A., J. D. SMYTHy L. M. CHRISTIAN
(2009): Internet, mai/, and mixed-mode surveys: The
tailored design method (3.ª ed.), Hoboken, NJ: John Wiley and Sons.
D1LLMAN,
D. A., R. D. ToRTORAy D. BowKER(1998): Principies for constructing web surveys: an initial
statement (Technical Report No. 98-50) Pullman, WA Washington State University, Social and
Economic Sciences Research Center.
DowNs, R. (1999): «Digital library support for scholarly research», Infonnation Processing &
Management, 35(3), 281-291.
DRESANG,
E. T., M. GRoss y L. HoLT (2007): «New perspectives: An analysis of gender, net-generation
children, and computers», Library Trends, 56(2), 360-386.
EDMUNDS,
H. (1999): The Focus group research handbook, Lincolnwood (111.):NTCBusiness Books.
ELDREDGE,J.
D., M. R. HARRISy M. T. AscHER(2009): «Defining the Medica) Library Association
research agenda: methodology and final results from a consensus process», Journal of the Medica!
Ubrary Association, 97( 3 ), 178-185.
ELLIS,D. (1989): «A behavioural approach to information retrieval system design»,Journal of
Documentation, 45(3), 171-212.
- (1993): «Modeling the information-seeking patterns of academic researchers: A grounded theory
approach», Library Quarter/y, 63(4), 469-486.
ELo, S., y H. KYNGAS
(2008): «The qualitative content analysis process>+,]ourna/of advanced nursing,
62(1), 107-115.
EMBI,P.J., T. R. YACKEL
y J. R. LOGAN(2004): «Impacts of computerized physician documentation in a
teaching hospital: perceptions of faculty and resident physicians»,Journa/ of the American Medica/
Informatics Association, 11 (4), 300-309.
ERLANDSON,
D. A., E. L. HARRIS,B. L. SKIPPERy S. D. ALLEN(1993): Doing naturalistic inquiry: a guide
to methods, Newbury Park, CA: Sage.
(2008): «Código internacional 1cdESOMARpara investigación social y de mercados»,
ESOMAR
recuperado de http://www.esomar.org/index.php/professional-standards.html.
EvERTSON,
C. M., y J. L. GREEN(1989): «La observación como indagación y método», La investigación
de la enseñanza, II: Métodos cualitativos y de observación (pp. 303-406), Barcelona: Paidós.
fEINBERG,W. E. (1971): «Teaching the Type I and Type II Errors: The Judicial Process», The American
Statistician, 25(3), 30-32.
BIBLIOGRAFÍA
[299]
FERET,B., y M. MARCINEK
(2005): «The future of the academic library and the academic librarían: a
Delphi study reloaded», New Review of Infonnation Networking, 11 ( 1), 37-63.
FERNÁNDEZ
BALLESTEROS,
R. (1992): «La observación», en R. FERNÁNDEZ
BALLESTEROS
(coord.):
Introducción a la evaluación psicológica (pp. 137-182), Madrid: Pirámide.
FERRINI,A. y J. J. MoHOR (2009): «Uses, limitations, and trends in web analytics», en B. jANSEN,A.
SrINK,y l. TAKSA
(eds.): Handbook of research on web /og analysis (pp. 124-142), Pensylvania,
Hershey: IGI Global.
FINK,A.,J. KosECOFF,CHASs1r,;
y R. H. BROOK(1984): «Consensus methods: characteristics and
guidelines for use», American ]01m1al of Pttblic Health, 74(9), 979-983.
FISHER,K. E., y H. jULIEN(2009): «Information behavior», Annual Review of Infonnation Science and
Technology, 43, 317-358.
FISHER,K. E., S. ERDELEZ
y L. E. F. McKECHNIE(eds.) (2005): Theories of infonnation behavior,
Medford: Information Today.
FLANAGAN,J.
C. (1954): «The critica! incident technique», Psychological Bulletin, 51(4), 327-358.
FLEMING-MAY,
R., y L. YuRo (2009): «From student to scholar: the academic library and social sciences
PhD students transformation», Libraries and the Academy, 9(2), 199-221.
FucK, U. (2004): Introducción a la investigación cualitativa, Madrid: Morata.
Fooov, W. (1993): Constructing questions for interviews and questionnaires: Theory and practice in
social research, Cambridge: Cambridge University Press.
FoRTIER,A. (2008): Le comportament informationnel des ieunes adultes québécois en matiere sexuelle
(tesis doctoral no publicada), Montreal: Universitée de Montréal.
C. Dufour y P. Bergeron (2010): «Le comportement informacionnel des jeunes adulces québécois en
maciere de saneé sexuelle», Revue canadie11nedes sciences de /'information et de bibliothéconomiel
Canadian Journal of lnformation and Library Science, 34(4), 433-456.
FosTER,A. E. (2005): «A non-linear model of information seeking behaviour», Information Research,
10(2). Recuperado de http://informationr.net/ir/10-2/paper222.html.
FosTER,P. (2006): «Observacional research», en R. Sapsford y V.Jupp (2006): Data collection and
analysis (pp. 57-92), Londres: Sage.
FowLER,F. J. (1995): Improvi11g survey questions: Design and Evaluation, Thousand Oaks, CA: Sage.
- (2002): Survey research methods (3.ª ed.), Thousand Oaks, CA: Sage.
FR11s,L. S., B. ELvERDAM
y K. G. ScHMIDT(2003): «The patient's perspective-A qualitative study of
acute myeloid leukaemia patients' need for information and their information-seeking behaviour»,
Supportive Care in Cancer, 11 (3 ), 162-170.
FROHMANN,
B. (1994): «Discourse analysis as a research method in library and information science»,
Library & Information Science Research, 16(2), 119-138.
GAZAN,R. (2005): «lmposing structures: Narrative analysis and che design of information systems»,
Library & Information Science Research, 27(3), 346-362.
GEORGE,C. A., A. BRIGHT,
T. HuRLBERT,E. C. LINKE,G. ST.CLAIRy J. STEIN(2006): «Scholarly use of
information: Graduate students' informacion seeking behaviour», Library Research and Publications,
21. Recuperado de http://repository.cmu.edu/lib_science/21.
GHAPHERY,
J. (2005): «Too quick? Log analysis of Quick Links from an academic library website»,
OCLC Systems & Services, 21(3), 148-155.
GILLHAM,B. (2005): Research interviewing. The range of techniques, Nueva York, NY: Open University
Press.
GIVEN,L., y G. J. LECKIE(2003): «Sweeping» che library: mapping the social activicy space of che public
library», Library & lnformation Science Research, 25(4), 365-385.
( 1967): The discovery of Grounded Theory: Strategies for qualitative
GLASER,B. G., y A. L. STRAUSS
research, Chicago: Aldine Publishing.
(1978): Theoretical sensitivity: Advances in the methodology of Grounded Theory, Mili Valley,CA:
Sociology Press.
(1992): Emergence vs. forcing: basics of Grounded Theory analysis, Mili Valley, CA: Sociology Press.
GoLo, R. L. (1958): «Roles in sociological field observations»,Socia/ Forces,36(3), 217-223.
A., y M.F. ABADGARCÍA12012): «Grounded theory for generating theory in che
GoNZÁLEZTERUEL,
study of information behavior», Library & Information Science Research, 34(1), 31-36.
[300]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL
GONZÁLEZ
TERUEL,
A. (2000) Valoración de las necesidades de información de los médicos:
publicaciones en el periodo 1990-1998 y estudio de un caso, Valencia: Universitat de Valencia.
MAYOR,T. HERNÁNDEZ
FERNÁNDEZ,
J. F.SANCHEZ
MATEOS,
GoNZÁLEZ-GONZÁLEZ,
A. l., E. EsCORTELL
T. SANzCUESTAy R. RIESGOFUERTES
(2005): «Necesidades de información de los médicos de
atención primaria: análisis de preguntas y su resolución», Atención Primaria, 35(8), 419-22.
GONZÁLEZ-GONZÁLEZ,
A. l., J. F. SÁNCHEZ
MATEOS,T. SANZCUESTA,R. RIESGOFUERTES,
E. EscoRTELLMAYORy T. HERNÁNDEZ
FERNÁNDEZ
(2006): «Estudio de las necesidades de
información generadas por los médicos de atención primaria (proyecto Enigma)», Atención
Primaria, 38(4), 219-24.
Gooo, P. l., y J. W. HARDIN(2006): Common Errors in Statistics (and How to Avoid Them) (1." ed.),
Hoboken NJ: Wiley-lnterscience.
GORDEN,R. L. (1969): lnterviewing: Strategies, techniques and tactics, Homewood, Ill: Dorsey Press.
GORMAN,G. E., y P. CLAYTON
(2005): Qualitative research for the information professional: a practica/
handbook, Londres: Library Association Publishing.
GRANEHEIM,
U. H., y B. LUNDMAN
(2004): «Qualitative content analysis in nursing research: concepts,
procedures and measures to achieve trustworthiness», Nurse Education Today, 24(1), 105-112.
GRAY,D. E. (2004): Doing research in the real word, Londres: Sage.
GREEN,J.W. (2000): «Delphi method in web site selection: using the experts», Reference Librarían,
33(69), 299-310.
GREEN,J.,y N. THOROGOOD
(2004): Qualitative methods for health research, Londres: Sage.
GREEN,R. (1991): «The profession's models of information: a congnitive linguistic analysis»,Journa/ of
Documentation, 47(2), 130-148.
GREENBAUM,
T. L. (1998): The handbook for focus group research, Thousand Oaks, CA: Sage.
GROVES,R.M., D. A. DILLMAN,
J. L. ELTINGE
y R. J. A. LITTLE(2002): Survey nonresponse, Hoboken
NJ: Wiley-lnterscience.
E. S1NGER
y R. TouRANGEAU
(2004 ): Survey
GROVES,R. M., F.J. FowLER,M. CourER, J. M. LEPKOWSKI,
methodology, Hoboken, NJ: John Wiley and Sons.
GuBA,E. G., y Y. S. LINCOLN(1994): «Competing paradigms in qualitative research», en N. DENZINy
l. LINCOLN(eds.): Handbook of qualitative research (pp. 105-117), Londres: Sage.
HAAs,S. W., y E. S. GRAMS(2000): «Readers, authors, and page structure: A discussion of four questions
arising from a content analysis of Web pages», journal of the American Society for Information
Science, 51(2), 181-192.
HAMER,J. S. (2003): «Coming-Out: Gay Males lnformation Seeking», School Libraries Worldwide, 9(2),
73-89.
HARER,J. B., y B. R. COLE(2005): «The importance of the stakeholder in performance measurement:
critical processes and performance measures for assessing and improving academic library services
and programs», College & Research Libraries, 66(2), 149-170.
HARwooo, l. A. (2001) Developing scenarios for post-merger and acquisition integration: a grounded
theory of'risk bartering' (tesis doctoral no publicada), Southampton: Universicy of Southampton,
School of Management.
HAYSLETT,
M. M., y B. M. WILDEMUTH
(2004): «Pixels or pencils? The relative effectiveness of webbased versus paper surveys», Library and Information Science Research, 26, 73-93.
HERNÁNDEZ-SAMPIERI,
R., C. FERNÁNDEZ-COLLADO
y P. BAPTISTA-LUCIO
(2010): Metodología de la
investigación (5." ed.), México: McGraw-Hill/Interamericana de España.
HERNER,S., y M. HERNER(1967): «Information needs and uses in science and technology», Annua/
Review of lnformation Science and Technology, 2, 1-34.
HERSBERGER,
J. (2001 ): «Everyday information needs and information sources of homeless parents»,
The New Review of Information Behaviour Research, 2, 119-134.
HEWINS,E. R. (1990): «Information need and use scudies», Annual Review of Information Science and
Techno/ogy, 25, 145-172.
HrnER, P., y B. PYMM(2008): «Empirical research methods reporred in high-profile LIS journal
literature», Library and lnformation Science Research, 30, 108-114.
HIGA-MooRE,M. L., B. BuNNETT,
H. G. MAYOy C. A. ÜLNEY(2002): «Use of focus groups in a library's
strategic planning process»,Journal of the Medica/ Library Association, 90(1), 86-92.
BIBLIOGRAFIA
1301]
(2004): «Consensus without all the meetings: using the Delphi method to
HowzE, P. C., y C. DALRYMPLE
determine course content for library instruction», Reference Services Review, 32(2), 174-184.
HsIEH, L. F.,J. B. CHIN y M. C. Wu (2004 ): «The performance indicators of university e-library in
Taiwan», The Electronic Library, 22(4), 325-330.
IBM (2003): Log file formats. Recuperado de http://publib.boulder.ibm.com/tividd/td/lTWSNITWSA_
info45/en_US/HTMUguide/c-logs.html.
lsHIHARA,M. (2008): «Evaluation of quality of reference services in public libraries», Library and
Information Science, 59, 41-67.
jAMALI,H. R. y D. NICHOLAS(2010): «lnterdisciplinarity and the information-seeking behavior of
scientists», lnformation Processing & Management, 46(2), 233-243.
jANSEN,B. J. (2006): «Search log analysis: What it is, what's been done, how to do it», Library &
lnformation Science Research, 28(3), 407-432.
(2009a): ccThemethodology of search log analysis», en B. jANSEN,A. SrINK, y l. TAKSA(eds.):
Handbook of research on web log analysis (pp. 100-123), Pensylvania, Hershey: IGI Global.
(2009b): «Understanding User-Web lnteractions via Web Analytics», Synthesis Lectures on
Information Concepts, Retrieval, and Services, 1(1), 1-102.
(2000): «Real life, real users, and real needs: a srudy and analysis
jANSEN,B., y A. SrrNK y T. SARACEVIC
of user queries on the web», lnformation Processing & Management, 36(2), 207-227.
jANSEN,B., y A. SrrNK (2006): «How are we searching the World Wide Web? A comparison of nine
search engine transaction logs», Information Processing & Management, 42(1), 248-263.
JISC Collections (2010): JISC national e-books observatory project: 2007 - 2010. Recuperado de http://
observatory.jiscebooks.org/.
jOHNSON,C. A. (2003): Information networks: lnvestigating the information behaviour of Mongolia's
urban residents (tesis doctoral no publicada), Toronto: University of Toronto.
joRGENSEN,D. (1989): Participant observation, Newbury Park, CA: Sage.
JuuEN, H., J. PECOSKIEy K. REED (2011 ): «Trends in information behavior research, 1999-2008: A
content analysis», Library & Information Science Research, 33( 1 ), 19-24.
juLIEN, H., y L. J. DuGGAN(2000): «A longitudinal analysis of the information needs and uses
literature», Library & Information Science Research, 22, 1-19.
jULIEN,H., y D. MICHELS(2004): «lntra-individual information behaviour in daily life», lnformation
Processing and Management, 40(3), 547-562.
jUNKER,B. ( 1972): Introducción a las ciencias sociales. El trabajo de campo, Buenos Aires: Ediciones
Marymar.
KAHN,R. L. y C. F. CANNEL( 1967): The Dynamics of lnterviewing, Nueva York: Wiley.
KAWULICH,B. B. (2005): «La observación participante como método de recolección de datos», Forttm
Qualitative Sozialforschung / Forttm: Qualitative Social Research, 6(2), art. 43. Recuperado de
http://nbn- resolving.de/urn:nbn:de:0114-fqs0502430.
KEATS,D. M. (2000): lnterviewing: A Practica/ Cuide far Students and Professionals, Buckingham: Open
University Press.
KELLER,A. (2001): «Future development of electronic journals: a Delphi survey», The Electronic
Library, 19(6), 383-396.
KIERNAN,N. E., M. KIERNAN,M. A. ÜYLERy C. GILLES(2005): «Is a web survey as effective as a mail
survey? A field experiment among computer users», American ]ournal of Evaluation, 26, 245-252.
KIM, H. H., y Y. H. K1M (2008): «Usability study of digital institutional repositories», Electronic Library,
26(6), 863-881.
K1M,H., S. Y. PARKy l. BoZEMAN(2011): «Online health information search and evaluation:
observations and semi-structured interviews with college students and maternal health experts»,
Health Information and Libraries ]ournal, 28(3 ), 188-199.
KocHTANEK,T. (1999): «Delphi study of digital libraries», Information Processing & Management,
35(3), 245-254.
KRAAIJENBRINK,
J. (2007): «Engineers and the web: an analysis of real life gaps in information usage»,
Information Processing & Management, 43(5), 1368-1382.
KRIPPENDORFF,
K. (2004): Content Analysis: An /ntroduction to lts Methodology, Newbury Park, CA:
Sage.
[302]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIE!'.'TO INFORMACIONAL
KRUEGER
R. A. (1991): El grupo de discusión. Guía práctica para la investigación aplicada, Madrid:
Ediciones Pirámide.
y M. A. CASEY(2009): Focus Groups. A practica/ guide far applied research (4.ª ed.), Thousand
Oaks, CA: Sage.
(1998): Moderating focus group: Focus Group Kit 4, Thousand Oaks, CA: Sage.
KuEI, Y. y W. l. YANG(2008): «Motives for and consequences of reading internet book reviews», The
Electronic Library, 26( 1), 97-11 O.
KVALE,S., y S. BRINKMANN
(2009): lnterViews. Learning the craft of qualitative research interviewing
(2.ª ed), Thousand Oaks: Sage.
LANDETA,j.(1999): Fundamentos del método De/phi,», Barcelona: Ariel.
LANDRY,
C. F.(2006): «Work roles, tasks, and the information behavior of dentists», Journal of the
American Society for Infomiation Science and Technology, 57(14), 1896-1908.
LARGE,A.,J. BEHESHTI
y T. RAHMAN(2002): «Design criteria for children's Web portals: The users speak
out»,Journal of the American Society far Jnformation Science and Techno/ogy, 53(2), 79-94.
LAVRAKAS,
P.J. (2008): Encyclopedia of Survey Research Methods, Thousand Oaks, CA: Sage.
LEE,D.M. S., E.M. TRAUTHy D. FARWELL
(1995): «Critica) Skills and Knowledge Requirements of Is
Professionals-a Joint Academic-Industry Investigation», Mis Quarter/y, 19(3), 313-340.
LEE,P., N.B. GrnsE y N.A. Sathe (2003): «Benchmarking information needs and use in the Tennessee
public health community»,Journa/ of the Medica/ Library Association, 91 (3), 322-336.
LEÓNGARCÍA,o., y l. MONTEROGARCÍA-CELAY
(2006): Metodologías científicas en psicología,
Barcelona: Editorial uoc.
LINCOLN,Y. S., y E. G. GusA (1985): Naturalistic inquiry, Newbury Park, CA: Sage.
LINCOLN,Y.S., S. A. LYNHAM
y E. G. GusA (2011 ): «Paradigmatic controversies, contradictions, and
emerging confluences revisited», en N. K. DENZINy Y.S. LINCOLN(eds.): The Sage handbook of
qualitative research (4/ ed., pp. 97-128), Thousand Oaks, CA: Sage.
LINDBERG,
D. A., E. R. S1EGEL,
B. A. RArr, K. T. WALLINGFORD
y S. R. W11soN (1993): «Use of Medline
by physicians for clinical problem solving»,Journa/ of American Medica/ Association, 269(24),
3124-3129.
L1NE,M. B. ( 1971 ): «The information uses and needs of social scientists: an overview of Infross», Aslib
Proceedings, 23(8), 412-434.
LINSTONE,
H. A., y M. TuROFF(eds.) (1975): The De/phi method. Techniques and applications, Reading,
Ma: Addison-Wesley.
LoMAX,E. C., H. J. LowE y T. F. LoGAN(1997): «An Investigation of the Information Seeking Behavior
of Medica) Oncologists in Metropolitan Pittsburgh Using a Multimethod Approach», Proceedings of
the AMIA Annua/ Fa// Symposium (p. 871 ). American Medica) Informatics Association. Recuperado
de http://www.ncbi.nlm.nih.gov/pmc/articles/PMC2233358/.
LoRN, S. L. ( 1999): Muestreo: dise,io y análisis, Madrid: Internacional Thomson Editores.
LUDWIG,L., y S. STARR(2005): «Library as place: results of a delphi study», Journa/ of the Medica/
Library Association, 93(3), 315-326.
MAcDONALD,
J., P. BATHy A. BooTH (2011 ): «Information overload and information poverty:
challenges for healthcare services managers?»,Journa/ of Documentation, 67(2), 238-263.
E., y T. D. WILSON(2009): «A Delphi investigation inro the research needs in Swedish
MACEVICIUTE,
librarienship», Information Research, 14(4). Recuperado de http://informationr.net/ir/14-4 /
paper419.html.
MAcMULLJN,
S. D., y R. S. TAYLOR
(1984): «Problem dimensions and informarion traits», The Jnformation
Society, 3(1 ), 91-111.
J. A., l. HERNÁNDEZ-GARCÍA,
M. GONZÁLEZ-HIERRO
y l. VELÁZQUEZ-SAN
MADERUELO-fERNÁNDEZ,
FRANCISCO
(2009): «Necesidades de información de los usuarios de Atención Primaria desde la
perspectiva de los profesionales sanitarios. Un estudio Delphi», Gaceta sanitaria, 23(5), 365-372.
MANFREDA,
K. L., M. BOSNJAK,
J. BERELAK,
l. HAASy V. VEHOVAR
(2008): «Web surveys versus other
survey modes: A meta-analysis comparing response rates», lnternationa/ Journal of Market Research,
50(1), 79-104.
MANSOURIAN,
Y. (2008): «Contextualization of web searching: a grounded theory approach», The
Electronic Library, 36(2), 202-214.
BIBLJOGRAFIA
(3031
MARCHAND,D. A., W. J. KETIINGERy J. D. RoLLINS (2000): «Information Orientation: People,
Technology and the Bottom Line», S/oan Management Review, 41(4), 69-80.
(2001 ): Information Orientation: The link to business performance, Nueva York: Oxford University
Press.
MARKEY,K., F.SWANSON,A. jENKINS,B. J.jENNINGS,B. ST jEAN, V. ROSENBERG,X. YAOy R. L. FROST
(2008): «Designing and testing a web-based board game for teaching information literacy skills and
concepts», Library Hi Tech, 26(4), 663-681.
MARSH,E. E., y M. D. WHITE (2003): «A taxonomy of relationships between images and text»,Journa/
of Documentation, 59(6), 647-672.
MARSHALL,M. N. (1996): «Sampling for qualitative research», Family practice, 13(6), 522-525.
MATAVIRE,R., y l. BROWN(2008): «lnvestigating the use of "Grounded Theory" in information systems
research», Proceedi11gsof the 2008 annual research conference of the South African lnstitute of
Computer Scientists and Information Techno/ogists on 1T research in developing countries riding the
wave of techno/ogy-SAICSIT '08 (pp. 139-147), Nueva York: ACM Press.
C. MANFREDIy M. W1LLIAMS(2002): «Factors influencing medica!
MATIHEWS,A. K., S. A. SELLERGREN,
information seeking among African American cancer patients», Journal of Health Commimication,
7(3), 205-219.
MAUREL,D., y P. BERGERON(2007): «Problem siruations encountered by middle managers working in
a municipality in transition», Information Research, 12(4). Recuperado de http://informationr.net/
ir/12-4/colis/colis21.
MAYRING,Philipp (2000): «Qualitative Content Analysis», Forum Qualitative Sozia/forschung / Forum:
Qualitative Social Research, 1(2), art. 20. Recuperado de http://nbn-resolving.de/urn:nbn:de:0114fqs0002204.
McCAUGHAN,E., y H. McKENNA, (2007): «Never-ending making sense: towards a substantive theory of
the information-seeking behaviour of newly diagnosed cancer patients», Journal of Clínica/ Nursing,
16(11), 2096-104.
McKECHNIE, L. E. F., L. M. BAKER,M. GREENWOODy H. jULIEN (2002): «Research method trends in
human information literature>,, New Review of lnformation Behaviour Research, 3, 113-125.
McKECHNIE, L. E. F., K. E. PETIIGREWy S. L.jOYCE (2001): «The origins and contextual use of theory in
human information behaviour research», New Review of Information Behaviour Research, 2, 47-63.
McKNIGHT, M. (2006): «The information seeking of on-duty critica! care nurses: evidence from
participant observation and in-context interviews RMP», Journal o{ the Medica/ Library Association,
94(2), 145-151.
(2007): «A grounded theory model of on-duty critica! care nurses' information behavior: The
patient-chart cycle of informative interactions»,jouma/
of Documentation, 63(1), 57-73.
MEHO, L. l. (2001 ): «The information seeking behavior of social science faculty studying stateless
nations» (tesis doctoral no publicada), Chapel Hill, NC: University of North Carolina.
- y H. R. Trnso (2003): «Modeling the information-seeking behavior of social scientists: Ellis's study
revisited»,Journa/ of the American Society for Jnformation Science, 54(6), 570 -587.
MELLON,C. A. (1986): «Library anxiety: a grounded theory and its development», College and Research
Libraries, 47(2), 160-165.
MELTZER,E., P. D. MAUGHANy T. K. FRY(1995): «Undergraduate in focus: Can student input lead to
new directions in planning undergraduate library services?», Ubrary Trends, 44(2), 400-422.
MENZEL,H. (1966): «Information needs and uses in science and technology», Annual Review of
lnformation Science and Techno/ogy, 1, 41-69.
MILES, M. B., y A.M. HUBERMAN(1994): Qualitative data analysis: an expanded sourcebook (2! ed.),
Thousand Oaks, CA: Sage.
MILLAR,M. M., y D. A. D1LLMAN(2011): «Improving response to Web and mixed-mode surveys»,
Public Opinion Quarter/y,75(2), 249-269.
MORAN, B. B. (1997): Preparing tomorrotv's health sciences librarians: feasibility and marketing studies.
Final Report, Chapel Hill, NC: National Library of Medicine.
MoRGAN, D. L. ( 1997): Focus Group as qualitative research, Thousand Oaks, CA: Sage.
MuTSHEWA,A. (2010): «The use of information by environmental planners: A qualitative study using
Grounded Theory methodology», lnformation Processing & Management, 46(2), 212-232.
[304)
MÉTODOS Y TÉCNICASPARALA INVESTIGACIÓNDEL COMPORTAMIENTO INFORMACIONAL
NAVARRO,
P., y C. DíAZ (1994): «Análisis de contenido. Métodos y técnicas cualitativas de investigación
en Ciencias Sociales (pp. 177-224), Madrid: Síntesis.
NAYLOR,
S., B. STOFFELy S. VANDERLAAN(2008): «Why isn't our chat reference used more? Finding of
focus group discussions with undergraduate students», Reference & User Services Quarterly, 47(4),
342-354.
NEUMAN,D. (1995): «High school studenrs' use of databases: results of a national Delphi study»,
Journal of the American Society for Information Science, 46(4), 284-298.
NEUMAN,W. L. (2007): Basics of social research. Qualitative and quatttitative approaches (2.ª ed.),
Boston: Pearson Education.
NICHOLAS,D., l. RowLANDS,D. CLARK,P. HUNTINGTON,
H. R. jAMALI,y c. ÜLLE(2008): «UK scholarly
e-book usage: a landmark survey», Aslib Proceedings, 60(4), 311-334.
NICHOLAS,D., P.WILLIAMS,
l. ROWLANDS
y H. R.jAMALI(2010): «Researchers' e-journal use and
information seeking behaviour»,Journa/ of Information Science, 36(4), 494-516
NIELSEN,P., y A. FJUK(2010): «The Reality beyond the Hype: Mobile Internet is Primarily an Extension
of PC-Based Internet», Ittformation Society, 26(5), 375-382.
NwAGWU,W. E. (2009): «Participatory Gender-Oriented Study of the Information Needs of the Youth in
a Rural Community in South-Eastern Nigeria», African Journal of Library Archives and Information
Science, 19(2), 129-140.
ÜLLÉ,C., y A. BORREGO
(2010): «A qualitative study of che impact of electronic journals on scholarly
information behavior», Library & information science research, 32(3), 221-228.
ÜRTEGAPRIEGO,L. (2005): «Análisis de sesiones de la web del Cindoc: una aproximación a la minería
de uso web», El profesional de la información, 14(3), 190-200.
ÜRTON,R., R. MARCELLA
y G. BAXTER
(2000): «An observacional study of che information seeking
behaviour of Members of Parliament in che United Kingdom», Aslib Proceedings, 52(6), 207-217.
ÜSTRANDER,
M.C. (2008): «Talking, looking, flying, searching: information seeking behavior in Second
Life», Library Hi Tech, 26(4), 512-524.
PARTHASARATHY,
M., y A. BHATTACHERJEE
(1998): «Understanding post-adoption behavior in the
context of online services», Information Systems Research, 9(4), 362-379.
PATTON,
M. Q. (1987): How to use qualitative methods in evaluation, Newbury Park, CA: Sage.
(1990): Qualitative evaluation and research methods (2.ª ed.), Thousand Oaks, CA: Sage
publications.
(2002): Qualitative research and evaluation methods (3.3 ed.), Thousand Oaks, CA: Sage.
PAYNE,
S. L. (1951): The art of asking questions, Princenton, NY: Princenton University Press.
PÉREZfERNÁNDEZ,
M. M., P. GARCÍASAGREDO
y J.J. GÉRVAS
(1990): «Conjunto mínimo básico de
datos en Atención Primaria. Un estudio Delphi», Atención Primaria, 7(2), 112-118.
PÉREZ,C. (2010): Técnicas de muestreo estadístico, Madrid: Garceta.
PETERS,
T. A. (1993): «The history and development of transaction log analysis», Library Hi Tech, 11(1),
41-66.
- KuRTH,M., P. FLAHERTY,
B. SANDORE
y N. K. KASKE(1993): «Transaction log analysis», Library Hi
Tech, 2(42), 1993.
PETTIGREW,
K. E. (1999): «Waiting for chiropody: contextual results from an ethnographic study of
the information behaviour among attendees at community clinics», Information Processing &
Management, 35(6), 801-817.
PICKARD,
A. J. (2007): Research methods in information, Londres: Facet.
PINGS,V. M. y F.ANDERSON
( 1965): A study of the use of Wayne State University Medica/ Library,
part 7, Detroit, MI: Wayne State University, School of Medicine Library and Biomedical Information
Service Center (Report No. 10).
PIÑUEL-RAGADA,
J. (2002): «Epistemología, metodología y técnicas del análisis de contenido», Estudios
de Sociolingüística, 3(1), 1-42.
P1rrs, S., y A. STANLEY
(2007): «Understanding researchers: findings from a focus group», Learned
Publishing, 20(4), 245-251.
PowELL,R. (1997): Basic research methods for librarians (3.ª ed.), Norwood, NJ: Ablex.
PRABHA,
c.,L. s.CONNAWAY,
L. ÜLSZEWSKI
y L. R.JENKINS(2007): «What is enough? Satisficing
information needs»,Journal of Documentation, 63(1), 74-89.
BlBLIOGRAFfA
[305]
QAYYUM,
M. A., K. WILLIAMSON,
Y. H. LIU y P. HIDER(2010): «Investigating the News Seeking
Behavior of Young Adules», Australian Academic & Research Libraries, 41 (3), 178-191.
RADFORD,M. L. (1998): «Approach or avoidance? The role of nonverbal communication in the
academic library user's decision to initiate a reference encounter», Library Trends, 46(4), 699-717.
- (2006): «The Critical Incident Technique and the qualitative evaluation of the connecting libraries
and schools project», Library Trends, 55(1), 46-64.
REDDY,M., y P.SPENCE(2008): «Collaborative information seeking: a field study of a multidisciplinary
patient care team», Information Processing & Management, 44(1), 242-255.
RIAZA-CHAPARRO,
M. (2007): «Nuevas técnicas de estudios de usuario aplicadas a bibliotecas», Revista
General de Información y Documentación, 17(2), 45-61.
RIEH,S. Y. (2004 ): «On the web at home: Information seeking and web searching in the home
environment»,Journal of the American Society for Information Science and Techno/ogy, 55(8),
743-753.
RITCHIE,J., J. LEWISy G. EL AM(2003): «Designing and selecting samples», en J. RJTCHIEy J. LEWIS
(ed.): Qualitative research practice, Thousand Oaks, CA: Sage.
RODRÍGUEZ
GóMEZ,G., J. GIL FLORESy E. GARCÍA
JIMÉNEZ( 1996): Metodología de la investigación
cualitativa, Archidona: Aljibe.
RooRí GUEZÜSUNA,J. ( 1991 ): «Métodos de muestreo», Cuadernos metodológicos, núm. 1, Madrid:
Centro de Investigaciones Sociológicas.
ROYAL,
R. (1997): Statistical evidence: a likelihood paradigm, Londres: Chapman & Hall.
RusJN, H. J., e l. S. RusJN (1995): Qualitative interviewing. The art of hearing data, Thousand Oaks:
Sage.
RYAN,G. W. y H. R. BERNARD
(2000): «Data management and analysis methods», en N. K. DENZINy
Y. S. LJNCOLN(eds.): Handbook of Qualitative Methods, 2.ª ed. (pp. 769-802), Thousand Oaks, CA:
Sage.
SAIRANEN,
A., y R. SAVOLAINEN
(201 O): «Avoiding health information in context of uncertainty
management», Information Research, 15(4), paper 443. Recuperado de http://informationr.neúir/154/paper443.html.
SALAZAR,
P. H., D. NICHOLASe l. RowLAND(2009): «Acceso y uso de libros electrónicos por
comunidades universitarias del Reino Unido», Revista Interamericano de Biblioteco/ogía, 32(2),
13-58.
SAPSFORD,
R., y V. Jurr, (2006): Data collection and analysis (2." ed.}, Londres: Sage.
SAVOLAINEN,
R, y J. KARI(2004a}: «Conceptions of the Internet in everyday life information seeking»,
]ournal of Information Science, 30(3), 219-226.
(2004b): «Placing the Internet in information source horizons. A study of information seeking by
Internet users in the context of self-development», Library & Information Science Research, 26(4),
415-433.
L., y A. L. STRAUS
( 1979): Field research. Strategies for natural sociology, Englewood Cliffs,
SCHATZMAN
NJ: Prentice-Hall.
y
ScHEELE,D. (1975): «Reality construction as a produce of delphi interaction», en H. A. LINSTONE
M. TUROFF(eds.): The De/phi method. Techniques and applications (pp. 35-67), Reading, Ma:
Addison-Wesley.
SEEHOLZER,
J., y J. A. SALEM(2011 ): «Library on the go: A focus group study of the mobile Web and the
academic library», College & Research Libraries, 72(1), 9-20.
SERRANO
Cosos, J. y A. CAsADO-SÁNCHEZ
(2011 ): «Library analytics: métricas online en servicios de
información web», Anuario ThinkEpi, 5, 192-194.
SHEBLE,L., y B. M. WILDEMUTH
(2009): «Transaction Logs», en B. M. WILDEMUTH
(ed.): Applications
of social research methods to questions in Information and Library Science (pp. 166-177), Westport,
CT: Libraries Unlimited.
SHEEHAN,
K. B. (2002): «Toward a typology of Internet users and online privacy concerns», Information
Society, 18( 1), 21-32.
SHIRI,A. (2010): «Query reformulation strategies in an interdisciplinary digital library: the case
of nanoscience and technology», 2010 Fifth International Conference on Digital Information
Management (ICDIM) (pp. 200-206), Thunder Bay, ON: IEEE.
[306]
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL
SHOHAM,S., y Z. SHEMER-SHALMAN
(2003): «Territorial behavior in the school library», School Libraries
Worldwide, 9(2), 1 -23.
(1991): «Evaluating the impact of Medline using the Critical
SIEGEL,E. R., B. A. RAPPy D. A. LINDBERG
lncident Technique», Proceedings!the ... Annual Symposium on Computer Application {sic] in
Medica/ Care. Symposium on Computer Applications in Medica/ Care, 83-87.
SINGH,K. (2007): Quantitative social research methods, Thousand Oaks, CA: Sage publications.
SMITH-MCLALLEN,
A., M. F1SHBEIN
y R. C. HoRNIK(2011 ): «Psychosocial determinants of cancerrelated information seeking among cancer patients»,Jounal of Health Communication, 16, 212-225.
SOLOMON,
P.(1997): «Conversation in information-seeking contexts: A test of an analytical framework»,
Library & Information Science Research, 19(3), 217-248.
SoNNENWALD,
D. (1999): «An integrated human information behavior research framework for
information studies», Library & Information Science Research, 21(4), 429-457.
SPINK,A., y B. J.jANSE (2004): Web search: public searching of the web. New York, Nueva York:
Kluwer Academic.
SPRADLEY,J.
(1980) Observación Participante, Nueva York: Rinehart and Winston.
STARKWEATHER,
W. M., y C. C. WALLIN(1999): «Faculty response to library technology: lnsights on
attitudes», Library Trends, 47(4), 640-668.
STENMARK,
D., y T. jADAAN(2007): «Intranet users information-seeking behaviour: An analysis of
longitudinal search log data», Proceedings of the American Society for Information Science and
Technology, 43(1), 1-19.
STEVENS,
S. S. (1946): «On the theory of scales measurement», Science, 103(2684), 677-680.
L. (1996): «User acceptance of electronic journals: lnterviews with chemists at Cornell
STEWART,
University», College & Research Libraries, 57(4), 339-349.
STRAUSS,
A. L. (1987): Qualitative analysis for social scientists, Cambridge: Cambridge University Press.
STRAUSS,
A., y J. CoRBIN(1998): Basics of qualitative research: Grounded theory procedures and
techniques (2.ª ed.), Los Ángeles: Sage.
STREATFIELD,
D. R., y T. D. WILSON(1982): «Information innovations in social services departments: a
third report on project INISS»,Journa/ of Documentation, 38(4), 273-281.
TAKSA,
l., A. SPINKy B. jANSEN(2009): «Web log analysis: Diversity of research methodologies», en
B. jANSEN,A. SPINK,y l. TAKSA
(eds.): Handbook of research on web log ana/ysis (pp. 506-522),
Pensylvania, Hershey: IGI Global.
TANG,P. C., C. NEWCOMB,
S. GoRDENy N. KREIDER(1997): «Meeting the information needs of patients:
Results from a patient focus group»,Journal of the American Medica/ Informatics Association, 672-676.
TANG,P. C., y C. NEWCOMB(1998): «Informing patients: A guide for providing patient health
information», Journal of the American Medica/ Informatics Association, 5(6), 563-570.
TENOPIR,C., D. W. KINGy A. BuSH (2004): «Medica! faculty's use of print and electronic journals:
changes over time and in comparison with scientists», Journal of the Medica/ Library Association,
92(2), 233-241.
TESCH,R. (1990): Qualitative research: analysis types and software tools, Nueva York: Falmer.
TONTA,Y. (1992): «Analysis of search failure in document retrieval systems: a review», The Public Acces
Computer Systems Review, 3(1), 4-53.
(2000): The Psychology of Survey Response, Cambridge, UK:
TouRANGEAU,
R., L. J. R1PS y K. RASINSKI
Cambridge University Press.
TRINIDAD,
A., V. CARRERO
y R. SORIANO(2006): La Teoría Fundamentada «Grounded Theory». La
construcción e la teoría a través el análisis interpretaciona/, Madrid: Centro de Investigaciones
Sociológicas.
TROCHIM,
W. M. K. (2006): Nonprobability sampling. Recuperado de http://www.socialresearchmethods.
net/kb/sampnon.php.
c. J., A. LIGHT,R. THOMAS,A. BARKER,
A. YEOMAN,
J. COOPER,c. ARMSTRONG,
R. FENTON,
URQUHART,
R. LONSDALE
y S. SPINK(2003): «Critica! incident technique and explicitation interviewing in studies
of information behavior», Library & Information Science Research, 25(1), 63-88.
VALLES,
M.S. (1999): Técnicas cualitativas de investigación social. Reflexión metodológica y práctica
profesional, Madrid: Síntesis.
- (2002): Entrevistas cualitativas, Madrid: Centro de investigaciones sociológicas.
1308)
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL
Xrn, B. (2009): «Older Adults' Health Information Wants in the Internet Age: Implications for PatientProvider Relationships»,Journa/ of Health Communication, 14(6), 510-524.
ZHANG,Y. (2008): «Undergraduate Students' Mental Models of the Web as an Information Retrieval
System », ]ournal of the American Society for lnformation Science and Technology, 59( 13), 20872098.
y B. M. WILDEMUTH(2009): «Qualitative analysis of content», en B.WILDEMUTH(ed.): Applications
of Social Research Methods to Questions in Jnformation and Library Science (pp. 308-319),
Westport, CT: Libraries Unlimited.
ZuccALA, A. (2010): «Open access and civic scientific information literacy», Information Research-an
lnternational Electronic Journal, 15( 1). Recuperado de: http://informationr.net/ir/15-1/paper426.
html.
BIBLIOGRAF(A
[307]
VAUGHAN,
M. W., y N. ScHWARTZ
(1999): «Jumpstarting the information design for a community
network»,journal of the American Society for Information Science, 50(7), 588-597.
(2007): «The use of online electronic
VIBERT,N.,J. F. ROUET,c. Ros, M. RAMONDy B. DESHOULLIERES
information resources in scientific research: The case of neuroscience», Library & Information
Science Research, 29(4), 508 -532.
(2007): «The Use of OPACin a Large Academic Library:
VILLEN-RUEDA,
L., J. SENSOy F.MoYA-ANEGÓN
A Transactional Log Analysis Study of Subject Searching», The ]ournal of Academic Librarianship,
33(3), 327-337.
WALKER,
D., y F.MYRICK(2006): «Grounded theory: an exploration of process and procedure»,
Qualitative Health Research, 16(4 ), 54 7-59.
WALLER,
V. (201 O): «Accessing the collection of a large public library: an analysis of OPACuse», Libres.
Library and Information Science Research Electronic Journal, 20(1 ), 1-27.
WANG,P., M. W. BERRYy Y. YANG(2003): «Mining longitudinal web queries: Trends and patterns»,
Journal of tbe American Society for Information Science and Technology, 54(8), 743-758.
WANG,P., y D. SoERGEL(1998): «A cognitive model of document use during a research project. Study I.
Document selection»,Journal of the American Society for Information Science, 49(2), 115-133.
WANG,P., y M. D. WHJTE(1999): «A cognitive model of document use during a research project. Study
II. Decisions at the reading and citing stages», ]ournal of the American Society for I nfonnation
Science, 50(2), 98-114.
WEBANALYTICS
DEFINITIONS
(2008): Web Analytics Association. Recuperado de http://www.
webanalyticsassociation.org/resource/resmgr/PDF _standards/WebAnalyticsDefinitions.pdf
WEBER,R. P. (1985): Basic content analysis, Beverly Hills: Sage.
WENGRAF,
T. (2002): Qualitative research interviewing, Thousand Oaks: Sage.
L. (1997): «lnformation access issues for interdisciplinary scholars: results of a Delphi
WESTBROOK,
study on women's studies research»,Journa/ of Academic Libraria11ship,23(3), 211-216.
WHJTE,M. D., M. MATTESON
y E. G. ABELS(2008): «Beyond dictionaries-Understanding information
behavior of professional translators»,journal of Documentation, 64(4), 576-601.
WHITE,M. D., y E. E. MARSH(2006): «Content analysis: a flexible methodology», Library Trends, 55(1),
22-45.
WJLLIAMS,P., y B. GuNTER(2006): «Triangulating qualitative research and computer transaction logs in
health information studies», Aslib Proceedings, 58( 1/2), 129-139.
y M. D. CooPER ( 1989): Use of the critica/ i11cide11t
technique
W1LSON,S. R., N. STARRSCHNEIDKRAUT
to evaluate the impact of Medline. (Repon No. NTIS order no PB90 142522), Palo Alto, CA:
American Institute for Research.
(ed.): Fifty
W1LSON,T. D. (1994): «Information needs and uses: 50 years of progress?», en B. C. VICKERY
years of information progress: a Journal of Documentation Review (pp. 15-51 ), Londres: Aslib.
D. R. STREATFIELD
y C. MuLLINGS(1979): «Information needs in local authority social services
departments: a second report on project INISS»,Journa/ o/ Documentation,
35(2), 120-136.
y D. R. STREATFIELD
(1977): «Informations needs in local authority social services departments: an
interim report on project INISS»,Journa/ of Documelltation, 33(4),
277-293.
y B. PENDLETON
(1978): Jnformation needs
STREATFIELD,
D.S., c. MuLLINGS,v. LOWNDES-SMITH
and information services in local authority social services departme11ts (Pro;ect IN/SS). Final
report ... on stages 1 and 2. October 1975-December, 1977, Londres: British Library (British Library
R & D Report Series No. 5453. 2 vols.)
y F. L. ÜSWALD(2008): «Item-level nonresponse rates in an attitudinal
WoLFE,E. W., P. D. CONVERSE,
survey of teachers delivered vía mail and Web»,Journal of Computer-Mediated Commimication, 14,
35-66.
Wooo, F. y P. WRIGHT( 1996): «The impact of information on clinical decision making by General
Medica( Practitioners», Information Research, 2(1), Recuperado de: http://InformationR.net/ir/2-1/
papert 1.html.
WooLSEY,L. K. (1986): «The critica( incident technique: an innovative qualitative method of research»,
Canadian ]oumal of Counselling, 20(4), 242-254.
ÍNDICE DE MATERIAS
Adecuación referencial: 45-46
Afijación: 61-63
Alternativa de respuesta: 84-85, 90, 96, 104, 201
Análisis conversacional: 270
Análisis de casos negativos: 45-46
Análisis de contenido: 271-281
Análisis del discurso: 270,271
Análisis de la variancia: 262
Análisis narrativo: 270, 271
Audit trail: 4 7
Auditoría de confirmabilidad: 47-48
Auditoría de dependibilidad: 47
Autoadministrado: 93, 98, 101-102, 107
Descripción densa: 46
Deseabilidad social: 101-103, 105-106, 202
Desviación típica: 211, 216-217, 252-253, 258
Diccionarios de contenido: 270
Distribución de frecuencias: 248
Carta de preaviso: 107, 116
Categorización: 276-279
Calidad de la investigación: 41-48
Chi cuadrado: 263
Cliente oculto, técnica del: 164
Codificación: 276-279, 287-291
Codificación abierta: 276, 287-289
Codificación axial: 290-291
Codificación selectiva: 291
Concordancia interobservador: 169
Concordancia intraobservador: 169
Confiabilidad: 44-48
Confiabilidad en el análisis de contenido: 281
Confirmabilidad: 47-48
Consentimiento informado: 52, 187, 192, 200, 205
Consulta a expertos: 96, 114, 145
Contraste de hipótesis: 96, 114, 145, 257-261,
264,266,268
Correlación: 248, 254-256
Credibilidad: 45-46
Efecto de primacía: 90, 101
Efecto de recencia: 90, 101,233
Encuesta cara a cara: 98-101, 105-106, 113
Encueras telefónicas: 90, 99-101
Encuestas por correo: 98, 101-104
Encuestas web: 98, 103-105
Encuestas en grupo: 98, 105-106
Entrevista estructurada: 43, 124, 139
Entrevista no estructurada: 122
Entrevista semiestructurada: 123, 142
Entrevistas cognitivas: 97
Error de cobertura: 105, 112-14
Error de medida: 112-113
Error de no respuesta: 112-114
Error muestra): 75, 112, 116
Error tipo 1: 260-261, 264
Error tipo 11:260, 267
Escala Likert: 91,217,221
Escalas de medida: 244-245, 267
Estadística descriptiva: 243, 247-248, 257
Estadística inferencia): 244, 257
Estudios de cohorte: 36
Estudios de panel: 36
Estudios de tendencia: 36
Estudios experimentales: 36-37
Estudios no experimentales: 3 7
Ética: 50-52, 163
Etiquetado de páginas: 230-232
Dato cualitativo: 269
Dependibilidad: 47
Fiabilidad: 41-44, 80, 83, 137, 141,153,169,
181
(310)
MÉTODOS Y TÉCNICAS PARA LA INVESTIGACIÓN DEL COMPORTAMIENTO INFORMACIONAL
Forma de administración: 50, 79, 81-83, 90, 97,
99-104, 109, 117
Grado de significación: 264-266
Grupo de expertos: 214-213
Grupo moderador: 21, 211-213
Hipótesis alternativa: 259-260
Hipótesis nula: 259-260, 264-267
Incidente crítico: 43
Indicadores clave de rendimiento: 236
Inducción analítica: 270
Intervalo de confianza: 75, 258
Investigación correlaciona(: 35
Investigación cualitativa: 31-32, 39
Investigación cuantitativa: 31-32
Key performance indicators: 236
Logs: 228
Marco muestral: 56, 58, 65, 69, 76, 100, 113
Media: 211, 216-218, 221-222, 224-225, 246,
248, 250,-253, 257-259
Mediana: 211, 216-218, 225,248, 250-252
Método comparativo constante: 286-287
Métrica web: 232-233
Moda:248-251
Modelos de decisión etnográfica: 270
Moderador: 24, 187-193, 196, 198-205, 207-208,
211-213
Moderador externo: 189,193,205
Moderador interno: 188-189, 193,201,205
Muestra representativa: 57, 68, 257
Muestra sesgada: 57, 68
Muestreo accidental: 24, 58, 66, 68-69, 73, 78
Muestreo aleatorio estratificado: 58, 60-61, 63,
65,67, 72
Muestreo aleatorio por conglomerados: 58, 62
Muestreo aleatorio simple: 23, 58-59, 62-65, 7778, 101
Muestreo aleatorio sistemático: 58, 60
Muestreo intencional: 58, 66-67, 69-71, 133, 142,
178,274
Muestreo no probabilístico: 33, 55-56, 58, 65-66,
147,158,272,274,285
Muestreo por bola de nieve: 58, 67, 73, 140
Muestreo por cuotas: 58, 71-73
Muestreo probabilístico: 55, 57-58, 65, 78, 257,
272,274
Muestreo teórico: 285-286
Nivel de confianza: 50, 75, 77,221, 260-261
Nivel de significación: 260-261, 264-265, 267
No respuesta: 92, 96-97, 100, 102-107, 112-114,
116, 137, 154
Notas decampo: 174-175
Observación abierta: 161, 163-164
Observación encubierta: 161, 163-164
Observación estructurada: 161, 167-171
Observación no estructurada: 161, 171-175
Observación no participante: 161, 164-165
Observación participante: 161, 164-165
Observación persistente: 46
Pagetagging:230-232
Paradigmas de las ciencias sociales: 27-30
Participación prolongada: 46
Potencia: 260, 267
Preguntas de investigación: 158,162,278
Preguntas de respuesta jerarquizada: 215-216
Preguntas de respuesta por comparación: 217-218
Preguntas de respuesta por estimación: 218-219
Preguntas de respuesta por valoración: 216-217
Preguntas filtro: 94, 98, 103
Preguntas primarias: 128-129, 142
Preguntas secundarias: 128-129
Prueba piloto: 49, 82, 94, 96-98, 114-115, 139, 186
Rango intercuartílico: 211, 216-217, 225,252
Razonamiento deductivo: 33
Razonamiento inductivo: 33
Reactividad: 84-85, 163, 165-166, 176
Registro de transacciones: 228
Regresión: 263-264, 268
Rol del observador: 165-166
Saturación teórica: 285-286
Sesgo del investigador: 84, 137
Significación estadística: 140, 265-267
Tailored design method: 107, 109, 116
Tamaño del efecto: 266-267
Tamaño de muestra: 50, 58, 73-74, 76-78, 113,
265,267
T de Student: 262
Técnica Delphi: 209-225
Tendencia central: 211, 215-218, 224,248, 250253
Teoría formal: 292
Teoría sustantiva: 292
Transcripción: 24, 99-100, 103, 105-106, 135137, 142,169, 187-188, 190,203,246
Transferibilidad: 46
Triangulación: 33, 46,153,228
Unidades de análisis: 275
[311]
ÍNDICEDE MATERIAS
Unidades de registro: 275
Validez: 37,41-44,56, 80-81, 98,104,115,137,
153,201,220,240,246,281
Variable cualitativa: 244, 248-249
Variable cuantitativa: 244, 262
Variable dependiente: 36-37, 263-64, 266
Variable independiente: 36-37, 262-263
Web Tracker:233-23
Descargar