DISEÑOS EXPERIMENTALES: SU UTILIDAD EN LA FORMACION METODOLOGICA EN SOCIOLOGIA Graciela Infesta Domínguez Trabajo presentado a las Segundas Jornadas de Sociología de la Universidad de Buenos Aires, tituladas "1976-1986. Veinte años después: las huellas del pasado reciente en la Argentina de hoy", Buenos Aires, 11 al 13 de noviembre de 1996. RESUMEN El presente trabajo constituye una propuesta sobre cómo encarar la enseñanza de los diseños experimentales: qué aspectos conceptuales deberían abordarse en la clase y en qué secuencia, qué ejemplos podrían utilizarse y con qué finalidad y qué tipo de ejercicios podrían proponerse a los alumnos para que apliquen los temas discutidos en clase. En tanto los estudios experimentales constituyen estudios explicativos que responden a un modelo lógico de inferencia causal, en la primer parte de este trabajo nos referimos a las nociones de "explicación" y "causalidad". A continuación, nos referimos las características de los diseños experimentales en términos de su estructura y sus componentes básicos, poniendo énfasis en los factores que afectan la validez interna y externa de estos diseños. Luego, presentamos los distintos tipos de diseños experimentales más comúnmente utilizados en las ciencias sociales, señalando las ventajas y desventajas de cada uno de ellos. Por último, proponemos algunos ejemplos de investigaciones, así como ejercicios para los alumnos que podrían resultar herramientas pedagógicas útiles en la enseñanza de la temática en cuestión. 1 DISEÑOS EXPERIMENTALES: SU UTILIDAD EN LA FORMACION METODOLOGICA EN SOCIOLOGIA 1 2 Graciela Infesta Domínguez I. INTRODUCCION Una vez que el problema de investigación ha sido formulado en una forma suficientemente clara para especificar los tipos de información necesitada, el investigador debe decidir el diseño de investigación que se adecue más al mismo. El diseño de investigación "... es el programa que guía al investigador en el proceso de recoger, analizar e interpretar observaciones" (Nachmias y Nachmias, 1992). Los diseños de investigación serán distintos según sean los objetivos de la misma. Haciendo una síntesis, podemos decir que "cada estudio tiene sus propios objetivos pero es posible clasificar los objetivos de investigación en los siguientes grandes grupos: 1. avance en el conocimiento de un fenómeno o alcanzar nuevos aspectos del mismo, con frecuencia con el propósito de formular un problema de investigación con mayor precisión o para poder explicitar otras hipótesis; 2. descripción, con mayor precisión, de las características de un determinado individuo, situación o grupo (con o sin específicas hipótesis iniciales acerca de la naturaleza de tales características); 3. determinación de la frecuencia con la que algo ocurre o con la que algo se halla asociado relacionado con otro factor (generalmente, pero no siempre, con una hipótesis inicial específica) 4. comprobación de una hipótesis causal entre variables" (Selltiz et al., 1965). Los estudios que se encuadran en el primero de los grupos enunciados se denominan exploratorios. En estos estudios "... el énfasis mayor recae en el descubrimiento de ideas y aspectos profundos... Muchos estudios exploratorios tienen como objeto la formulación de un problema para posibilitar una investigación más precisa o el desarrollo de una hipótesis. Un 1 Este trabajo fue elaborado en ocasión del Concurso para el Cargo de Profesor Adjunto de la Cátedra de Metodología de la Investigación, Carrera de Sociología, Facultad de Ciencias Sociales, Universidad de Buenos Aires, realizado el 25 de septiembre de 1996. 2 Esta clase será dada a alumnos que cursan Metodología de la Investigación I. Uno de los principales objetivos de esta materia es que los alumnos conozcan distintos tipos diseños de investigación. De acuerdo con el actual programa de la materia, los diseños experimentales se incluyen en la Unidad III en la que se analiza en particular la relación entre objetivos y diseños de investigación. 2 estudio exploratorio puede tener, sin embargo, otras funciones: aumentar la familiaridad del investigador con el fenómeno que desea investigar por medio de un estudio... mejor estructurado..., aclarar conceptos; establecer preferencias para posteriores investigaciones..." (Selltiz, et al., 1965), etc. Así, el mayor énfasis está puesto en el descubrimiento de aspectos profundos del objeto de estudio. Consecuentemente, estos estudios requieren diseños de investigación lo suficientemente flexibles como para permitir la consideración de numerosos aspectos distintos de un fenómeno. Los estudios a los que se refieren los grupos segundo y tercero los agrupamos bajo el epígrafe de estudios descriptivos. Los hemos considerado conjuntamente porque, desde el punto de vista de los procedimientos de investigación, comparten determinadas características importantes. "Las demandas de una investigación presupone mucho conocimiento anterior del problema que va a ser investigado... El investigador debe estar capacitado para definir claramente qué desea someter a medida y debe hallar los métodos adecuados para su medida. Además, debe ser capaz de determinar a quién debe incluirse en la definición de una `determinada comunidad' o `población dada'. En la recogida de pruebas para un estudio de estas características, lo que se necesita no es tanto una gran flexibilidad como una clara formulación de qué y quién van a ser medidos y las técnicas para medidas válidas y de confianza. Por estos motivo, los procedimientos a ser utilizados en los estudios descriptivos deben ser cuidadosamente planificados tomando todas las medidas para evitar los errores de sesgo" (Selltiz et al., 1965). Los estudios del grupo cuarto (estudios de comprobación de hipótesis causales) suelen denominarse estudios explicativos. Estos requieren procedimientos que no solamente disminuyan los riesgos de errores de sesgo y aumenten el grado de la confianza (como los descriptivos), sino que permitan inferir acerca de la causalidad. No es nuestra intención simplificar la cuestión pero sintéticamente podríamos decir (en una primera aproximación al tema) que describir es responder a la pregunta del cómo es algo, en tanto que explicar es responder a la pregunta por qué algo es o se presenta de determinada manera. En este sentido, los procedimientos más frecuentes para lograr dicha condición adquieren la forma de trabajo experimental. No obstante, es necesario aclarar que existen estudios referidos a la comprobación de hipótesis de relaciones causales que no constituyen diseños experimentales. En tanto que describir implica señalar aspectos reconocibles o signos característicos de las cosas, "al describir nos mantenemos en el mismo nivel proposicional de lo que estamos describiendo, no hay un cambio de plano. En cambio explicar (al menos en un sentido fuerte) sí implica un cambio de plano. Para decirlo rápidamente... explicar es subsumir, incorporar un hecho bajo un enunciado general" (Schuster, 1982). De hecho, estos diferentes tipos de estudio no son apenas susceptibles de distinción. Cualquier investigación dada puede contener en sí elementos de dos o más de las funciones descriptas como caracterizadoras de los distintos tipos de estudio. Sin embargo, es frecuente que en una investigación se ponga el énfasis en una sola de estas funciones y el estudio puede ser considerado como clasificado en la categoría correspondiente a su función primordial. En esta oportunidad, nos referiremos a los estudios explicativos, específicamente a los 3 estudios experimentales en tanto éstos constituyen un modelo lógico de inferencia causal. En este sentido, el presente trabajo constituye una propuesta sobre cómo abordar la enseñanza de los diseños experimentales: qué aspectos conceptuales deberían abordarse en la clase y en qué secuencia, qué ejemplos podrían utilizarse y con qué finalidad y qué tipo de ejercicios podrían proponerse a los alumnos para que apliquen los temas discutidos en clase. En relación a los aspectos conceptuales, en esta ocasión pondremos el énfasis en la estructura y los componentes de los diseños experimentales y en los distintos tipos de diseños experimentales más comúnmente utilizados en las ciencias sociales. Dejaremos para otra oportunidad la presentación de los procedimientos estadísticos de análisis e interpretación de los resultados producidos en los estudios experimentales, así como otros estudios explicativos que realicen inferencias causales a través de otros procedimientos que no sean el experimental. II. LA UTILIDAD DE LOS DISEÑOS EXPERIMENTALES EN SOCIOLOGIA El diseño experimental clásico es usualmente asociado con la investigación en las ciencias biológica y física. Las causas por las cuales los diseños experimentales son útiles en las ciencias sociales son dos: 1. el diseño experimental clásico nos ayuda a comprender la lógica de todos los diseños de investigación. Es un modelo contra el cual nosotros podemos analizar otros modelos. Así, cuando nosotros comprendemos la estructura y la lógica del diseño experimental clásico, podemos comprender las limitaciones de otros diseños (Nachmias y Nachmias, 1992), así como sus ventajas; 2. la significancia del experimento estriba en que permite al investigador hacer inferencias causales y observar, con relativamente pocas dificultades, si la variable independiente causa o no cambios en la variable dependiente (Nachmias y Nachmias, 1992). El experimento es menos usado en las ciencias sociales, en primer lugar, porque es una estructura rígida que a menudo no puede ser adaptado a la investigación social. Así, los científicos sociales frecuentemente usan diseños que son más débiles para realizar inferencias causales pero que resultan más apropiados para el tipo de problemas que tienen que analizar, tales como, por ejemplo, los diseños denominados cuasiexperimentales. No obstante, los experimentos ciertamente son usados en las ciencias sociales. Incluso, en algunos campos de las ciencias sociales, como ocurre en la psicología social, los diseños predominantemente utilizados son los experimentales. Por otra parte, el uso de experimentos ha llegado a difundirse más en los análisis de políticas y evaluación de proyectos. Tal como dijimos anteriormente, los estudios experimentales son estudios explicativos que constituyen un modelo lógico de inferencia causal. En este sentido, es necesario aclarar que hay diferentes tipos de explicación. Así, podemos interesarnos en la explicación de una ley o de sucesos, estados de cosas o hechos singulares. "Típicamente la explicación de una ley se realiza a partir de otras leyes, deduciéndola de otras más generales, de un nivel más teórico. Es decir, explicar una ley es algo relativo que consiste en situarla en el contexto de otras leyes... También 4 podemos explicar los hechos singulares haciendo referencia a aspectos más generales. Y esto nos lleva a formular el modelo de explicación más riguroso y exigente, el nomológicodeductivo. Por supuesto, este modelo, desarrollado por Popper, Hempel, Nagel, se puede aplicar tanto a hechos singulares como generales" (Schuster, 1986). Por ejemplo, "ante el hecho... de que un trozo de hierro, en un instante dado, se dilata con el calor, podemos preguntarnos por qué ocurre este fenómeno. Para responder adecuadamente, buscamos enunciados generales (leyes) dentro de las cuales el hecho en cuestión (el enunciado que lo describe) queda incluido. Para evitar confusiones, no se trata de obtener el enunciado general a partir del hecho singular (mediante una inferencia inductiva), sino encontrar una ley o leyes que ya han sido formuladas previamente en el contexto de que se trate y de la que, como veremos, el hecho en cuestión puede deducirse. En nuestro simple caso, encontraríamos la ley general `Todos los metales se dilatan con el calor'. Pero la explicación no está así terminada, pues, incluso, no se puede hacer propiamente la deducción si no conocemos ciertos datos, condiciones iniciales o circunstancias particulares; en nuestro ejemplo, que el hierro es un metal" (Schuster, 1986). Existen otro tipo de explicaciones que guardan relación con la estructura lógica anteriormente expuesta y que son las que nos interesan en esta oportunidad. Nos referimos a las explicaciones causales, las cuales, según Hempel, "... tienen la estructura indicada, sólo que se usan leyes causales. Popper introduce una variación del modelo anterior en su modelo hipotético-deductivo de explicación, en el que permite que las leyes, en lugar de ser verdaderas (o de que nos basemos en esto), sean hipótesis de teorías suficientemente corroboradas" (Schuster, 1986). En este sentido, "... uno explica cuando coloca el hecho a explicar en el contexto de una teoría (entendida como conjunto de hipótesis); la explicación es así hipotética" (Schuster, 1986). De lo dicho hasta aquí, no debe inferirse que toda explicación ha de ser causal ya que puede darse por correlaciones, como ocurre muchas veces en las ciencias sociales (Schuster, 1986). De ahí que sea necesario detenernos un poco en la noción de causalidad, la cual abordamos en el próximo apartado. III. EL EXPERIMENTO COMO TECNICA DE ANALISIS CAUSAL El experimento puede calificarse como el más prominente de todos los métodos de investigación en cuanto es el único que permite constatar relaciones causales. El concepto de causalidad es complejo y el análisis exhaustivo del mismo nos llevaría más allá del propósito de esta clase. En esta oportunidad nos limitaremos a aquellos puntos que parecen esenciales para el entendimiento de los requerimientos de los procedimientos de investigación en aquellos estudios destinados a la comprobación de hipótesis causales. El sentido común aplicado a la causalidad tiende a considerar que un acontecimiento singular (la causa) siempre lleva a otro acontecimiento singular (el efecto). En la ciencia moderna, el énfasis se carga más bien sobre una multiplicidad de "condiciones determinantes", las cuales, en conjunto, hacen probable la ocurrencia de un determinado acontecimiento. Tanto el sentido común como el pensamiento científico se ocupan del descubrimiento de las condiciones necesarias y suficientes para un fenómeno. 5 Una condición necesaria es la que debe ocurrir si el fenómeno del que es "causa", se da en efecto. Si X es una condición necesaria de Y, entonces Y nunca se dará a menos que ocurra la condición X. Por ejemplo, para ser un adicto a las drogas es condición necesaria una previa experiencia con las mismas, puesto que es imposible una adicción a las drogas si la persona nunca las ha usado. Una condición suficiente es la que siempre es seguida por el fenómeno del que es causa. Si X es una condición suficiente de Y, siempre que se dé X, ocurrirá Y. Por ejemplo, la destrucción del nervio óptico es una condición suficiente de ceguera, puesto que ninguna persona cuyo nervio óptico ha sido destruido puede ver. Una condición puede ser a la vez necesaria y suficiente para la ocurrencia de un fenómeno. En tal caso, Y nunca se dará a menos que X ocurra y siempre que X ocurra, también se dará Y. En otras palabras, no habrá ningún caso en que X o Y aparezcan solos. Ninguno de los ejemplos anteriores se ajusta a este modelo. En tanto el sentido común nos lleva a confiar que un factor proporcione una completa explicación, el científico raramente confía -por no decir nunca- en que un factor único o condición sea causa suficiente y necesaria de un fenómeno. Más bien está interesado en las condiciones contribuyentes, condiciones contingentes y condiciones alternativas o alternantes, todas las cuales el científico espera que se hallen trabajando para hacer probable pero no segura la ocurrencia del acontecimiento o fenómeno (Selltiz et al., 1965). Una condición contribuyente es la que aumenta las probabilidades de que ocurra un determinado fenómeno pero no lo hace seguro, lo cual se debe a que éste es solamente uno del número de factores que, conjuntamente, determina la ocurrencia del fenómeno. Así, la investigación sobre la adicción a las drogas no termina con la aceptación de que la experiencia previa con las drogas es condición necesaria para aquélla, sino que continúa con la consideración de qué factores personales, familiares y de vecindad han llevado a tal experiencia y cuál de los factores influye más para que una persona que ha tenido la experiencia primera se convierta en adicto (Selltiz et al., 1965). Pero el comportamiento con que la ciencia social trata es complejo en extremo; la interacción de factores debe ser tenida en cuenta. Un factor que actúa como condición contribuyente de un fenómeno bajo una serie de circunstancias puede no hacerlo bajo otras. Las condiciones bajo las cuales una determinada variable es causa contribuyente de un fenómeno dado son llamadas condiciones contingentes. Una considerable parte de la investigación que se realiza en el campo de las ciencias sociales se refiere a la identificación de tales condiciones. Por ejemplo: en las vecindades donde el uso de las drogas está generalizado (condición contingente), la ausencia del padre del adolescente (condición contribuyente) contribuye a la probabilidad de que el muchacho sea un adicto a aquéllas (Selltiz et al., 1965). El conocimiento de la multiplicidad de causas contribuyentes lleva también a un interés por las condiciones alternativas que pueden hacer más verosímil la ocurrencia de un fenómeno. Por ejemplo, puede descubrirse que tanto la ausencia de la figura paterna como la ocurrencia de 6 trato hostil o indiferente por parte del padre, contribuyen a la probabilidad del uso de drogas en aquellas vecindades donde su uso es común. El científico social puede entonces buscar una hipótesis que incluya un factor común a ambas causas -la alternativa y la contribuyente- y así formular, por ejemplo, que en las vecindades donde las drogas son fáciles de adquirir, la falta de identificación con la figura paterna durante la niñez hace más probable la adicción a las drogas durante la adolescencia (Selltiz et al., 1965). Muchas hipótesis en ciencias sociales se ocupan de las condiciones contribuyentes o alternativas y las contingencias bajo las cuales actúan. Sin embargo, es imposible demostrar directamente que una característica u ocurrencia determinada (X) determina otra característica u ocurrencia (Y), ya se por sí misma o en combinación con otras características u ocurrencias (A, B, C, etc.). Más bien lo que ocurre es que estamos siempre en posición de inferir, a partir de datos observados que la hipótesis de que X es una condición para la ocurrencia de Y es o no sostenible con cierto grado específico de confianza. La ciencia, como otros procesos cognitivos, comprende la formulación de teorías, hipótesis, modelos, etc., así como la aceptación o el rechazo de ellos en virtud de algún conjunto de criterios externos. La experimentación pertenece a esa segunda fase, la del desbrozamiento, el rechazo y la revisión. Podemos suponer para nuestra ciencia una ecología en la cual el número de hipótesis positivas exceda en mucho al de hipótesis que a la larga demostrarán ser compatibles con nuestras observaciones. La característica predominante de la tarea de compilación de datos para la prueba de teorías es, pues, el rechazo de hipótesis inadecuadas (Campbell y Stanley, 1970). Para conseguirlo resulta provechoso cualquier ordenamiento de observaciones en virtud del cual se desautorice la teoría correspondiente, incluyendo diseños cuasiexperimentales de menor eficacia que los verdaderos experimentos. En un sentido muy fundamental, los resultados experimentales nunca "confirman" ni "demuestran" una teoría; más bien la teoría triunfante está probada y escapa a la refutación. En otras palabras, "los resultados de un experimento `ponen a prueba' pero no `prueban' una teoría. Una hipótesis bien fundada es aquella que ha sobrevivido en reiteradas ocasiones a esos exámenes pero que siempre puede ser desplazada por otra nueva investigación" (Campbell y Stanley, 1970). ¿Qué evidencia es necesaria para justificar inferir la existencia de relaciones causales entre dos variables? En la práctica, la demostración de la causalidad conlleva tres diferentes operaciones: 1. Demostrar covariación (o variación concomitante) Covariación simplemente significa que dos o más fenómenos varían conjuntamente. Por ejemplo, si un cambio en el nivel de educación es acompañado por un cambio en el nivel del ingreso, se puede decir que la educación covaría con el ingreso. Esto significa que los individuos con más alto nivel de educación también tienen más altos ingresos que los de menor nivel de educación. Recíprocamente, si un cambio en el nivel de educación no es acompañado por un 7 cambio en el nivel de ingreso, la educación no varía concomitantemente con el ingreso. En la investigación científica, la noción de covariación es expresada a través de medidas de relaciones comúnmente indicadas por correlaciones y asociaciones. De este modo, una correlación entre fenómenos es una evidencia necesaria para una interpretación causal. Por ejemplo, si el autoritarismo no está correlacionado (no varía concomitantemente) con la violencia, aquel no puede ser la causa de ésta. 2. Eliminar las relaciones espúreas La segunda operación requiere que el investigador demuestre que la covariación observada no es espúrea. Existe una relación no espúrea entre dos variables cuando dicha relación no es explicada en el análisis por una tercer variable. En otras palabras, si los efectos de todas las variables relevantes son controlados y la relación entre las dos variables originales se mantiene, la relación entre estas no es espúrea. Que una relación no es espúrea implica que hay nexo causal inherente entre las variables y que la covariación observada no está basada en una conexión accidental con algún fenómeno asociado. 3. Establecer el orden temporal de la ocurrencia de variables La tercera operación requiere que el investigador demuestre que la variable que se asume como causa ocurre primero o cambia primero que la que se asume como efecto. El supuesto implícito aquí es que un fenómeno en el futuro no puede determinar un fenómeno en el presente o en el pasado. En muchos casos, existen algunas dificultades para determinar el orden temporal de los fenómenos. Así, el status de los padres influye en las expectativas educativas de sus hijos y no viceversa. Pero, podemos decir que el logro ("achievement") sigue a la motivación o que un cambio en el nivel de motivación sigue al logro. Nosotros discutiremos más adelante, los métodos empleados para determinar el orden temporal de los eventos, pero en este punto sólo queremos señalar la significancia del criterio de orden temporal cuando formulamos explicaciones causales. IV. EL DISEÑO EXPERIMENTAL CLASICO El diseño clásico de investigación experimental consiste de dos grupos comparables: un grupo experimental y un grupo de control. Estos dos grupos son equivalentes excepto en el hecho de que el grupo experimental es expuesto a la variable independiente (también denominada estímulo -"treatment"-) y el grupo de control, no. La asignación de los casos al grupo experimental o de control está basada en el azar. Esto tiene por objetivo el garantizar la igualdad y, por ende, la comparabilidad de ambos grupos. Para evaluar el efecto de la variable independiente, los investigadores realizan dos mediciones sobre la variable dependiente para cada grupo. La primera medición -el pretest- es realizada antes de introducir la variable independiente en el grupo experimental. La segunda medición -el postest- es realizada luego que la exposición al estímulo ha tenido lugar. Las diferencias entre el pretest y el postest son comparadas en cada grupo. Si la diferencia en el grupo experimental es significativamente mayor que en el grupo de control, se infiere que la variable independiente está 8 causalmente relacionada con la variable dependiente. ¿Cómo interpretar los resultados? Si resulta que la diferencia entre las mediciones de la variable dependiente (realizadas en los grupos experimental y de control) es "auténtica" con un determinado grado de significación, por ejemplo, con 95 % de seguridad, cabe afirmar un nexo causal. Ahora podría hacerse la siguiente interpretación: con un 95 % de seguridad vale para todas las personas de la clase "I" (universo sobre el que se ha de generalizar) que la variable X determina a la variable Y (o, de otra manera: X es una causa de Y). Se precisará al máximo en cada caso concreto la naturaleza del nexo: si Y aumenta o decrece con X, si se transforma proporcional o exponencialmente, etc. La medida en que estos enunciados sean posibles es algo que depende de la naturaleza de las variables. Importante de retener es que a través del experimento sólo se demostró que Y es determinado, entre otros factores, por X, pero no sólo por X. Es posible que también otros factores ejercieran su influencia sobre Y. A fin de descubrir el mayor numero posible de factores causales relevantes para Y, se deberían organizar muchos experimentos en cada uno de los cuales se manipularía como estímulo uno u otro de los supuestos factores causales, mientras que los restantes factores —también aquellos cuyo carácter causal se puso de manifiesto en los anteriores experimentos— se controlarían mediante la equiparación de Gl y G2. Es posible reducir todo este trabajo cuando se realizan experimentos con varios factores causales simultáneamente, como veremos más adelante. El diseño experimental clásico posee tres componentes: la comparación, la manipulación y el control. Los tres son necesarios para establecer que la variable independiente y la dependiente están causalmente relacionadas. La comparación nos permite demostrar la covariación, la manipulación ayuda a establecer el orden temporal de los eventos y el control nos permite determinar que la covariación observada no es espúrea. Discutiremos cada uno de estos componentes separadamente. 1. Comparación El proceso de comparación subyace al concepto de covariación o correlación. La comparación es una operación requerida para demostrar que dos variables están correlacionadas. Digamos, por ejemplo, que deseamos demostrar una correlación entre fumar cigarrillos y el cáncer de pulmón: el fumar cigarrillos está asociado a un mayor riesgo de contraer cáncer de pulmón. Para examinar esto, el investigador debe comparar la frecuencia de casos de cáncer entre fumadores y no fumadores o, alternativamente, comparar el número de casos de cáncer en una población de fumadores antes y después de haber comenzado a fumar. Supongamos que creemos que el mirar televisión contribuye a fomentar imágenes tradicionales sobre los roles de hombres y mujeres entre los adolescentes. Nosotros esperamos encontrar una covariación entre el mirar televisión y las imágenes tradicionales de género. Esto es, los adolescentes que pasan más tiempo mirando televisión exhibirán estereotipos tradicionales de roles de género. Para estimar esta covariación podríamos comparar grupos de adolescentes que miren poca televisión con grupos que miren mucha televisión; o bien comparar las concepciones sobre los roles de género de un grupo antes y después de ver un programa de televisión que privilegia las imágenes tradicionales sobre los roles de género. En otras palabras, para determinar la covariación debemos evaluar los resultados de los adolescentes sobre la variable dependiente antes y después 9 de introducir la variable independiente, o bien comparar un grupo que está expuesto a la variable independiente con otro que no lo está. En el primer caso, un grupo es comparado con sí mismo; en el segundo caso, un grupo experimental es comparado con un grupo de control. 2. Manipulación La noción de causalidad implica, como ya dijimos, que Y es causada por X, entonces un cambio inducido en X acarreará un cambio en Y. Esta relación empírica es asimétrica no reversible, lo cual implica que X produce Y pero no a la inversa. Para que esto se produzca, el cambio de X debería ocurrir ante que el cambio de Y, de lo cual se sigue que ésta no puede ser la variable determinante. Por ejemplo, si se sostiene que la participación en grupos de tratamiento de alcohólicos aumenta la negación de los problemas del alcoholismo, debe demostrarse que el aumento de la negación tiene lugar luego de la participación en el grupo de tratamiento. Esto puede estar acompañado por alguna forma de control -manipulación- de la asignación al grupo de tratamiento de tal forma que el investigador pueda medir el nivel de negación a los problemas del alcoholismo antes y después de la participación en el grupo. En los escenarios ("settings") experimentales, especialmente en experimentos de laboratorio, los investigadores pueden introducir ellos mismos el estímulo experimental y manipularlo. Esto sucede cuando el investigador puede decidir libremente que el estímulo sea introducido en uno u otro grupo. Sólo así puede hablarse de experimento en sentido estricto pues sólo entonces existe la certeza de que la modificación de Y (variable dependiente) fue producida por X (estímulo introducido). Sin embargo, en los escenarios naturales (experimentos de campo) los investigadores no siempre pueden introducir el estímulo experimental y manipularlo libremente. En ambos casos, la principal evidencia requerida para determinar el orden temporal de los eventos, esto es que la variable independiente preceda a la variable dependiente, es que se produzca un cambio solamente después de la activación de la variable independiente. 3. Control El tercer criterio de causalidad requiere que otros factores sean desechados como explicaciones opuestas de la asociación observada entre las variables investigadas. Tales factores podrían invalidar la inferencia de que las variables están causalmente relacionadas. Esto ha sido denominado por Donald Campbell y Julian Stanley (1970) como problema de validez interna. Así, "llamamos validez interna a la mínima imprescindible sin la cual es imposible interpretar el modelo. Por su parte, la validez externa plantea el interrogante de la posibilidad de generalización: ¿a qué poblaciones, situaciones, variables de tratamiento y variables de medición puede generalizarse este efecto? Ambos criterios son sin duda importantes, aunque con frecuencia se contrapongan, en el sentido de que ciertos factores que favorecen a uno de ellos perjudican al otro. Si bien la validez interna es el sine qua non y a la cuestión de validez externa, como a la de la inferencia inductiva, nunca se puede responder plenamente, es obvio que nuestro ideal lo constituye la selección de diseños ricos en una y otra validez. 10 3.1. La validez interna de los diseños experimentales Con relación a la validez interna Campbell y Stanley (1970) presentan ocho clases distintas de variables externas que, de no controlárselas en el diseño experimental, podrían generar efectos que se confundieran con el estímulo experimental. Los factores que pueden afectar la validez interna pueden ser clasificados entre aquellos que son extrínsecos a la operación de investigación y aquellos que son intrínsecos y que infringen los resultados durante el período de estudio. A. Factores extrínsecos Son factores que dan cuenta de sesgos resultantes de una selección diferencial en el reclutamiento de los participantes de la investigación para los grupos experimental y de control. Estos factores de selección producen diferencias entre el grupo experimental y de control que son anteriores a la operación de investigación. Los efectos de selección son especialmente problemáticos en casos en los cuales los individuos deciden si participan en un experimento. En tales casos, el investigador no puede decir si la variable independiente causa las diferencias observadas entre el grupo experimental y de control o si otros factores relacionados con los procesos de selección son los responsables de tales efectos observados. Procedimientos de control Para que las mediciones de la variable dependiente realizadas en los grupos experimental y de control puedan ser comparadas entre sí con pleno sentido, ambos grupos han de ser iguales en todas las variables que (junto a X) hayan podido influir en la variable dependiente. Esto se denomina control de los factores desconocidos. Están controlados cuando existe la certeza de que su repercusión en la variable dependiente es la misma en ambos grupos. Para la igualación de los grupos se emplean habitualmente dos métodos: la aleatorización ("randomization") y el pareo ("matching"). a) Pareo Cuando deba experimentarse con una totalidad pequeña, la igualdad de los dos grupos puede realizarse mediante la aplicación del método del pareo o "matching". Es decir, se divide la población en dos grupos según el principio del pareo. De esta manera están en vigencia las leyes de la teoría probabiIística, y se puede suponer que ambos grupos, siempre que no sean demasiado pequeños, son iguales en sus atributos (Mayntz, 1988). Si, por ejemplo, se sospecha que junto al factor X también el sexo y la edad de los estudiantes son determinantes de la intensidad del prejuicio, se los podría subdividir de la manera que se expone en la siguiente tabla (Mayntz, 1988): Menos de 20 años 20-25 años Más de 25 años 11 Varones 20 40 20 Mujeres 15 30 18 Cada uno de los seis subgrupos es luego dividido en dos, al azar. La mitad se incluye en el grupo Gl, y la otra mitad, en el grupo G2 (en caso de números impares una de las mitades será mayor que la otra en una unidad. El error resultante es despreciable cuando el número de los ocupantes del cuadro es suficientemente grande. Naturalmente, se puede extraer al azar a una persona, con lo que el cuadro presenta un número par). De esta manera se consigue que cada miembro de un grupo tenga un "gemelo" (en los factores causales codeterminantes escogidos) en el otro grupo. Por ello se habla de pareo. Mediante la bipartición aleatoria de los subgrupos se procura que ambas mitades sean iguales en todos los restantes factores causales no considerados. Ahora bien, los subgrupos no deberían ser demasiado pequeños. Naturalmente, así es posible igualar más de dos factores. Pero si los subgrupos son demasiado pequeños, su bipartición aleatoria conduce a una "igualdad" muy distorsionada. El "matching" puede ser también aplicado a una muestra extraída a partir de un universo muy amplio (Mayntz, 1988). b) Aleatorización ("randomization") Se obtienen ambos grupos como muestras aleatorias del mismo universo (por ejemplo, estudiantes de la Universidad de Buenos Aires). Según la teoría matemático-estadística de la probabilidad, estas muestras (dentro de determinados límites de error) son iguales en todas sus características (medias, distribuciones de frecuencias). Con esto están "controlados" todos los factores causales desconocidos (Mayntz, 1988). A veces se indica un tercer método para la igualación de ambos grupos: la igualación de los parámetros de las distribuciones de frecuencia relevantes. Las personas sometidas al experimento son distribuidas entre los dos grupos en base a los factores causales codeterminantes supuestos de manera que las medias (y, eventualmente, las dispersiones) sean iguales. Si se sospecha, pongamos por caso, que la edad es un factor codeterminante, habría que repartir a los individuos entre los dos grupos de tal forma que su edad media y, eventualmente, la dispersión de edad, fueran iguales en ambos grupos. Se trata de una forma primitiva del "matching". Los restantes factores causales codeterminantes, a diferencia de lo que ocurre en el "matching", no resultan controlados, puesto que el principio aleatorio no es puesto en práctica a la hora de la asignación de los individuos al grupo Gl o al G2. B. Factores intrínsecos Estos factores dan cuenta de cambios en los individuos o unidades estudiadas que ocurren durante el período de estudio, cambios en el instrumento de medición o el efecto reactivo de la propia observación. Los siguientes son los principales factores que pueden invalidar la interpretación causal resultante de los resultados de la investigación: 12 1) Historia Se refiere a todos los acontecimientos ocurridos entre la primera y la segunda medición que -además de la variable independiente- pueden afectar a los individuos estudiados y proveer una explicación opuesta para el cambio de la variable dependiente. 2) Maduración Incluye procesos biológicos, psicológicos o sociales que producen cambios en los participantes que operan como resultado del mero paso del tiempo (no son peculiares de los acontecimientos en cuestión). Estos cambios podrían influenciar posiblemente a la variable dependiente y llevarnos a realizar inferencias erróneas. La maduración al igual que la historia son amenazas serias para la validez de la inferencia causal. 3) Administración de tests La posible reacción a la medición es uno de los principales problemas de la investigación en las ciencias sociales. El proceso de administrar tests puede cambiar el fenómeno que está siendo medido. El efecto de ser sometido a un pretest puede sensibilizar a los individuos y afectar sus resultados en el postest. Así, la diferencia entre los resultados del postest y el pretest podrían deberse no a la variable independiente sino más bien a la experiencia ganada por los individuos en el pretest. Similarmente, a través del pretest, los individuos pueden aprender las respuestas socialmente aceptadas ya sea formulando las preguntas o discutiendo los resultados con amigos. Así, ellos pueden responder en la dirección esperada en el postest. 4) Instrumentación Designa los cambios en los instrumentos de medición o en los observadores o calificadores participantes entre el pretest y el postest que pueden producir variaciones en las mediciones que se obtengan. Para asociar las diferencias entre los resultados del postest y el pretest con la variable independiente, el investigador tiene que mostrar que mediciones repetidas con el mismo instrumento de medición bajo condiciones estables conducirán al mismo resultado. Si esto no puede ser mostrado, las diferencias observadas podrían atribuirse a cambios en el instrumento de medición y no necesariamente a la variable independiente. La estabilidad de la medición es un problema de confiabilidad y su ausencia puede ser una amenaza para la validez de los instrumentos. 5) Regresión estadística Opera cuando los individuos han sido asignados a los grupos experimental y de control sobre la base de sus puntajes extremos sobre la variable dependiente. Cuando esto ocurre y las mediciones no son confiables, individuos que han tenido resultados por debajo del promedio en el pretest podrán aparecer como que han aumentado su resultado en el postest. Inversamente, los individuos que han tenido resultados superiores al promedio en el pretest aparecerán con resultados no tan buenos en el postest. Por ejemplo, cuando nosotros damos un examen, algunas veces podemos tener una actuación por debajo de nuestras expectativas en relación al test debido a factores que escapan a nuestro control y que nada tiene que ver con nuestra capacidad académica (por ej., haber tenido una noche de insomnio antes del test o haber tenido un problema personal). Estos factores que no reflejan la verdadera capacidad son definidos como errores. Es muy probable que la próxima vez que el test fuera tomado nuestro rendimiento aumentara sin 13 estudiar adicionalmente. En una visión más general, la regresión estadística puede llegar a ser una amenaza para la validez de un estudio si se espera que el tratamiento produzca un cambio en los individuos cuyos resultados sobre la variable dependiente son extremos al comenzar. 6) Mortalidad experimental Se refiere a los problemas que la pérdida de participantes de los grupos de comparación le generan al investigador ya que le impiden obtener información completa en todos los casos. Cuando los individuos desaparecen selectivamente del grupo experimental y de control, la muestra final sobre la cual se dispone información completa puede estar sesgada. 7) Interacción con selecciones Muchos de los factores que constituyen una amenaza para la validez interna de los experimentos pueden interactuar con selección y representar una amenaza adicional para la validez del estudio. Los factores que más comúnmente interactúan son la selección-historia y la selección-maduración. La interacción selección-historia resulta cuando el grupo experimental y el de control seleccionados provienen de distintos escenarios ("settings") los cuales pueden afectar las respuestas de los individuos al tratamiento. La interacción selección-maduración ocurre cuando el grupo experimental y el de control maduran a un ritmo diferente (por ejemplo, si se compara el desarrollo cognitivo de hombres y mujeres entre el pretest y el postest). 3.2. Generalización de los resultados: el problema de validez externa de los diseños experimentales La validez interna es sin duda un aspecto crucial de la investigación social. Una pregunta significativa adicional tiene que ver con la posibilidad de generalizar los resultados de la investigación a poblaciones mayores y aplicarlos a contextos sociales y políticos diferentes. Este punto es denominado validez externa de los diseños experimentales. Los dos principales factores que amenazan la validez externa o representatividad son los siguientes: 1) La representatividad de la muestra La aleatorización contribuye a la validez interna de un estudio. Sin embargo, no asegura necesariamente la representatividad de la población de interés. Resultados que prueban ser internamente válidos pueden ser específicos para el grupo seleccionado para los estudios en particular. Esta situación es altamente probable en situaciones en las que el reclutamiento de los casos del estudio es difícil. Para que sea posible hacer generalizaciones a partir de los resultados limitados del estudio específico, el investigador debería tener cuidado en la selección de la muestra utilizando métodos de muestreo que aseguren la representatividad. En teoría, los grupos experimental y de control deberían constituir muestras probabilísticas de la población bajo estudio. Sin embargo, en la práctica, obtener una muestra probabilística para un experimento a menudo implica problemas como el alto costo y la alta tasa de rechazo de los sujetos a cooperar con la investigación. 2) Efectos reactivos de los dispositivos experimentales Los resultados de un estudio aspiran a ser generalizados no sólo a una población mayor sino también escenarios o contextos de la vida real. Sin embargo, esto no siempre puede ser 14 concretado, especialmente cuando un estudio es realizado en una situación altamente artificial y preparada -tal como sucede en un laboratorio- que impediría hacer extensivo el efecto de la variable experimental a las personas expuestas a ella en una situación no experimental. Varias características de los escenarios pueden tener efectos reactivos y afectar la validez externa del estudio. Por ejemplo, un pretest podría aumentar o disminuir la sensibilidad o la calidad de la reacción del participante a la variable experimental, haciendo que los resultados obtenidos para una población con pretest no fueran representativos de los efectos de la variable experimental para el conjunto sin pretest del cual se seleccionaron los participantes experimentales. Otro ejemplo estaría dado por las interferencias de los tratamientos múltiples, que pueden producirse cuando se apliquen tratamientos múltiples a los mismos participantes, pues suelen persistir los efectos de tratamientos anteriores. Este es un problema particular de los diseños experimentales de un solo grupo. V. TIPOS DE DISEÑOS EXPERIMENTALES Los diseños experimentales pueden ser clasificados en relación a los criterios que nosotros hemos discutido hasta aquí. Así, algunos diseños permiten la manipulación pero fallan al emplear métodos de control al proveer un adecuado plan de muestreo; otros pueden incluir grupos de control pero no tienen control sobre la manipulación de la variable independiente. De acuerdo con esto, los principales tipos de diseño que podemos distinguir son los siguientes: 1. Experimentales 2. Cuasi-experimentales 3. Correlacionales 4. Pre-experimentales En los diseños experimentales los individuos o unidades de análisis son asignados al azar ("randomly") a los grupos experimental y de control y la variable independiente es introducida solamente al grupo experimental. Este tipo de diseños permiten por la comparación, control, manipulación y, usualmente, la generalización. Los diseños cuasi-experimentales y los correlacionales habitualmente incluyen combinaciones de algunos de estos elementos pero no todos ellos. Típicamente, estos diseños carecen de posibilidades de manipulación y asignación al azar a los grupos experimental y de control. Los diseños pre-experimentales incluyen menos resguardos aún que los diseños cuasiexperimentales y los correlacionales y, en este sentido, ellos proveen menos credibilidad sobre si dos variables están relacionadas causalmente. En esta oportunidad nos centraremos en algunos de los diseños experimentales propiamente dichos más comúnmente utilizados. Dejaremos para otra oportunidad la discusión sobre los diseños cuasiexperimentales, correlacionales y pre-experimentales. 1. Diseño de grupo de control pretest-postest o de experimentación controlada 15 El diseño experimental clásico, al que nos referimos anteriormente, es uno de los modelos lógicos más fuertes para inferir relaciones causales. Este diseño permite: a) comparaciones entre los grupos experimental y de control para el pretest y el postest; b) la manipulación de la variable independiente y además la determinación de la secuencia temporal de las variables; y, la más significativa, c) la asignación al azar ("randomly") de los sujetos a los grupos experimental y de control, que controla la mayoría de los factores que garantizan la validez interna. Grupo Pretest Estímulo Experimental R 01 Control 03 R X Postest 02 04 Sin embargo, este diseño es débil en lo que hace a la validez externa y no permite realizar generalizaciones a la población no testeada. Las dos variaciones de este diseño que veremos a continuación son más fuertes en este último aspecto (validez externa). 2. Diseño de cuatro grupos de Solomon El pretest en un contexto experimental tiene ventajas y desventajas. Aunque provee las bases para establecer la secuencia temporal tanto como la comparación, el pretest puede tener efectos reactivos severos. Debido a la sensibilización de la población muestreada, el pretest puede afectar los resultados del postest. Por otro lado, hay circunstancias bajo las cuales no es posible en la práctica realizar un pretest. El diseño de cuatro grupos de Solomon tiene las mismas características que el diseño clásico pero, además, incluye un set de grupos experimentales y de control que no son sometidos a un pretest. Así, el efecto reactivo del pretest puede ser medido directamente a través de la comparación de los dos grupos experimentales y los dos grupos de control. Estas comparaciones indicarán si X tiene un efecto independiente sobre los grupos que no fueron sensibilizados por el pretest. Si puede mostrarse que la variable independiente tuvo un efecto aún con la ausencia del pretest, los resultados pueden ser generalizados a poblaciones que no fueron medidas con anterioridad a la exposición de X. Campbell y Stanley (1970) señalan que "... no solo se aumenta la posibilidad de generalizar, sino que además se repite el efecto de X en cuatro formas diferentes... Las inestabilidades concretas de la experimentación son tales que, si esas comparaciones concuerdan, el vigor de la inferencia queda muy incrementado". Grupo Pretest Estímulo Postest 16 R 01 R 03 R X 02 04 X R 05 06 Sin embargo, en algunos estudios con diseños de este tipo que se llevaron a cabo en USA (Nachmias y Nachmias, 1992) resultó que los grupos experimental y de control que no fueron pretesteados fueron mucho menos proclives a participar más tarde (en el postest) que aquellos que habían participado del pretest. De este modo, la tasa de rechazo de aquellos dos grupos fue tan alta que el investigador tuvo que atenerse solamente al grupo pretesteado para el análisis de los resultados (Nachmias y Nachmias, 1992). 3. Diseño de grupo de control con postest únicamente Aunque el diseño de cuatro grupos de Solomon es un diseño experimental robusto, a menudo es impracticable para implementar ya sea por su costo o porque los pretests pueden ser seriamente reactivos. El diseño de grupo de control con postest únicamente es una variación del diseño experimental clásico y del diseño de Solomon ya que en el mismo se trabaja sólo con dos grupos: uno experimental y otro de control y en ambos se omite el pretest. Los individuos son asignados al azar a los grupos experimental y de control y son medidos durante o después de la introducción de la variable independiente. Grupo Estímulo Postest R X 01 R 02 El diseño de grupo de control con postest únicamente controla todas las causas de invalidez interna. Con la omisión del pretest, la administración de test y la instrumentación llegan a ser fuentes irrelevantes de invalidez. Puede también asumirse que los restantes factores intrínsecos de validez son controlados, si ambos grupos están expuestos a los mismos acontecimientos externos y sujetos al mismo proceso de maduración. Adicionalmente, el factor extrínseco de selección está controlado por la asignación al azar de los sujetos a los grupos experimental y de control, lo cual elimina un sesgo inicial en cada grupo. 4. Diseño experimental para estudiar efectos extendidos en el tiempo 17 En todos los diseños experimentales descriptos hasta aquí se asumió que el efecto de la variable independiente sobre la variable dependiente puede ser observado inmediatamente o dentro de un período corto de tiempo. Pero, algunas veces, nosotros podemos esperar que efectos de largo plazo tengan lugar con el transcurso del tiempo. Esto es particularmente evidente en estudios de políticas y en investigaciones en las cuales la variable dependiente es un una actitud. Una solución para los estudios de efectos retrasados consiste en introducir períodos de postest adicionales, por ejemplo, seis meses o un año más tarde. Esta es una solución convencional cuando la investigación tiene lugar en escuelas, por ejemplo, donde mediciones postest en los grados serían recogidas de cualquier modo. Sin embargo, Campbell y Stanley (1970) indican que "... cuando mediciones postest son introducidas por el investigador, la repetición de las mediciones sobre los mismos sujetos podrían tener el mismo efecto de invalidez que tendría el pretest. Entonces, una mejor solución sería establecer separadamente los grupos experimental y de control para cada postest planificado" (ver tabla). Grupo Pretest Estímulo R O1 R 03 R 05 R O7 X Postest Postest O2 O4 X O6 O8 La misma duplicación del grupo experimental puede ser incorporada en otros diseños. 5. Diseños factoriales En todos los diseños discutidos hasta ahora había solamente una variable independiente que se introducía en el grupo experimental y se evitaba en el grupo de control. Examinar el efecto de más de una variable independiente requiere un amplio número de grupos experimentales y un diseño factorial. Supongamos que en nuestro estudio tenemos dos variables independientes dicotómicas (como el programa educativo y el tipo de institución escolar) y una dependiente, será necesario 18 trabajar con cuatro grupos experimentales para estudiar todas las combinaciones de valores de esas dos variables. Los cuatro grupos experimentales tienen cuatro diferentes "tratamientos" representando todas las posibles combinaciones de valores de las dos variables independientes (en este ejemplo, dichas combinaciones quedarían reflejadas en un cuadro de 2x2). Grupo Estímulo Postest R X1 O1 R X2 O2 R X3 03 R X4 04 En cuanto a la validez externa de los diseños factoriales, podemos decir que la principal ventaja de los diseños factoriales es que ellos pueden ampliar el rango de generalización. En lugar de "controlar para cualquier cosa", como en los experimentos con una única variable, se introducen variables relevantes adicionales, cada una a dos o más diferentes niveles. Consecuentemente, el investigador no está constreñido o limitado por el nivel constante de cada una de estas variables relevantes cuando realiza generalizaciones sobre el efecto de una variable independiente. Además, el investigador está en posición de inferir que el efecto ocurre similarmente a través de varios niveles de las variables o, alternativamente, que el efecto es diferente a diferentes niveles de una u otra de esas variables. Entonces, los diseños factoriales aumentan la validez externa de los experimentos. Efectos interactuantes en los diseños factoriales: Otra ventaja de los diseños factoriales es que ellos permiten establecer sistemáticamente cómo dos (o más) variables independientes interactúan. La interacción está presente cuando el efecto de una variable independiente sobre la variable dependiente depende del valor de la segunda variable independiente. El test de la interacción de las variables independientes hace posible expandir ampliamente nuestro conocimiento sobre el efecto de las variables independientes sobre la variable dependiente. Dicho test nos permite calificar la conclusión sobre sus efectos en un sentido muy importante ya que nosotros estudiamos la operación simultánea de dos variables independientes. VI. CIERRE DE LA CLASE Se presenta a los alumnos dos investigaciones como ejemplos de distintos diseños a fin de que los comparen y saquen conclusiones: 1. Wainerman, C. H. y M. Moreno (1990). "Hacia el reconocimiento censal de las mujeres trabajadoras", en Estudios INDEC, Nº 8, Los censos del 90. Características económicas de la 19 población, Buenos Aires, CELADE/CENEP/INDEC. 2. Infesta Domínguez, G. (1996). Education for Life: A Time for Reflection about Sexuality, Reproductive Health and Gender Inequalities, Research Proposal. La primera de estas investigaciones es un diseño experimental (del tipo factorial) en tanto la segunda es cuasi-experimental. La comparación de estas investigaciones permitirá a los alumnos comprender mejor las especificidades de los diseños experimentales, así como descubrir situaciones en las que los diseños cuasi-experimentales resulten más adecuados. Finalmente, se entrega a los alumnos un trabajo domiciliario (que figura en el anexo) como otra instancia más del aprendizaje, la cual le permitirá al docente evaluar el grado de asimilación por parte de los alumnos de los conceptos discutidos durante la clase. BIBLIOGRAFIA Blalock, H. (1982). Introducción a la investigación social, Buenos Aires, Amorrortu, cap. 2. Campbell, D. y J. Stanley (1970). Diseños experimentales y cuasiexperimentales en la investigación social, Buenos Aires, Amorrortu editores. Festinger, L. (1992). "Experimentos de laboratorio", en Festinger, L. y D. Katz (comps.), Los métodos de investigación en ciencias sociales, Barcelona, Paidós. Frech, J. (h.). (1992). "Experimentos en contexto de campo", en Festinger, L. y D. Katz (comps.), Los métodos de investigación en ciencias sociales, Barcelona, Paidós. Hage, J. y B. F. Meeker (1988). Social Causality, Boston, Unwin Hyman, chapter 1. Hyman, H. (1968). "El modelo del experimento y el control de las variables", en Mora y Arujo, M. et al., El análisis de datos en la investigación social, Buenos Aires, Ediciones Nueva Visión. Lieberson, S. (1985). Making It Count. The Improvement of Social Research and Theory, Berkley, University of California Press, cap. 9. Mayntz, R. (1988). Introducción a los métodos de la sociología empírica, Madrid, Alianza Universidad, cap. 9. Nachmias, C. F. y D. Nachmias (1992). Research Methods in the Social Sciences, New York, St. Martin's Press, chapters 5 y 6. Rex, J. (1977). Problemas fundamentales de la teoría sociológica, Buenos Aires, Amorrortu editores, cap. 1. 20 Rodrigues, A. e I. Pérez de Maldonado (1995). La investigación experimental en ciencias sociales, México D.F., Trillas. Rosenberg, M. (1968). Publishers; chapter 1. The Logic of Survey Analysis, New York; Basic Books, Inc., Schuster, F. (1982). Explicación y predicción. La validez del conocimiento en ciencias sociales, Buenos Aires, CLACSO. Selltiz, C., M. Jahoda, M. Deutsch y S.W. Cook (1965). Metodos de investigación en las relaciones sociales, Madrid, Ediciones Rialp, cap. 3 y 4. Smith, H. (1991). Strategies of Social Research, Orlando; Holt, Rinehart and Winston, Inc., chapter 6. 21 ANEXO Ejercicio 1: Lea la investigación de Chapin, S.F. (s.f.). Efectos sociales de los Planes Oficiales de Viviendas en Minneapolis, mimeo. Luego, resuelva la siguiente guía de trabajos prácticos: 1) ¿Cuál es el problema que plantea el autor? 2) ¿Qué tipo de diseño se aplica para resolver dicho problema? 3) ¿Cuál es la hipótesis o red de hipótesis? (Indicar las variables con sus categorías y su status) 4) ¿Cuál es la población bajo estudio? ¿Qué tipo de muestra se utilizó? 5) ¿Cómo se intenta igualar los grupos experimental y de control? 6) ¿Cómo se intentó medir cada una de las variables de la hipótesis? 7) ¿Cómo se resolvió el problema de confiabilidad y validez en la medición de las variables? 8) ¿Cuáles fueron los instrumentos de recolección de datos utilizados? 9) ¿Cuáles son las conclusiones a que arriba el estudio? ¿Se confirma o se rechaza la hipótesis del autor? 10) En relación al alcance de los resultados del estudio, ¿cuál es el grado de generalidad de las conclusiones? 11) ¿Qué opinión metodológica le merece esta investigación? (En su respuesta tome en cuenta las características del tipo de diseño utilizado por el investigador) Ejercicio 2 1) Formule un problema y objetivos de investigación que requieran ser abordados a partir de un diseño experimental. Indique el tipo de diseño experimental que más se adecua a sus objetivos. (Justifique su respuesta). 2) ¿Cuál es la hipótesis que pondría a prueba? Indique cuál es la variable dependiente y cuál/es la/s independiente/s y cómo las operacionalizaría? 3) Indique los procedimientos que utilizaría para conformar los grupos que requiera su diseño y 22 el/los "tratamiento/s" que realizaría y cómo implementaría los mismos. 4) Construya un gráfico o figura que ilustre el tipo de diseño elegido. 23