Estadística – Mat 031 1 LA CIENCIA, EL MÉTODO CIENTÍFICO Y LA ESTADÍSTICA En el texto de Johnson1 se dice que la Estadística es el lenguaje universal de las ciencias, no obstante no define la palabra ciencia. Según el diccionario2, la ciencia es el conocimiento cierto de las cosas por sus principios y causas, lo cual implica la existencia de una verdad absoluta mientras el relativismo de Einstein proclama que sólo existen verdades relativas. Aclaramos entonces que normalmente se habla de “ciencia” en el contexto de la ciencia clásica empíricoanalítica, originada en Kepler, Galileo y Newton. Antes del año 1600 el conocimiento humano estaba dominado por la Iglesia y por el dogma. ¿Era cierto que un objeto más pesado cae más rápido que uno más liviano? ¿Por qué no comprobarlo? Así, alrededor del año 1600, un tal Galileo Galilei subió a la torre de Pisa y arrojó dos objetos – uno más pesado que otro – y comprobó que ambos llegaban al suelo al mismo tiempo; a partir de ese momento el mundo ya nunca volvería a ser el mismo. Lo importante no fue solo observar la naturaleza mediante el uso de la comprobación en la práctica de un hecho sino el modo como lo hicieron y esa especial forma de mirar constituyó el “método científico”, descubierto y practicado por Kepler y Galileo simultáneamente. Usualmente escuchamos que ciencia es sinónimo de conocimiento, pero eso no es cierto; ya antes de este descubrimiento, el ser humano había estado observando, comparando e intentando clasificar sus observaciones sin encontrar un método sistemático para facilitar el proceso. En primer lugar este método científico era empírico-experimental. La lógica utilizada con antelación, no comprobaba si la premisa de la cual se hacían deducciones era correcta o no, he allí su error. La deducción es un método válido solo en el caso que se pueda garantizar la corrección de las premisas originales. Así los nuevos científicos encontraron un artificio que permite controlar todas las variables excepto una, de modo que la repetición del experimento modificando tan solo esa variable permite llegar a resultados realmente concluyentes. Galileo tomó varios objetos, de distinto peso pero todos del mismo tamaño y los lanzó al mismo tiempo y de la misma altura y concluyó que en el vacío todos los objetos caen con la misma aceleración. Y ya tenemos una premisa inicial correcta de la cual puede partirse para utilizar la lógica deductiva. La verificación científica no es racional ni deductiva sino empírica e inductiva. La inducción consiste en la verificación de una determinada propuesta (hipótesis) en gran diversidad de circunstancias y, caso de no ser refutada, quedaría confirmada. Una hipótesis que todavía no ha sido refutada (sin circunstancias atenuantes) suele llamarse teoría. Y una teoría que nunca ha sido refutada (complementada quizás) suele llamarse ley. Galileo descubrió dos leyes del movimiento terrestre, Kepler, tres leyes del movimiento planetario y el genial Newton reunió esas leyes y coordinó las fuerzas de la tierra con las del cielo, demostrando que una manzana cae a tierra (Galileo) por la misma causa que un planeta gira alrededor del Sol (Kepler), por la fuerza de gravedad. 1 2 “Estadística Elemental” de Robert Johnson, grupo Editorial Iberoamérica. México. “Aristos” Diccionario Ilustrado de la lengua española. Editorial Ramón Sopena, Barcelona. Profesor: Patricio Videla Jiménez. Estadística – Mat 031 2 Sin embargo, todavía hay un punto muy importante que no debemos olvidar. Kepler y Galileo, descubrieron el secreto esencial del experimento empírico – inductivo: todo experimento científico pretende descubrir si un determinado suceso tiene lugar, en cuyo caso origina un cambio. En el mundo físico, el cambio consiste esencialmente en un desplazamiento que pueda medirse. Si un determinado suceso no puede medirse, en lo que respecta a la ciencia es como si no existiera. Así el proceso de la medición era el único enfoque objetivamente fiable de la estructura de la naturaleza y los números obtenidos mediante ese proceso constituían la clave del orden de la naturaleza. Después del año 1600, la humanidad dispuso de un método sistemático para investigar aquellos aspectos de la naturaleza susceptibles de ser cuantificados. Por ello, la psicología, la sociología y otras “ciencias” del comportamiento son consideradas ciencias empíricas únicamente cuando proporcionan pautas mensurables. La obra de Galileo y de Kepler culminó en los “Principia” de Newton, que en muchos sentidos representan el summum del método empírico-científico. El impacto de Newton sobre la filosofía fue inmenso y todo el conocimiento hasta ese momento fue cuestionado y reducido, y los científicos comenzaron a decir que lo que no se ve no existe, solo son ciertas aquellas proposiciones verificables, de alguna manera una camisa de fuerza que limitó la evolución del saber humano. Todo cuanto pensábamos y sentíamos y sabíamos se basaba en la información que recogíamos con la ayuda de nuestros órganos sensoriales. Durante más de 200 años, la ciencia occidental ha estado dominada por el paradigma (modelo teórico para la ciencia) newtoniano, ese universo mecanicista está hecho de materia sólida y el tiempo es unidimensional. Sin embargo el desarrollo de la física del siglo XX ha puesto en tela de juicio el modelo newtoniano. Se comprobó que los ladrillos fundamentales del universo – los átomos – son en esencia, vacíos. El mundo de las “cosas” ha sido reemplazado por el de los procesos, los sucesos y las relaciones. Einstein descubrió que dos observadores ordenarán los acontecimientos en el tiempo de forma distinta si se mueven con velocidades diferentes en relación con los acontecimientos observados. Tiempo y espacio se convierten simplemente en elementos para describir los fenómenos ya que en la nueva física, el mundo objetivo no puede ser escindido del observador. El mundo aparece como un complejo tejido de sucesos donde se alternan, sobreponen o combinan conexiones de diversos tipos, determinando así la textura del todo, según palabras de Werner Heisenberg, uno de los fundadores de la física cuántica. El universo de Newton, con su punto de vista determinista y seguro, concebía al mundo como una máquina gigantesca y confiaba en que llegaría el día en que todas las leyes que rigen esa máquina serían descubiertas y una vez descubiertas, todo cuanto alcanzamos a ver, sería de nuestro dominio. Por medio de los experimentos realizados durante las últimas décadas, los físicos han descubierto que la materia es totalmente mutable y que, a nivel sub-atómico, no hay certidumbre de que la materia exista en lugares definidos sino que, muestra cierta tendencia a existir. Todas las partículas se pueden transmutar en otras; se pueden crear a partir de la energía y convertirse en otras partículas; o se pueden crear a partir de la energía y desvanecerse en energía. Cuándo y cómo sucede esto, no lo podemos determinar con exactitud, pero sabemos que ocurre Profesor: Patricio Videla Jiménez. Estadística – Mat 031 3 continuamente. Lo que solíamos llamar “cosas” son en realidad “sucesos” o procesos probabilísticos que podrían convertirse en sucesos. La estadística es en parte la descripción de datos mediante tablas y gráficos; pero su aspecto más importante es la obtención de conclusiones basadas en los datos experimentales; a esto le llamamos inferencia, la cual es inductiva porque se proyecta de lo específico hacia lo general. Según Canavos3, lo que hace que la estadística sea una ciencia es que, unida a cualquier proposición, existe una medida de la confiabilidad de ésta. En estadística la confiabilidad se mide en términos de probabilidad. En otras palabras, la noción absoluta de “la ley de un fenómeno” no resulta hoy defendible; la historia de la ciencia nos muestra con reiteración que tales “leyes” fueron modelos condicionados por el grado de desarrollo existente en un momento dado. Todas las decisiones que se tomen a partir de estos modelos – comenzando con su propia aceptación o rechazo – son decisiones tomadas en condiciones de incertidumbre. La ciencia de la toma de decisiones en tales condiciones de incertidumbre, es la Estadística y por eso ella interactúa tan intensamente con todas las otras ciencias e influye en las relaciones de ellas con la tecnología, la producción y la educación. Así decimos, como Johnson, que la Estadística es el lenguaje universal de las ciencias. Y para que la ciencia siga siendo ciencia, la medición sigue siendo la clave del orden de la naturaleza, pero ya no en el concepto de Kepler y Galileo, sino en el concepto de la probabilidad, definiendo con claridad cuál es el espacio y el tiempo al cual hacemos referencia. Para terminar con esta exposición, a continuación adjunto un extracto de "Análisis Estadístico y aplicaciones del S.A.S.", de Silva, Jadue, Crivelli y Buccioni, 1985, USACH ROL DE LA ESTADISTICA Y DE LA COMPUTACION EN LA INVESTIGACION CIENTIFICA PLANTEAMIENTO GENERAL El hombre busca constantemente una explicación racional para los fenómenos que lo rodean. El método científico le ayuda a organizar adecuadamente la observación de los fenómenos y a determinar las leyes que lo rigen. En la gran mayoría de las situaciones reales la determinación de tales leyes se complica por la multicausalidad del fenómeno estudiado. METODO CIENTIFICO Podemos distinguir las siguientes etapas: 1. Detección y enunciado del problema 2. Formulación de una hipótesis 3. Deducción de una consecuencia verificable 4. Verificación de la consecuencia 5. Conclusión 3 “Probabilidad y Estadística” Aplicaciones y Métodos; George Canavos, McGraw-Hill/Interamericana de México. Profesor: Patricio Videla Jiménez. Estadística – Mat 031 4 METODO ESTADISTICO Nos proporciona las técnicas necesarias para recolectar y analizar la información requerida. Podríamos distinguir una fase de planificación y otra de ejecución. Planificación 1. 2. 3. 4. Definición de objetivos Definición del universo Diseño de la muestra Definición de las unidades de observación, escalas de clasificación y unidades de medida 5. Preparación del plan de tabulación y análisis Ejecución 1. Recolección de la información 2. Elaboración de la información 3. Análisis de los resultados Tanto en la etapa de planificación como en la de ejecución es esencial tener un claro conocimiento de las posibilidades y limitaciones del hardware y software computacional disponibles ya que cualquier incomunicación entre el investigador, el estadístico y el experto en computación puede extremar las dificultades para obtener conclusiones valederas en base a la información recolectada. BREVE RESUMEN HISTÓRICO DE LA ESTADÍSTICA Históricamente, la palabra estadística quiere decir: "conocimiento numérico sobre el estado". Su origen es Italia de los años 1500, pero sin embargo es en Alemania donde se enseña por primera vez en la universidad (1660, Herman Conrig). La estadística puede entenderse, entonces, como Estadística Descriptiva, que tiene su origen en la recolección y clasificación de datos para describir numéricamente una sociedad y su población. Sin embargo desde el punto de vista científico, puede decirse que la estadística es el estudio de los fenómenos aleatorios (productos del azar o inciertos). Aquí se han desarrollado métodos para resolver problemas prácticos y teóricos dentro de la política, la economía, las ciencias sociales y de comportamiento, las ciencias naturales, etc. En este sentido la estadística tiene su origen en la teoría de probabilidades. La teoría de probabilidades nace en Italia del 1500 y Francia del 1600, donde en un principio fue una teoría de juegos de azar: Pascal, Fermat, Bernoulli (1713, "El arte de adivinar"), de Moivre, Laplace (1812, "Teoría analítica de probabilidades"). En la actualidad: Tjebychef, Markov, Liapunov, Kolmogorov, Lévy, von Mises, Cramér. La historia de la teoría estadística es más nueva: Profesor: Patricio Videla Jiménez. Estadística – Mat 031 5 • Física y Ciencias vecinas: Gauss (1777-1855), alemán, desarrolló una teoría sobre errores en las observaciones, basada en parte en la distribución normal (campana de Gauss), y determinó el método de los mínimos cuadrados para la estimación de parámetros desconocidos. • Ciencias biológicas: Galton (1822-1911), inglés, primo de Darwin, estudió variaciones en las personas tanto en el sentido físico como psíquico. Pearson (1857-1936), inglés también y alumno de Galton: teoría de aproximaciones para muestras grandes, dócima del ji-cuadrado, correlación, etc. • La teoría estadística, como la entendemos hoy, tiene mucho que agradecerle al inglés Fisher (1890-1962), un estudioso de la genética. Desarrolló la inferencia, el análisis de varianza y de regresión, diseño de experimentos, etc. las K. las la Con el aporte de estos investigadores y otros, la teoría estadística se ha desarrollado hacia una disciplina independiente basada sobre la teoría de probabilidades y con posibilidades amplias de aplicación dentro de la vida en sociedad. Profesor: Patricio Videla Jiménez.