De yotta a yocto. Caupolicán Muñoz Gamboa, UAM–Iztapalapa cientı́ficos y los técnicos, ası́ como las que se requieren en todas las transacciones comerciales. Algunos de estos patrones son el metro, el kilogramo, el grado centı́grado y el segundo, pero también ha sido necesario disponer de medios para designar las grandes y pequeñas magnitudes derivadas de éstos, como el kilómetro o el miligramo. Tales formas se resumen en la Tabla 1, donde se aprecia la enorme magnitud que representa el yotajoule, ası́ como la pequeña dimensión de un yoctogramo. Recibido: 07 diciembre 2009. Aceptado: 15 enero 2010. Abstract In this article several aspects of scientific disciplines and craftsmen are presented. They have the common denominator of smallness, unusual and surprising. The IS units are used for this purpose. Tires and fractals have interesting coincidences. Resumen Muchas veces los inventos, las matemáticas, la tecnologı́a, la ciencia y hasta las artesanı́as encuentran cosas en común no sólo en lo novedoso, sino también en lo grandioso, en lo detallado o en lo minúsculo. En este sentido, en este artı́culo se comentan diversos aspectos de estas disciplinas unidas por el común denominador de las cosas pequeñas y de lo poco perceptible, de lo extraordinario y de lo impresionante, porque entre ellas se encuentran muchos interesantes puntos en común. Al mismo tiempo se consideran las herramientas que se disponen por parte del Sistema Internacional de Unidades (SI) para designar dimensiones que van desde lo muy grande a lo muy pequeño. Las grandes diferencias que hay entre los extremos que representan los prefijos de la Tabla 1 son útiles tanto entre las cosas materiales como en las imaginarias. Esto es aunque la realidad y lo concreto suelen verse como un par antagónico del compuesto por la fantası́a y la ficción, lo cual equivale a pensar que las cosas reales (tales como un simple neumático) y las entelequias producto de la imaginación (tales como los fractales) no tienen nada que ver entre sı́. Sin embargo, un análisis no muy profundo nos hace llegar a la conclusión de que los mundos real e imaginario pertenecen al mismo universo y que por ende tienen que tener vı́nculos sólidos. Entrando en materia se analiza lo que ocurre con un simple neumático, objeto cotidiano muy conocido, hasta un fractal, el sorprendente objeto matemático que al ser creado en este universo riguroso tiene todas las caracterı́sticas de un ente artificial. Sin embargo, aunque a primera vista estos dos objetos no tienen nada en común, resulta que pueden encontrarse muchas coincidencias entre ellos, las que se destacan en este artı́culo, considerando especialmente cómo se ingresa en el mundo del caos, en oposición al que creemos perfectamente determinado. Historia de un neumático El invento de la rueda es uno de los grandes acontecimientos de la humanidad cuya ocurrencia se pierde en los tiempos prehistóricos. No se sabe con seguridad qué tribu, pueblo o civilización fue la primera en tener la genial idea y mucho menos puede identificarse a su inspirado creador, sin embargo, a causa del gran impacto que ha tenido en el desarrollo de las civilizaciones, pueden determinarse algunas de las etapas más importante de este descubrimiento porque unas cuantas de sus más afortunadas mejoras pueden resumirse en las cuatro siguientes. Introducción La ciencia, la tecnologı́a y el comercio han requerido siempre de patrones que sirvan de referencia para las más diversas mediciones que llevan a cabo los 5 6 ContactoS 75, 5–13 (2010) Tabla 1. Prefijos y sı́mbolos utilizados para designar las grandes y las pequeñas dimensiones Prefijo Sı́mbolo Valor yota Y 1024 zeta Z 1021 exa E 1018 peta P 1015 tera T 1012 giga G 109 mega M 106 kilo k 103 hecto h 102 deca da 10 deci centi mili micro nano pico femto atto zepto yocto d c m µ n p f a z y 10−1 10−2 10−3 10−6 10−9 10−12 10−15 10−18 10−21 10−24 Ejemplo Equivalencia Comparativo de la escala (aprox.) yotajoule 1YJ = 1024 J El sol emite en 1 s≈ 400 YJ zetametro 1Zm = 1021 m Radio de la Vı́a Láctea ≈ 1 Zm exasegundo 1Es = 1018 s Edad del universo ≈ 0.43 Es petametro 1Pm = 1015 m 1 año–luz ≈ 9.454 Pm terametro 1Tm = 1012 m Distancia del Sol a Júpiter ≈ 0.8 Tm gigasegun 1Gs = 109 s 1 siglo = 100 años ≈ 3.154 Gs megakelvin 1MK = 106 K* Temperatura del sol ≈ 15 MK kilogramo 1kg = 103 g 43 tortillas ≈ 1 kg hectogramo 1hg = 102 g 1 barra de jabón mediana ≈ 1 hg decalitro 1daL = 10L 1 galón (USA) = 0.3785 daL La unidad decı́metro 10dm = 1m Altura promedio de un vaso ≈ 1 dm centı́metro 102 cm = 1m 1 pulgada = 2.54 cm milı́metro 103 mm = 1m Grosor de un cerillo de madera ≈ 3 mm micrómetro 106 µm = 1m Grosor de un hilo de seda ≈ 10 µm nanómetro 109 nm = 1m Radio del átomo de cloro 4 ≈ 0.1 nm picogramo 1012 pg = 1g Masa de una bacteria unicelular ≈ 1 pg femtómetro 1015 fm = 1m Radio de un protón ≈ 1 fm attosegundo 1018 as = 1s La luz atraviesa un átomo ≈ en 1 as zeptomol 1021 zmol = 1mol 602 átomos o moléculas ≈ 1 zmol yoctogramo 1024 yg = 1g Masa del protón o neutrón ≈ 1.7 yg * Aunque 0◦ C = 273.15 K, se cumple que 1 K = 1◦ C, por lo que 1 MK ≈ 1 millón de grados centı́grados. La primera de ellas fue con seguridad la idea de lubricar el eje, porque este sencillo procedimiento reduce notablemente el esfuerzo necesario para hacer avanzar un vehı́culo y también aminora en gran parte el natural deterioro debido a su uso. El segundo perfeccionamiento de la rueda fue posiblemente el uso del rodamiento o cojinete, porque estos dispositivos disminuyen aún más el roce y el desgaste, aumentando con ello su duración en forma considerable y prácticamente indefinida cuando se le proporciona el adecuado mantenimiento. El tercer adelanto importante relacionado con la rueda es, sin duda, el desarrollo de la rueda neumática o neumático, basada en el caucho natural porque hizo posible que el transporte se realizara con gran comodidad y facilitó con ello el desarrollo de los automóviles modernos. Por último, no puede desconocerse que el movimiento de cualquier vehı́culo se hizo más suave con la incorporación de resortes y más adelante con amortiguadores, los que pasaron a formar parte integral del sistema de rodamiento y suspensión. Como puede deducirse fácilmente todos estos avances estuvieron orientados a que el vehı́culo rodara en forma más simple, que tuviera mayor duración, que fuera más cómodo su uso y que ofrecie- ra menor resistencia al avance para que alcanzara mayor velocidad. Las primeras ruedas fueron posiblemente discos o cilindros muy toscos en forma de rodillos angostos o rodajas de madera (aunque siempre las imaginamos de piedra, de acuerdo con las caricaturas de algunas historietas populares), pero la necesidad de que fueran más durables y livianas las fue transformando poco a poco hasta la clásica y grácil rueda de carreta colonial con rayos y estructura de madera, aunque con una banda de rodamiento de hierro. Con el tiempo se requirió construirla en una sola estructura metálica con una banda de rodamiento de goma para que fuera posible usarla en los primeros automóviles. Sin embargo, no hay que olvidar que la rueda moderna no solamente está basada en todos los adelantos de que hemos hablado, sino que también está construida con caucho sintético de extraordinaria resistencia relleno de aire a presión, que no requiere de una cámara, es resistente al desgaste, puede ser a prueba de perforaciones por clavos y otros objetos punzantes, ası́ como también a veces está construida especialmente para que su movimiento sea silen- De yotta a yocto. Caupolicán Muñoz Gamboa. cioso, que tenga mayor agarre al camino o que sirva para avanzar en terrenos lodosos, con nieve o con hielo, entre muchas otras caracterı́sticas. Adicionalmente, la marcha del neumático se suaviza enormemente con un mecanismo de suspensión compuesto básicamente de un resorte y un amortiguador (aunque algunos sistemas incluyen otros adelantos) el que le permite mucha libertad de movimiento. En un principio, el motor delantero y la tracción trasera de los vehı́culos significaban pérdida de potencia y de energı́a, pero simplificaban el mecanismo de suspensión. El viejo anhelo de emular a los antiguos coches tirados por caballos, en los cuales tanto la tracción como la dirección estaban adelante, sólo se alcanzó una vez que la suspensión y el movimiento de las ruedas delanteras permitieron darle suficiente libertad al vehı́culo con una mı́nima pérdida de potencia. Por ello, actualmente casi todos los automóviles utilizan las ruedas delanteras tanto para la dirección como para la tracción. Por otra parte, el neumático común tiene una circunferencia aproximada de 198 cm (cuando se trata del “rin” 15) y su banda de rodamiento alcanza una profundidad de unos 9 mm, la que está calculada normalmente para rodar cerca de 60,000 km. Como el desgaste se produce inevitablemente tanto por el roce normal con el pavimento, como con las frenadas, la banda de rodamiento se va consumiendo lentamente hasta que el neumático debe ser reemplazado por otro nuevo. Suponiendo que el uso y el desgaste provocado por éste es perfectamente uniforme y que no ha sufrido un deterioro catastrófico que la inutilice, con estas cifras resulta que debe efectuar más de 30 millones de vueltas a lo largo de su vida útil. En consecuencia, en cada vuelta la banda de rodamiento pierde en promedio una delgadı́sima capa de caucho de sólo 0.3 millonésimas de milı́metro de grosor (0.3 nanómetros), cifra que es inferior a la décima parte del tamaño de un virus común, lo que nos da una muy buena idea de su extraordinaria duración y resistencia. Esto es algo sobre lo que podrı́amos reflexionar la siguiente vez que abordemos un vehı́culo para ir a nuestro trabajo, salir de compras o simplemente escaparnos de vacaciones. Estas minúsculas dimensiones pueden llegar a ser inimaginables, pero es interesante comprobar que algunos diestros artesanos pueden lograr maravillas en los detalles de su obra aunque, por supuesto, no se aproximen a ellas. Sin embargo, sorprende que pue- 7 dan emular otro tipo de mı́nimas dimensiones tecnológicas como es el caso siguiente. Alfombras persas y pixeles Las alfombras orientales han sido a lo largo de la historia objetos no tan solo utilitarios, ya que forman parte de los enseres tradicionales de antiguos pueblos y tribus nómadas, sino que en ocasiones llegan a ser auténticas obras de arte o son valiosas antigüedades cuyos precios alcanzan valores muy elevados. Su cotización final no sólo depende del hecho de que son artı́culos hechos a mano uno por uno, de su calidad artı́stica, de los patrones del diseño, de su condición general de conservación y de su antigüedad, sino que también tienen influencia en ella el pueblo donde han sido fabricadas e, incluso, los materiales con los que han sido manufacturadas, el prestigio de los artesanos que intervinieron en su construcción, la tribu a la que pertenece y la densidad de nudos que tiene, entre muchas otras caracterı́sticas. Las alfombras anudadas a mano se elaboran nudo por nudo en una tarea que implica varios artesanos y normalmente varios meses e incluso años de trabajo, por lo que son muy apreciadas. Los principales centros productores de este tipo de alfombras están en Persia, Turquı́a, Turkmenistán, Afganistán, Pakistán, India, Nepal y China, destacándose en ellos dos tipos de nudos entre los cuales el turco es el más valorado. Los materiales más finos que se utilizan son lana de oveja y seda para realizar los nudos, ası́ como pelo de cabra y algodón para el entramado, aunque la lana de la cabra de angora, conocida como mohair, también se usa para el anudado debido a las propiedades naturales de esta fibra. Uno de los factores de calidad más reconocidos y tal vez uno de los más importantes es la densidad de nudos o el número de nudos por pulgada cuadrada (knots per square inch – kpsi) o la cantidad de nudos por metro cuadrado (npmc) de cada alfombra, lo cual no es otra cosa que el producto de los nudos por unidad de longitud que hay en cada corrida del entramado multiplicado por el número de corridas que entran en esa misma unidad. Con este factor, la medición de calidad más aceptada resulta ser la siguiente: menos de 60 kpsi (unos 93 000 npmc) determina una alfombra de baja calidad; hasta 130 kpsi (unos 200 000 npmc) es de buena calidad; hasta 160 kpsi (unos 250 000 npmc) es de calidad media; hasta 290 kpsi (unos 450 000 npmc) 8 la alfombra es de alta calidad; en tanto que al superar estas cantidades se determina una de muy alta calidad. Sin embargo, como es de suponer, por encima de estas cifras los ejemplares son muy raros (muchos de ellos tienen nombre propio, como la famosa Vienna Hunting Carpet, actualmente en el Museo Osterreichisches de Viena y el Tesoro de Hereke, propiedad de la compañı́a japonesa Gandhara Carpet Japan Co. Ltd., de Tokio). Adicionalmente debe destacarse que diversos fabricantes aseguran haber fabricado alfombras de seda anudada sobre un entramado de seda que superan el millón de npmc, lo cual es algo realmente impresionante.1 Se trata de especı́menes de extraordinaria calidad que incluso también pueden aparecer en el Libro de Records de Guinness. Resolución de un monitor Por otra parte, en el monitor de la PC que la mayorı́a de nosotros tenemos enfrente, la calidad de la imagen suele medirse por la resolución, que es una forma de cuantificar la capacidad de diferenciación de los detalles de una imagen en forma similar a como se hace con los kpsi o los npmc. La resolución es una medida del número de pixeles2 diferentes que pueden distinguirse en ella. Los monitores más pequeños de 14 pulgadas, lo que significa que son más o menos de 28 por 21 cm, pueden ajustarse para disponer de una resolución variable que, para una buena visión de los detalles, va entre 800 por 600 hasta 1024 por 768 pixeles. En realidad es posible ajustarlos para una mayor resolución pero a muchas personas les parece que las letras e iconos se reducen excesivamente. Ambos extremos nos dan para la resolución total del monitor los resultados de 480 000 y 786 432 pixeles en la pantalla, respectivamente, por lo que estos cálculos nos llevan a concluir que medidos en pixeles por 1 Varias empresas fabricantes de alfombras orientales aseguran haber superado con mucho las cantidades mencionadas en el texto, algunas de las cuales también pueden figurar en el libro de Records de Guinness. Sin embargo, es muy conveniente aclarar que la densidad de nudos de una alfombra no suele ser uniforme en toda su superficie, por lo que debe hablarse de un promedio y, además, no es la única garantı́a de la calidad de una alfombra. 2 Un pixel (del inglés picture element–elemento de imagen) es la menor unidad de color que compone una imagen digital. En su formato más simple, llamado RGB (del inglés RedGreen-Blue – rojo verde azul), está compuesto de estos tres colores básicos. Mediante una codificación normal, que va entre 8 y 24 bits, un monitor permite desplegar una gama de colores (o de niveles de gris para los monitores en blanco y negro) que va desde 256 hasta más de 16 millones. ContactoS 75, 5–13 (2010) metro cuadrado (ppmc) estos monitores pueden tener entre 8 y 14 millones de ppmc, cifras que sorprendentemente se aproximan en npmc con las alfombras orientales más finas del mundo. Es interesante comprobar que a pesar de que nuestra tecnologı́a ha avanzado notablemente y que las imágenes de nuestros monitores actuales son extraordinariamente fieles y superan con mucho las cifras anteriores, como todos podemos comprobar, los antiguos artesanos fueron capaces de emprender tareas descomunales como la de realizar una incalculable cantidad de nudo por metro cuadrado. Porque en el caso de las alfombras que nos ocupa no sólo se trata de una tarea manual en la que cada nudo se amarra individualmente, sino que casi todas ellas son varias veces el tamaño de nuestros monitores, a pesar de lo cual algunas de las más valiosas compiten notablemente en resolución con ellos. Por esta razón, si uno ha tenido la curiosidad de observar alfombras orientales (en cualquier tienda especializada) y notar la hermosura de los diseños, la armonı́a de los colores, la calidad de los materiales, el balance de los patrones, la minuciosidad y el arte con que han sido realizadas, sólo puede maravillarse con la enorme habilidad y paciencia de los artesanos que las han elaborado. Lo cual no es obstáculo para también apreciar las herramientas que la tecnologı́a nos pone enfrente para disfrutar de una muy buena imagen de alta resolución y con millones de colores en el monitor de la PC o en una simple fotografı́a digital. El “copo de nieve” Y hablando de disponer millones de pixeles en una pantalla o de anudar pequeños trozos de seda en un bastidor, por medio de un simple procedimiento es posible desarrollar objetos ficticios muy interesantes como el que se muestra en la Figura 1. Se inicia con un triángulo equilátero, cuyos lados se dividen en tres partes pero el tramo central se sustituye con la punta de un triángulo cuyos lados tienen un tercio de la longitud del triángulo inicial, como puede apreciarse en el primer paso. Esta operación se repite hasta el infinito en cada uno de los nuevos lados, lo que va dando como resultado una intrincada y compleja estructura que semeja un copo de nieve. Fractales y realidad El objeto de la Figura 1 es uno de los fractales más sencillos, que es conocido como el “copo de nieve” de De yotta a yocto. Caupolicán Muñoz Gamboa. 9 Figura 2. Aumento de la longitud de cada uno de los tres lados del triángulo inicial del fractal de Koch en los primeros pasos. En cada uno de ellos se incrementa por un factor de 4/3. Figura 1. Primeros pasos del desarrollo del fractal “copo de nieve” de Koch. Koch. Una de las cosas interesantes de este objeto es que la longitud de su perı́metro crece sin lı́mite, ya que si se considera que un lado cualquiera del triángulo inicial tiene una longitud L, la longitud del primer paso resulta ser 4/3 L, y los que siguen tendrán una longitud de (4/3)2 L, (4/3)3 L, (4/3)4 L, etc., tal como se muestra en la Figura 2 para los primeros pasos, por lo que con cada uno de ellos la longitud crece indefinidamente hasta el infinito. Los fractales se obtienen en general por medio de lo que se conoce como iteración en el plano complejo, lo que no es más que el uso continuo y reiterado de los resultados de una función (procedimiento) como valores de entrada de la misma (esto es, repitiendo el proceso como en el caso del copo de nieve de Koch). Esto significa que una expresión matemática se evalúa con uno o más valores iniciales, lo que proporciona un primer resultado, con el que se vuelve a evaluar la función y se obtiene un segundo resultado, con el que se procede nuevamente a evaluar la función y ası́ sucesivamente. En cierta forma este procedimiento es similar al desarrollo del fractal de Koch, en el cual se toma cada uno de los lados, se divide en tres, se le inserta la punta de un triángulo a cada uno de ellos, con la figura resultante se procede nuevamente a dividir en tres cada uno de los nuevos lados y se continúa en igual forma hasta el infinito. Desarrollo de un fractal Para entender más claramente en qué consiste el proceso de creación de un fractal supóngase que se tiene un plano determinado por sus coordenadas “alto” y “ancho” y que se utiliza una función matemática muy simple para ver como se comporta esta función en dicho plano. Como ejemplo, puede tomarse la función definida por las ecuaciones A = a2 − b2 + c B = 2ab + d En estas ecuaciones a representa el alto y b el ancho, en tanto que c y d son constantes. Entonces, el proceso se inicia con los datos de las variables, los cuales se conocen como “semilla” y se representan como (a, b), con estas ecuaciones se calculan los nuevos alto A y ancho B, los que a su vez se representan como (A, B). En esta forma las ecuaciones pueden expresarse, por una parte, como ‘el nuevo alto A es igual al alto inicial a multiplicado por el mismo alto inicial a menos el ancho inicial b multiplicado por el mismo ancho inicial b más la constante c’ y, por la otra, como ‘el nuevo ancho B es igual a 2 veces el alto inicial a multiplicado por el ancho inicial b más la otra constante d.’ Los nuevos valores para ancho y alto, que se han indicado con las letras mayúsculas A y B, son los primeros resultados que se utilizan para evaluar nuevamente las ecuaciones y continuar con el mismo procedimiento en forma sucesiva. Técnicamente, la semilla consistente en el par (a, b), es un punto del plano complejo con cual se obtiene como resultado un nuevo punto del mismo plano representado por (A, B) en las ecuaciones. De este modo, con cada paso se van obteniendo resultados diferentes en forma sucesiva, lo que produce una secuencia de puntos del plano los que van definiendo poco a poco el fractal. 10 Anatomı́a de un fractal Las distintas secuencias de resultados que se obtienen a partir de diferentes semillas se llaman órbitas, las que pueden tener comportamientos muy diferentes. Cuando en una región se obtienen resultados similares se dice que en esa zona del plano hay estabilidad. Sin embargo, los resultados tienen en general comportamientos muy dispares. Por ejemplo, algunos pueden escapar al infinito, otros dirigirse a un punto en particular, ciertos resultados logran mantenerse en órbitas estables, en tanto que muchos de ellos presentan un comportamiento completamente caótico, siguiendo trayectorias insólitas, como se verá a continuación. Caso uno. Por ejemplo, si para el fractal definido por las ecuaciones anteriores la semilla es (0.5, 0), o sea los valores iniciales son a = 0.5 y b = 0 para alto y ancho respectivamente (con las constantes c = −0.25 y d = 0), se trata de una órbita que después de algunas oscilaciones se dirige al punto (−0.2071, 0), porque el primer resultado es (0, 0); después, en el siguiente paso, se obtiene (−0.25, 0); al repetir la operación una vez más resulta (−0.1875, 0); para continuar con (−0.2148, 0); y seguir aproximándose al punto (−0.2071, 0) en forma invariable. Caso dos. Si, por el contrario, ahora la semilla es −1 y 1 (con c = −0.75 y d = 0), se tiene una órbita que escapa al infinito, ya que el primer resultado es (−0.75, −2); la secuencia sigue con (−4.1875, 3); (7.7852, −25.125); (−571.4, −391.2); para continuar creciendo sin lı́mite e indefinidamente, como puede observarse en la Tabla 2. Caso tres. Ahora, si la semilla es 0 y 0 (con c = 0 y d = 1), resulta una órbita oscilante que genera primero (0, 1), para después empezar a oscilar entre los valores (−1, 1) y el par (0, −1) en forma invariable. Caso cuatro. Por último, uno de los posibles resultados estables se obtiene cuando la semilla es −1 y 0 (con c y d = 0), ya que en este caso la serie de resultados consta siempre del mismo par de valores (1, 0). El hecho de que algunas semillas muy próximas entre sı́ tengan conductas muy disı́miles genera una estructura de órbitas cuya frontera se denomina fractal. Cuando esta frontera se observa a una escala cualquiera presenta autosimilaridad, lo que quie- ContactoS 75, 5–13 (2010) Figura 3. Ejemplo de la autosimilaridad que presenta un fractal. Un pequeño segmento reproduce el patrón original completo, a una escala menor, pero siempre hasta el infinito. re decir que la misma estructura (o el mismo ”tipo”de estructura) se manifiesta en todas las escalas, como puede apreciarse en el fractal de la Figura 3. Una pequeña sección reproduce por completo al fractal aunque en menor escala, por lo que en la figura se han ampliado. Un ejemplo real de fractal al que siempre se recurre, por ser muy obvio, es la costa de los continentes definida por la orilla que separa la tierra y el mar. Cuando se mide su longitud con reglas rectas de diferentes largos en mapas con diferentes escalas se observa que mientras más corta es la regla y más grande la ampliación del mapa, también es mayor la longitud medida, lo que se conoce como ”paradoja de la lı́nea costera”. Si esta serie de resultados se grafican en una escala logarı́tmica se obtiene una lı́nea recta cuya inclinación se denomina dimensión fractal. Al respecto, cabe recordar que en geometrı́a el punto tiene dimensión cero; la lı́nea recta, uno; las curvas del plano, dos; en tanto que los volúmenes, tienen dimensión tres. En cambio, la principal caracterı́stica de la dimensión fractal es que nunca toma valores enteros. Por ejemplo, la dimensión fractal del copo de nieve de Koch es ligeramente superior a 1.2618, por lo que es mayor a una recta, pero menor a una superficie. En los años veinte del siglo pasado Gastón Julia, un matemático francés, comenzó a estudiar este problema aparentemente académico y poco práctico pero ha resultado que las estructuras fractales sirven de base para encontrar modelos muy útiles para muchos sistemas naturales de alta complejidad, lo que ha dado lugar al desarrollo de lo que comúnmente se denomina la ciencia del caos, tema que se analizará a continuación. Sistemas caóticos A primera vista el universo es estable, fijo y perfectamente determinado, sin embargo, existen muchos De yotta a yocto. Caupolicán Muñoz Gamboa. 11 Tabla 2. Secuencias de resultados de los cuatro ejemplos. 1) Convergencia a un punto, 2) crecimiento sin lı́mite, 3) oscilación y 4) resultado estable. Constantes Alto y ancho Semilla 1er. resultado 2o resultado 3er. resultado 4o resultado Convergencia Ejemplo c −0.25 a 0.5 0 −0.25 −0.1875 −0.2148 −0.2071 1 d 0 b 0 0 0 0 0 0 Ejemplo 2 c d −0.75 0 a b −1 1 −0.75 −2 −4.1875 3 7.7852 −25.12 −571.4 −391.2 ∞ ∞ ejemplos de que esta visión no está completa porque no incluye una serie de situaciones, acontecimientos y fenómenos que no tienen nada de estable, fijo ni determinable. Por ejemplo, el juego de billar parece ser a primera vista un sistema que se comporta en forma perfectamente estable y predecible, pero resulta que al mismo tiempo puede ser caótico. Para demostrar esta aseveración, supóngase que se tiene una sola bola sobre la mesa, a la cual se le aplica un golpe con el taco respectivo. Los buenos jugadores pueden calcular con mucha precisión la trayectoria que va a seguir, incluso después de que la bola ha rebotado en una o más bandas, porque en tal habilidad descansa su destreza como jugadores. Bolas de billar Este caso se demuestra prácticamente en la Figura 4 a) al observar con cuidado el rebote de una bola en una banda, porque se ve claramente que el ángulo de choque es igual al ángulo de rebote, por lo que es más o menos sencillo estimar las trayectorias. Sin embargo, cuando se disponen quince bolas en forma de triángulo al principio del juego, como en la Figura 4 b), ni siquiera con la más potente de las computadoras es posible determinar remotamente lo que ocurrirá con cada una de ellas, cuáles serán las colisiones que se van a presentar o cuáles bolas irán a caer en una buchaca. La diferencia entre ambas situaciones estriba en que en el primer caso se tiene un comportamiento perfectamente definido, llamado determinista, a pesar de que los rebotes en las bandas puedan ser ligeramente diferentes a lo esperado, de que haya imperfecciones en el paño de la mesa o de que la bola vaya perdiendo velocidad y, por consiguiente, sea más fácil que se aparte de una trayectoria perfectamente rec- Ejemplo 3 c d 0 1 a b 0 0 0 1 −1 1 0 −1 −1 1 oscila oscila Ejemplo 4 c d 0 0 a b −1 0 1 0 1 0 1 0 1 0 1 0 ta. La predicción que en este caso un buen jugador está en posibilidades de hacer será más acertada mientras mayor sea su experiencia en el juego. Figura 4. Juego de billar en el que se presentan a) trayectoria predecible de la bola, b) trayectorias caóticas que no es posible predecir y c) efecto de las diferencias del ángulo de choque. En el segundo caso, en cambio, los sucesos dependen en gran medida de pequeñı́simas diferencias que pueden existir en la posición de cada bola, las más diminutas irregularidades que puede tener el paño, las minúsculas variaciones que puede experimentar el ángulo de choque y de las imperceptibles diferencias que deben producirse en los tiempos de choque de las bolas entre sı́. Estos hechos se demuestran simplemente jugando una partida, la que es en gran medida un hecho aleatorio que se describe perfectamente como un suceso caótico. Equilibrio inestable Otro ejemplo de un sistema aleatorio se tiene al considerar el equilibrio inestable de un objeto cuya base es muy reducida, como un lápiz que se intenta parar apoyado en la punta. Por muchos intentos que se 12 ContactoS 75, 5–13 (2010) bles desencadenen un proceso aleatorio que domine el comportamiento del sistema y se convierta en el factor determinante. Figura 5. Casos del rebote de una pelota sobre a) una superficie lisa, b) una superficie irregular. hagan para que permanezca en esta posición siempre caerá en forma espontánea o con la más ligera agitación o movimiento. Lo interesante del asunto es que invariablemente lo hará en alguna dirección cualquiera que no es posible anticipar, porque ésta depende de la gran inestabilidad del objeto y de las más mı́nimas variaciones que experimenta el propio agente que lo sacó de su posición. Rebotes de una pelota En un tercer caso, una pelota que se lanza desde una cierta altura describe idealmente una trayectoria parabólica perfecta, siempre y cuando el rebote se produzca en condiciones ideales sobre una superficie pulida, como se muestra en la Figura 5 a). Las parábolas decrecen en forma exponencial y se van haciendo poco a poco más estrechas, hasta que finalmente la bola deja de rebotar. Esta situación se modifica sustancialmente cuando, por ejemplo, la superficie no es completamente lisa o tiene un comportamiento anómalo, situación en la que cada rebote toma una dirección inesperada, como se muestra en la Figura 5 b). Aunque sólo ha variado la rugosidad de la superficie y las alturas máximas de cada parábola disminuyen en forma similar al caso anterior, los rebotes han cambiado notablemente y se han hecho caóticos. Los modelos matemáticos que utilizan los cientı́ficos y los ingenieros para explicar o utilizar las virtudes del universo suelen tomar rigurosamente en cuenta sólo a las grandes variables que siempre están presentes y que pueden determinar casi por completo y en casi toda circunstancia a las situaciones (cuando son modelos deterministas). Sin embargo, con la misma rigurosidad acostumbran (la mayor parte de las veces a propósito, para simplificar el tratamiento de los problemas) ignorar las variables pequeñas que pasan desapercibidas, que tienen poca influencia, que se presentan muy esporádicamente o que creen que nunca estarán presentes. Pero puede ocurrir que una o varias de estas varia- Muchas veces por estas simplificaciones que facilitan los diseños y los cálculos resulta que un puente se desploma, que una máquina experimenta repentinamente fallas imprevistas, que un avión no alcanza la velocidad que se esperaba, que un edificio se inclina peligrosamente o que los resultados de los cálculos no tienen nada que ver con la realidad. Porque siempre es más sencillo utilizar modelos deterministas, ya que éstos proporcionan la mayor parte de las respuestas. Con esta estrategia, sin embargo, hay que confiar en que los imponderables del caos no lleguen a tener la capacidad suficiente como para hacer que los pequeños errores, que siempre deben esperarse, crezcan sin proporción. La perspectiva caótica Al salir de casa cada mañana tenemos un ejemplo claro de lo que puede ser una situación que puede estar perfectamente determinada (determinista) o por el contrario imposible de conocer de antemano (aleatoria), lo que lleva a imaginar que este simple hecho cotidiano puede definir un acontecimiento caótico. Esto es porque al intentar la predicción de un viaje pueden encontrarse dos situaciones extremas: la primera que corresponde al caso en que toda predicción es muy acertada porque, por ejemplo, ese dı́a no hubo incidentes y el tránsito estuvo muy fluido, circunstancia en la que se aplican perfectamente los modelos deterministas. Por el contrario, puede suceder que las condiciones del dı́a sean mucho más complejas que de costumbre las que producen tal desorden que no es posible aventurar conjeturas plausibles que tengan un éxito razonable, escenario en el cual sólo es posible utilizar modelos aleatorios muy complejos. Las cosas serı́an muy distintas si siempre supiéramos de antemano cuál es el tipo de modelo que conviene utilizar en la simple rutina diaria de salir de casa con un rumbo conocido. Al querer saber de antemano cuál es el mejor modelo aplicable o qué ocurrirá en el futuro próximo, se está suponiendo lamentablemente que existe la posibilidad de que debe existir un sistema de tipo predictivo que se anticipe a los hechos. Por desgracia tal hipótesis significa que dicho sistema debe responder antes de que se presente cualquier estı́mulo, lo que conduce a contradicciones teóricas muy De yotta a yocto. Caupolicán Muñoz Gamboa. concretas que hacen concluir que no es fı́sicamente realizable. Por tales razones puede suponerse que el tipo de modelo establece siempre una plataforma sobre la que es posible tener una cierta seguridad sobre el comportamiento futuro del sistema, aunque nunca ésta podrá ser absoluta. Si el modelo no cambia, será posible esperar que la bolsa de valores proporcione buenas ganancias futuras; que el clima seguirá siendo agradable toda la semana; que el diseño de un puente dará el resultado que se esperaba cuando sea construido; que el camino elegido es el adecuado para el tiempo que se dispone para recorrerlo; que el combustible que cargamos a un vehı́culo será suficiente para ir y volver en una aventura por terrenos desolados; que el libro que todavı́a no se imprime será efectivamente un éxito de ventas cuando salga al mercado, etc. Pero todo lo anterior puede ser diferente en cualquier momento, porque el modelo puede cambiar sorpresivamente en cada uno de los casos del párrafo anterior. La bolsa de valores está sujeta a fuerzas muy sutiles que podrı́an hacerla caer sin previo aviso (como ya ha sucedido); el clima depende de tantas variables que cuando las que se desconocen o no se han tomado en cuenta adquieren preponderancia, no hay forma de predecirlo; la construcción de una obra de gran envergadura puede sufrir graves descalabros debido a defectos de los materiales o errores humanos; una ruta que se desea seguir puede estar interrumpida por múltiples razones circunstanciales; en un viaje de ida y vuelta bien planeado es posible sufrir pérdidas de combustible (entre otras catástrofes) que nos impidan regresar; un trabajo editorial puede mal estimar el entusiasmo del público o una circunstancia civil o legal podrı́a impedir la distribución del libro, y ası́ sucesivamente. Conclusión En otras palabras, si tenemos un sistema descrito por un modelo estable, determinista y estacionario, el horizonte es perfectamente visible y predecible; pero, si el modelo cambia, deja de ser estacionario o se vuelve aleatorio, el desorden toma el control haciendo muy difı́cil o imposible ver lo que sucederá, incluso a corto plazo. Entonces, lo que era un sistema aparentemente predecible puede también comportarse como un sistema caótico, circunstancia que ha dado lugar al desarrollo de la teorı́a del caos. 13 Pensar en el caos significa imaginar exactamente lo contrario del orden y de lo armónico. Nada parece más contradictorio para imaginar un modelo del universo, en el cual parece haber una armonı́a y un orden preconcebidos. Sin embargo, ası́ como es inevitable la incorporación del elemento aleatorio a nuestra visión del mundo, también resulta necesario incorporar el concepto del caos cuando se quiere tener una percepción más próxima del mundo real o un buen modelo del mismo. En el lenguaje común caos significa la ausencia de orden. En la teorı́a del caos, en cambio, lo que se trata es organizar la anarquı́a en un modelo que permita describirla. Es como si se tratara de ordenar el desorden o describir lo indescriptible. Lo anterior es posible porque aún en las peores condiciones de desorden puede encontrarse un modelo complejo que describa al menos parcialmente una situación y pueda proporcionarnos una explicación suficientemente satisfactoria, aunque no necesariamente exacta, a cualquier fenómeno por muy complejo que éste sea. Bibliografı́a 1. Bureau International des Poids et Mesures. The International System of Units (SI). 8a. Edición. Parı́s: BIPM Press, 2006. 2. Murray L. Eiland Jr. y Murray Eiland III. Oriental Carpets: A Complete Guide. 4a . Edición. Nueva York: Bulfinch Press, 1998. 3. Kenneth Falconer. Fractal Geometry: Mathematical Foundations and Applications. Nueva York: John Wiley & Sons, 2003. 4. Edward Ott. Chaos in Dynamical Systems. Nueva York: Cambridge University Press, 2002. 5. Carl Sagan. Cosmos. Nueva York: Random House, 1980. 6. Kenneth M. Smith, Karl Maramorosch y Max A. Lauffer. Advances in Virus Research. Vol. 17. Nueva York: Elsevier, 1972. 7. Arvind Kumar. Chaos, Fractals and Self– Organization. New Perspectives on Complexity in Nature. Nueva Delhi: National Book Trust, 2003. cs Catenina Beta: caracterı́sticas estructurales y funcionales Alfredo Trejo Córdova*, Maria del Carmen Navarro Maldonado∗∗ , Adolfo Rosado Garcı́a** . ción adhesiva de la cadherina. Posteriormente, se logro establecer una segunda función de la cat-β, esta proteı́na es un componente importante de la vı́a de señalización intracelular, conocida como Wnt. Estructuralmente, la cat-β está formada por tres dominios, el amino terminal, el central y el carboxilo terminal. El dominio central está formado por doce repeticiones armadillo, las cuales contienen las secuencias de aminoácidos necesarias para la unión de la cat-β con la cadherina. El complejo de adhesión formado por la cadherina y la cat-β tiene una participación importante en el desarrollo normal del organismo y en la aparición de enfermedades como los tumores. De ahı́ la importancia de conocer las caracterı́sticas estructurales y funciones de la catβ como uno de los componentes de este complejo de adhesión. Recibido: 19 de noviembre de 2009. Aceptado: 08 de febrero de 2010. Abstract Adherens junctions are formed by adhesion complexes consisting of some adhesion molecules, cadherins, and cytoplasmic proteins called catenins. Betacatenin (β-cat) is a member of the family of catenins that is attached to the E-cadherin and acting as intermediaries for the binding of adhesion molecules and cytoskeleton at cell junctions. Initially, it was established that the only function of the β-cat was involved in the control of cadherin adhesive function. Subsequently able to establish a second function of the β-cat, this protein is an important component of intracellular signaling pathway known as Wnt. Structurally, the cat-β consists of three domains, the amino terminal, central and carboxyl terminal. The central domain is composed of twelve armadillo repeats, which contain the amino acid sequences necessary for the binding of cat-cadherin with β. The adhesion complex formed by the cadherin and β-cat has a major role in the body’s normal development and the emergence of diseases such as tumors. Hence the importance of knowing the structural characteristics and functions of the β-cat as a component of this complex. Introducción Para que el desarrollo embrionario preimplantacional se lleve a cabo de manera normal, es esencial un control en la proliferación y diferenciación celular, mismo que requiere a su vez de la participación conjunta de la adhesión celular y la expresión génica. Las células embrionarias se adhieren entre sı́ a través de tres tipos de complejos de adhesión: uniones estrechas, uniones adherentes y desmosomas. Las uniones adherentes tienen como unidad básica al complejo cadherina-catenina. Dentro de la familia de las cateninas, la catenina beta (cat-β) fue descubierta inicialmente como componente importante de los complejos de adhesión, donde participa como intermediario para la unión de la cadherina y el citoesqueleto. Recientemente se estableció otra función de la cat-β, esta proteı́na es un componente importante de la vı́a de señalización Wnt. El gen wnt ó wingless, responsable de que la mosca Drosophila no tenga alas, está implicado en el establecimiento de la polaridad durante el desarrollo embrionarion en Drosophila y además tiene una participación principal la activación de la transcripción de genes importantes para la proliferación y diferenciación celular. Debido a esta doble función, la cat-β, ha sido propuesta como un factor integrador de la adhe- Resumen Las uniones adherentes están formadas por complejos de adhesión constituidos por unas moléculas de adhesión, las cadherinas, y proteı́nas citoplasmáticas llamadas cateninas. La catenina beta (cat-β) es un miembro de la familia de las cateninas que se encuentra unida a la cadherina-E y que actúa como intermediarios para la unión de las moléculas de adhesión y el citoesqueleto en las uniones celulares. Inicialmente, se habı́a establecido que la única función de la cat-β era participar en el control de la fun* Universidad del Papaloapan, Oaxaca, Oax. Licenciatura en Zootecnia Estudiante del Doctorado en Ciencias Biológicas. Universidad Autónoma Metropolitana-Iztapalapa email: atrejo@unpa.edu.mx ** Laboratorio de Reproducción Animal Asistida. Departamento de Biologı́a de la Reproducción, UAM 15 16 sión y de la transcripción génica. De ahı́ la importancia de conocer las caracterı́sticas estructurales y funcionales de la catenina beta para tratar de entender cómo esta molécula participa tanto en la adhesión celular, como en el proceso de transducción de señales, procesos que finalmente afectan la expresión de ciertos genes importantes para el desarrollo embrionario. Uniones Celulares Los tejidos epiteliales consisten de laminas continuas de células que revisten y protegen a los órganos, cavidades y canales del organismo. Las uniones celulares son necesarias para dar al epitelio la integridad estructural y funcional. Aunque son abundantes e importantes en el tejido eptelial también se encuentran en las regiones de contacto célula-célula y célula-matriz de todos los tejidos. Funcionalmente las uniones celulares se clasifican en: estrechas, adherentes y desmosomas. Las uniones estrechas, sellan el espacio que existe entre células adyacentes de forma que impiden el paso de pequeñas moléculas entre ellas y contribuyen a la formación de la polaridad células. En la formación de este tipo de uniones participan unas proteı́nas conocidas como zona de oclusión 1, 2 y 3 (ZO-1, ZO-2 y ZO-3). En la formación de las uniones estrechas proteı́nas membranales como las claudinas y oculdinas pueden establecer interacciones homofilicas o heterofilicas con claudinas y ocludinas de células adyacentes y las proteı́nas ZO participan en el acoplamiento de estas proteı́nas citoplasmáticas con microfilamentos de actina. Las uniones adherentes contienen cadherinas, cuyos dominios extracelulares median interacciones homofilicas, dependientes de calcio, con cadherinas de células adyacentes, proporcionando especificad a la unión. El dominio citoplasmático de las cadherinas interacciona con el citoesqueleto de actina indirectamente, a través de su unión con cat-β y cat-α. Los desmosomas contienen proteı́nas transmembranales conocidas como desmogleinas y desmocolina (cadherinas desmosómicas) que a diferencia de las cadherinas clásicas de las uniones adherentes, pueden establecer uniones heterotipicas con cadherinas de células adyacentes e intercelularmente conectan con la red de filamentos intermedios. La unión entre cadherinas y los filamentos intermedios puede darse de varias maneras, pero una caracterı́stica importante es la participación de la Desmoplakina en la inter- ContactoS 75, 15–20 (2009) acción con los filamentos intermedios. Entra la cadherina y la Desmoplakina pueden encontrarse proteı́nas de anclaje como la plakoglobina o plakofilina (homologas de la cat-β). Cateninas Las cateninas son elementos necesarios para el establecimiento de las adhesiones entre células y son un punto importante para la regulación de los complejos de adhesión. En las uniones adherentes, tres tipos de cateninas (β, α y p120) participan en la interacción del dominio intracelular de la cadherina-E con los componentes del citoesqueleto. De estas la cat-β y la cat-p120 interaccionan directamente con la cadherina-E, mientras que la cat-β interacciona con la cat-β y con el citoesqueleto (Figura 1, pág. 17). Catenina beta Caracterı́sticas estructurales La cat-β es una proteı́na de 728 aminoácidos (92 kDa), esta proteı́na consta de un extremo amino terminal (N-terminal) de 149 aminoácidos, que contiene los sitios de unión para catenina-α, ası́ como los sitios donde ocurre la fosforilación por parte de la glucógeno sintasa quinasa-3 o GSK3 (por sus siglas en ingles Glycogen synthase kinase 3). Esta fosforilación promueve la degradación de la cat-β que se encuentra libre en el citoplasma, impidiendo su translocación hacia el núcleo. Después del dominio amino se encuentran una región central de 525 aminoácidos, que contiene 12 repeticiones de 42 aminoácidos, conocidos como repeticiones armadillo (Figura 2, pág. 19). En estas repeticiones se localizan los sitios de unión para la proteı́na de la poliposis adenomatosa coli o APC (por sus siglas en ingles adenomatosis polyposis coli) esta proteı́na participa en la regulación de la actividad de la cat-β promoviendo su fosforilación y posterior degradación. En las repeticiones armadillo también contiene los sitios de unión para algunos factores de transcripción como el factor aumentador de linfoide 1 o Lef (por sus siglas en inglés Lymphoid enhancer factor-1). Cuando la cat-β no es marcada para su degradación (fosforilada) forma complejos con los factores de transcripción Lef/LEF en el citoplasma y se transloca hacia el núcleo. En el núcleo, el complejo cat-β/Lef interacciona con una secuencia especifica en la región promotora dando por resultado la activación transcripciona génica. Finalmente la cat-β presenta un extremo carboxi terminal de unos 108 aminoácidos. Catenina Beta. . . Alfredo Trejo C., Maria del Carmen Navarro M., Adolfo Rosado G. 17 Figura 1. Estructura de la catenina beta. La catenina beta está formada por tres dominios o regiones: el dominio amino terminal, un dominio central que contiene las doce repeticiones armadillo y el dominio carboxilo terminal. En el amino terminal y en las repeticiones armadillo se encuentran las secuencias de aminoácidos que sirven para la unión de varias moléculas relacionada con la función de las cateninas. Caracterı́sticas funcionales Se han establecido dos funciones para la cat-β: a) La participación en la formación de uniones adherentes dependientes de cadherina-E, y b) Como un componente importante en la transducción de señales intracelulares. Formación de Uniones Adherentes La cat-β inicialmente fue descrita como una proteı́na estructural que se une con el dominio intracelular de la cadherina-E, formando el complejo de adhesión cadherina/cat-β (Figura 1). La formación de este complejo es un requisito para que se lleve a cabo la unión de la cadherina con los filamentos de actina. Complejos de adhesión Un primer paso para que se formen las uniones adherentes es la formación de complejos de adhesión entre la cadherina y la catenina. El mecanismo a través del cual se forma este complejo de adhesión, implica la interacción de todas las repeticiones armadillo de la cat-β con al menos cien aminoácidos del dominio intracelular de la cadherina-E. Para el correcto establecimiento de las uniones adherentes, es indispensable la unión del complejo de adhesión (cadh-E/cat-β) con los filamentos de actina, unión que se realiza a través de la cat-β. El dominio N-terminal de la cat-α interacciona con cat-α, en esta unión interviene una secuencia de 31 aminoácidos, del 120 al 151 de la cat-β. Transducción de Señales. La cat-β fue conocida inicialmente por su participación en la regulación de la funcionalidad de la cadherina, posteriormente se logró establecer otra función relacionada con la transcripción de genes implicados en el desarrollo tumoral, ya que es un componente importante de la vı́a de señalización Wnt. Para realizar esta función la cat-β debe traslocar hacia núcleo, lo cual depende de los niveles de la proteı́na no asociada a la cadherina, es decir la proteı́na que se encuentra libre en el citosol. Cuando la cat-β no se encuentra unida a la cat-β o a la cadherina (en los complejos de adhesión) se encuentra formando un complejo con proteı́nas como la GSK3 y la APC. Bajo estas condiciones la GSK3 fosforila 4 residuos del extremo amino terminal de la cat-β (serina 33, 37, 45 y treonina 41), lo que da por resul- 18 tado su rápida degración por la enzima proteosómica. El control de los niveles citosólicos de la cat-β está estrictamente regulado. Regulación de la señalización a través de catenina beta por la vı́a Wnt La función de señalización de la cat-β es regulada principalmente a través de alterar su estabilidad, la vı́a Wnt induce la estabilización de la cat-β que se encuentra libre en el citoplasma (Figura 3, pág. 19). En la ausencia de una señal Wnt, es decir la vı́a Wnt está inactiva, la cat-β citosólica es capturada y fosforilada a través de un complejo de destrucción formado por las cinasas GSK3 y APC, marcándola para su posterior degradación dependiente de ubiquitina a través de un proteosoma. Por otra parte, en presencia de una señal Wnt, la actividad del complejo GSK3/APC es inhibida dando por resultado que la cat-β no sea fosforilada y por lo tanto su degradación es bloqueda. De esta manera la cat-β libre se acumula en el citoplasma y migra hacia el núcleo, donde se une a proteı́nas activadoras de la familia TCF/LEF encargados de la transcripción de genes Wnt necesarios para desarrollo embrionario. ¿Adhesión o transducción de señales? La decisión de cuál de estas dos funciones realizará la cat-β, es de gran importancia para un desarrollo normal. Uno de los factores que podrı́an estar determinando si la cat-β participa en la formación de uniones celulares o en la transducción de señales es la competencia que existe entre moléculas citoplasmáticas y nucleares por la cat-β. El mecanismo utilizado para regular la interacción de cat-β con otras proteı́nas es a través de la fosforilación en residuos de tirosina de esta proteı́na. Dentro de la cat-β hay dos residuos de tirosina que son de gran importancia para este mecanismo, la tirosina 142 en la primera repetición armadillo y la tirosina 654 en la última repetición armadillo. Se ha establecido que la fosforilación en estos dos residuos son determinantes para el desensamble del complejo cadherina-catenina dando por resultado un aumento en la transcripción dependiente de cat-β. La tirosina 654 en la última repetición armadillo es determinante para que se lleve a cabo la unión a la cadherina-E, por ejemplo la fosforilación en este residuo a través de una tirosina cinasa da por resultado la perdida de la unión a cadherina-E e interfiere con la adhesión celular. ContactoS 75, 15–20 (2009) Mientras que la tirosina 142 en la primera repetición armadillo es determinante para la unión con la cat-α, las tirosina quinasas Fer y Fyn inducen la fosforilación de este residuo dando por resultado la inhibición de la unión de cat-β con la cat-α. El mecanismo molecular de este cambio funcional no está totalmente establecido, sin embargo, se ha sugerido que la fosforilación en la tirosina 142 promueve la unión con el coactivador nuclear BCL9-2 o parecido al Linfoma 9 de células B (BCL9-like) (por sus siglas en ingles B-cell Lymphoma 9-like). Conclusiones Las cateninas son proteı́nas citoplasmáticas que regulan la función adhesiva de las cadherinas. La unión celular no es solo que dos células se encuentren estrechamente juntas, sino que es un mecanismo de unión más complejo en el que participan moléculas de adhesión propias de la célula, su interacción con la matriz extracelular y el citoesqueleto, que en conjunto responden a estı́mulos externos. La unión celular dependiente de cadherinas tiene una participación importante en la morfogénesis y en desarrollo de algunos tipos de tumores o metástasis. La función de la cadherina-E se encuentra alterada en muchos cánceres epiteliales debido a una inactivación mutacional de la cadherina-E o de genes de la catenina beta. El papel de las proteı́nas de señalización que se asocian con el complejo cadherinacatenina es un área importante para futuros estudios, particularmente con respecto a las alteraciones en las vı́as de señalización observadas después del rompimiento del complejo de adhesión. La realización de estudios que permitan valorar la expresión de moléculas de adhesión como la cadherina-E y cateninas en algunos tipos de tumores podrı́a ayudar a establecer una correlación de estos con el grado histológico, estadio clı́nico y recurrencia de dicha enfermedad. Bibliografia 1. Gottardi CJ, Gumbiner BM. Distinct molecular forms of beta-catenin are targeted to adhesive or transcriptional complexes. J. Cell Biol 167: 339349, 2004. 2. Gumbiner BM. Regulation of cadherin-mediated adhesion in morphogenesis. Nat Rev Mol Cell Biol 6: 622-634, 2005 3. Huber AH, Weis WI. The structure of the betacatenin/ E-cadherin complex and the molecular basis of diverse ligand recognition by betacatenin. Cell 105: 391-402, 2001. Catenina Beta. . . Alfredo Trejo C., Maria del Carmen Navarro M., Adolfo Rosado G. 19 Figura 2. Complejo de adhesión cadherina-catenina. La cadherina se une a través de su dominio intracelular con la catenina beta. La catenina alfa sirve como intermediario de unión entre el complejo cadherina-catenina beta y los filamentos de actina. Figura 3. Vı́a de señalización Wnt. La función de transducción de señales de la catenina beta es regulada a través de los niveles de catenina beta que se encuentran libres en el citoplasma y que pueden ser translocados hacia el núcleo. Los niveles de la catenina beta son controlados a través de la via Wnt: a) en su forma inactiva esta vı́a promueva la fosforilación de la catenina beta a través de un complejo de cinasas (GSK3/APC) provocando su degradación b) mientras que en su forma activa se inhibe la fosofrilación de la catenina beta dando por resultado su translocación hacia el núcleo, donde se une a co-activadores de la transcripción génica (Tef/LeF). 20 4. Roura S, Miravet S, Piedra J, Garcia de Herreros A, Dunach M. Regulation of E-cadherin/catenin association by tyrosine phosphorylation. J. Biol Chem 274: 36734-36740, 1999. 5. Huber AH, Nelson WJ, Weis WI. Threedimensional structure of the armadillo repeat region of beta-catenin. Cell 90: 871-882, 1997. 6. Piedra J, Martı́nez D, Castaño J, Miravet S, Duñach M, Garcı́a de Herreros A. 2001. Regulation of β-catenin structure and activity by tyrosine phosphorylation. J. Biol. Chem. 276:20436-43. ContactoS 75, 15–20 (2009) 7. Yap AS, Kovacs EM. 2003. Direct cadherinactivated cell signaling: a view from the plasma membrane. J. Cell Biol, 160:11-16. 8. Gottardi CJ, Wong E, Gumbiner BM. 2001. Ecadherin suppresses cellular transformation by inhibiting b-catenin signaling in an adhesionindependent manner. J. Cell Biol, 153:1049-1060. 9. Rijsewijk F, M. Schuermann, E. Wagenaar, P. Parren, D. Weigel y R. Nusse.1987. The Drosophila homolog of the mouse mammary oncogene int1 is identical to the segment polarity gene wingless. Cell 50(4):649-657. cs Análisis estructural de un motor de corriente directa S. A. Rodrı́guez Paredes*, R. J. Rodrı́guez Lozoya** M. González Solano*** Recibido: 21 de diciembre de 2009. Aceptado: 11 de enero de 2010. el análisis de pasividad ha sido ampliamente estudiado, por ejemplo: en [2] se aplica la técnica de estabilización y regulación de sistemas no lineales para el caso de un motor DC de escobillas, en cambio en [3] el enfoque es utilizando la forma hamiltoniana controlada por puertos donde aplican la metodologı́a de Interconexión y Asignación de Amortiguamiento (IDA). Los enfoques anteriores son bien conocidos, sin embargo, se requiere del conocimiento de la fı́sica del sistema, unidades de las constantes que aparecen en el modelo, selección adecuada de las variables de estado y Hamiltonianas. Esta selección de variables no es evidente, sino más bien resulta de la experiencia en el modelado de sistemas eléctricos y mecánicos, y ası́ como de la apropiada selección de coordenadas generalizadas de posición, velocidad y cantidad de movimiento. Abstract In this paper some classical results of the nonlinear analysis are presented for a separately excited direct current (DC) motor, the structural term is proposed since the focus of control, in the analysis of the mathematical structure that keep the dynamics of the system (the differential equations that describe the model of the motor) and not of the mechanical structures. In this way, the physical knowledge of the variables is avoided. Resumen En este trabajo se presenta el análisis estructural de un motor de CD. Ası́ como algunos resultados clásicos del análisis no lineal un motor de corriente directa con flujo de campo constante e independiente del circuito de la armadura. El término estructural se propone desde el enfoque de control, en el análisis de la estructura matemática que guardan las dinámicas del sistema (las ecuaciones diferenciales que describen el modelo del motor) y no de las estructuras mecánicas. De este modo, se evita el conocimiento fı́sico de las variables. En esta propuesta, se revisa el análisis de pasividad por medio de variables Hamiltonianas y el modelado por medio de sistemas perturbados para el motor de CD bajo dos puntos de vista: uno fı́sico (enfoque clásico) y otro matemático o enfoque estructural. El enfoque fı́sico explota el conocimiento sobre los parámetros y las unidades fı́sicas del motor de CD, ası́ como cierta experiencia en identificar constantes de tiempo en sistemas eléctricos y mecánicos. En el enfoque matemático, se emplea la teorı́a de control para la selección de las variables de estado y de las variables Hamiltonianas. Un enfoque estructural permite realizar dicha selección, por medio de las formas canónicas de Brunovsky y compañera [4], ası́ como de la transformada de Legendre. Las variables encontradas en ambos enfoques no son iguales, pero equivalentes vı́a una matriz de transformación. Finalmente se concluye comparando ambos enfoques. Palabras clave: Forma de Brunovsky, Lagrangiano, Hamiltoniano, transformación de Legendere. Introducción Los motores de corriente directa (CD) son ampliamente usados a nivel industrial. Permiten un amplio rango de velocidad y pueden proporcionar un alto par con control más sencillo y económico que cualquier motor de corriente alterna. En los últimos años se han diversificado las técnicas de control no lineal, * SEPIESIME - UA, IPN Av. Las Granjas No. 682, Col. Sta. Catarinasarodrigezp@ipn.com Tel. 57296000 Ext. 64494. ** División Académica de Ing y Arq., UJAT Carretera Cunduacán-Jalpa Km 1, Cunduacán, Tab. javier.rodriguez@daia.ujat.mx Tel. 9933155800. *** División Académica de Ing y Arq., UJAT Carretera Cunduacán-Jalpa Km 1, Cunduacán, Tab. manuel.gonzalez@daia.ujat.mx Tel 9933155800 El modelo del motor de CD El modelado matemático del motor de CD requiere de dos ecuaciones, una ecuación mecánica y otra ecuación eléctrica. Estas ecuaciones están acopladas y se basan en las Leyes de Euler y Kirchhoff, res21 22 ContactoS 75, 21–26 (2010) pectivamente. Por una parte, la ecuación mecánica modela principalmente el movimiento del rotor. Esta consiste en la ecuación clásica de segundo orden, más un término de origen eléctrico: M θ̈ + N θ̇ + Ñ θ = τem (1) Donde M es el momento de inercia del rotor, N el coeficiente de fricción, Ñ es una constante que se relaciona con la energı́a potencial, y τe m es el par electromagnético generado por el subsistema eléctrico. τem = Ki vem = Kω Donde K es constante y ω = θ̇, entonces las simplificaciones anteriores permiten reescribir (1)-(2) de la siguiente forma vectorial M dω dt di L dt = 0 K −K −R ω i + 0 1 u (3) Forma de Brunovsky del Motor de CD Enseguida se discuten algunas representaciones alternativas del modelo del motor de CD (3) y se determina la Forma de Brunovsky del motor de CD. La representación clásica en variables de estado para el motor de CD es Figura 1. Circuito equivalente motor CD. Por otra parte, el subsistema eléctrico consiste en λ̇ + Ri + vem = u dω dt di L dt = 0 −K L K M −R L ω i + 0 1 L u (4) La cual se acostumbra escribir simplemente como (2) ẋ = Ax + Bu (5) Donde λ es el vector de enlaces de flujo, R es una matriz cuadrada diagonal de las resistencias del estator y el rotor, i y u son los vectores de corriente y voltaje, respectivamente, en los embobinados del motor y vem es la fuerza contralectromotrı́z debida al movimiento mecánico. donde x = (x1 x2 )T = (ω i)T , B = (0 1/L)T y A es la matriz cuadrada en (4). Ası́ los sistemas mecánico (1) y eléctrico (2), describen la dinámica de un motor eléctrico en general. En el caso del motor de CD controlado por armadura, el sistema de ecuaciones (1)-(2), se simplifica para describirlo en variables de estado bajo la siguiente hipótesis: suponga que la excitación del estator es constante, y el rotor se alimenta mediante una fuente de CD, por lo que λ es un escalar. Suponga que la inductancia del rotor L es una constante real. De hecho, cuando se tiene θ̇ constante, el promedio de L es constante, sin embargo, en la práctica la hipótesis anterior funciona razonablemente bien aún en el control de posición. Finalmente, si se desprecian los términos N y Ñ y los términos de acoplamiento de las ecuaciones (1)-(2), se suponen lineales, entonces xH = (π λ)T Sin embargo, la representación en variables de estado no es única, por ejemplo, se puede seleccionar como vector de estado donde π = M ω es la cantidad de movimiento angular, y obtener π̇ λ̇ = 0 K −M K L −R L π λ + 0 1 u (6) Es decir ẋH1 = AH1 + BH1 u (7) Con BH1 = (0 1)T y AH1 es la matriz cuadrada en (6). Análisis estructural de un motor. . . S. A. Rodrı́guez P., R. J. Rodrı́guez L. M. González S. Se hace notar que el par de matrices (A, B) y (AH1 , BH1 ), en (4) y (6) respectivamente, son diferentes y están relacionadas en este caso mediante la transformación T = CA = K ML 23 0 1 L 0 (9) define el cambio de variables TH1 = 1 M 0 1 L 0 xL = T −1 x = Lo cual introduce el cambio de variables T ML ω Li K Luego el sistema −1 XH1 = TH1 x Una forma más general que se relacionan dos pares de matrices es mediante el grupo feedback, el cual introduce una relación de equivalencia entre pares de matrices y los caracteriza mediante la forma canónica de Brunovsky [1]. Ası́, para el par (A, B) se obtiene su forma de Brunovsky (AB, BB), mediante el grupo de transformaciones (T, F, G), de dimensiones apropiadas, tal que (AB , BB ) = (T −1 (A + BF )T, T −1 BG) (8) donde T y G no son singulares. El significado fı́sico de este grupo es: un cambio de variable en el estado mediante la matriz T y la retroalimentación u = F x + Gv ẋL = AL xL + BL u donde AL está en forma compañera AL = 0 K2 −M L C= K M − LR2 1 L La matriz A= R L 1 1 0 donde se utilizó el coeficiente de s del polinomio caracterı́stico de A, det(sI − A) = s2 + por lo que , BL = 0 1 (11) K2 R F = ML L T y G=I (12) Entonces se obtiene el sistema ẋB = AB xB + BB v donde el par En el caso de (5), se puede encontrar la forma de Brunovsky con la ayuda de la matriz de controlabilidad 0 1 −R L Finalmente, si se selecciona donde v es una nueva entrada de control. (10) R k2 S+ L ML (AB , BB ) = 0 0 1 0 , 0 1 está en forma de Brunovsky, xB = xL , y las transformaciones T, F y G están dadas por (9) y (12). Enfoque variacional del motor de CD Ahora se verán los enfoques Lagrangianos y Hamiltonianos para el modelo del motor de CD. Considérese nuevamente el sistema (10). La estructura del par (AL , BL ) en la ecuación (11) y las componentes del vector de estado (variables Lagrangianas) (AB , BB ) = 0 1 0 0 0 1 determinan la ecuación de segundo orden M Lq̈ + RM q̇ + K 2 q = M Lu (13) 24 ContactoS 75, 21–26 (2010) De aquı́ se concluye que la posición q y la velocidad q̇ son variables generalizadas, mientras que los términos M Lq̈, RM q̇,K 2 q y M Lu, son las fuerzas de la inercia, de fricción o disipativas, potenciales y las fuerzas generalizadas que actúan sobre el sistema respectivamente. q̇ ṗ Por lo anterior, se propone el siguiente Lagrangiano: Con energı́a cinética K(q̇) = 12 M Lq 2 y energı́a potencial V(q) = 12 K 2 q 2 , lo cuál satisface la ecuación Euler–Lagrange (13) d ∂L ∂L − =τ −f dt ∂ q̇ ∂q (14) Donde τ = M Lu y f = RM q̇. La ecuación (13) se puede escribir en variables de estado como q̇ q̈ = 0 K2 −M L 1 −R L q q̇ + + 0 −1 1 0 u 0 ML − 0 0 0 RM ∂H ∂q ∂H ∂p ! (18) donde se seleccionó y = p como salida pasiva. En forma simplificada el sistema (18) es L(q, q̇) = K(q̇) − V(q), = 0 1 u (15) ẋH2 = (S − P )∇h + BH2 u (19) T y = BH2 ∇H (20) Donde S y P son las matrices simétricas y antisimétricas en (18) respectivamente, y P ≥ 0. Se remarca que la selección de las variables generalizadas q, q̇, p no es única, de hecho es fácil verificar que si selecciona como vector de estado xH1 = 2 (M ω Li)T , Hamiltoniano H1 = L2 i2 + M 2 ω y la salida pasiva y1 = i, entonces el sistema (3) con salida pasiva y1 se escribe como O en un sistema Hamiltoniano. Para obtener dicha representación, recuerde que el Hamiltoniano H(q, p) se puede ver como la transformada de Legendre del Lagrangiano, como función de q̇: ẋH1 = (S1 − P1 )∇H1 + BH1 u (21) T y1 = BH1 ∇H1 (22) donde H(p) = pq̇ − L(q̇) Donde p = ∂l ∂ q̇ . S1 = Luego 2 p 1 2 2 H(p, q) = 2M L + 2 K q y se obtiene la siguiente representación q̇ ṗ = 0 −K 2 1 ML −R L q p + 0 ML u (16) La cual se representa también como ẋH2 = AH2 xH2 + BH2 u (17) donde ẋH2 = [q p]T , B = [0 M L]T y AH2 es la matriz cuadrada en (16). Ahora, considere ∇H = [K 2 q M1L p]T , por lo que se reescribe (16) como el sistema Hamiltoniano BH 1 = 0 −K 0 1 K 0 , P1 = 0 0 0 R , S1 = S1T , P1 = P1T ≥ 0 La selección de las variables Hamiltonianas no es trivial. La selección de xH1 = (M ω Li)T en (7) como variables Hamiltonianas se basó en los hechos fı́sicos, mecánicos y eléctricos (cantidad de momento angular y enlaces de flujo). Mientras que la selección de xH2 = [q p]T en (16), se desarrolló solo en hechos matemáticos como cambios de base, Lagrangianos, Hamiltonianos y transformaciones de Legendre. Ambas representaciones se relacionan mediante un cambio de vector de estado xH2 = T21 xH1 y cambio de gradiente de los Hamiltonianos H = T1 H1 , con Análisis estructural de un motor. . . S. A. Rodrı́guez P., R. J. Rodrı́guez L. M. González S. T21 = L M 0 LM 0 , T1 = KLM 0 0 L Finalmente, se concluye que como P y P1 son semidefinidas positivas en H y H1 están acotadas por abajo, entonces el modelo del motor de CD es pasivo como una función de almacenamiento H o H1 dependiendo de las variables seleccionadas. Modelo de perturbación singular del motor de CD En esta sección se revisa el modelo perturbado del motor de CD. Esto es, se busca un parámetro de perturbación pequeño en el modelo. Esta labor se puede realizar cuando se tiene conocimiento del proceso fı́sico. En el caso del motor, el parámetro pequeño es la inductancia L. Para buscar este parámetro se acostumbra adimensionar los parámetros fı́sicos (lo cual requiere de las unidades fı́sicas de las variables). Se considera el sistema (4) dω dt di dt = 0 −K L K M −R L ω i + 0 1 L El proceso anterior para encontrar el modelo perturbado del motor de CD no es evidente, aún con conocimiento fı́sico de las variables mecánicas y eléctricas. Por esta razón se propone un método alternativo, el cual se puede extender a otros sistemas de segundo orden distintos del motor. Considere el sistema (15) q̇ q̈ = 0 −ωn2 1 −2ζωn ω i u , ir = , ur = Ω KΩ KΩ = 0 −1 1 −1 ωr ir + 0 1 ur donde el término ε = Te /Tm . Finalmente se obtiene el modelo reducido 2 Mω = − K K ω+ u R R + 0 1 u Donde ζ representa el coeficiente de amortiguamiento, ωn es la frecuencia natural de la oscilación del sistema, 2ζωn = B/L y −ωn2 = K 2 /M L. Como el recı́proco de ωn tiene unidades de tiempo y 0 ≤ ζ ≤ 1 es adimensional, se propone el cociente ε=− 2ζωn 2ζ RM − − 2 ωn ωn K2 Luego, si la prima (′ ) denota la derivada respecto de τr , se tiene q′ q ′′ = 0 −ωn2 1 −2ζωn 2ζωn q q′ + 0 ωn 2ζ u dq ω2 ωn = − nq + u dτr 2ζ 2ζ Finalmente, en términos de la velocidad angular ω,y q = M Lω/K, ω=− dωr dt r ε di dt q q̇ Se desprecia ε y se determina el modelo reducido Posteriormente se identifican las constantes de tiempo mecánicas Tm = JR/K 2 y eléctricas Te = L/R. Luego por conocimiento fı́sico se sabe que Tm ≫ Te , se introduce una variable de tiempo adicional tr = t/Tm y se obtiene el sistema perturbado del motor de CD cuando ωn ≫ 2ζ (caso general), de otro modo su recı́proco y el tiempo τr = εt u Se adimensionan las variables relativas de velocidad angular, corriente y voltaje respectivamente, con respecto a un valor caracterı́stico de velocidad angular Ω ωr = 25 (23) K K2 ω+ u MR MR (24) Por lo anterior se concluye que la estructura del sistema (23) y (24) es la misma, pero la determinación de (24) solo se utilizó la descripción en variables Lagrangianos del motor de CD evitando adimensionar las variables Lagrangianas y el tiempo. Conclusiones En este trabajo se presentó el modelo del motor de CD. Se revisó la descripción en variables de estado, 26 Lagrangianos y Hamiltonianos, ası́ como el modelo de perturbación singular. Las anteriores representaciones se desarrollaron bajo un enfoque matemático, el cual consiste en cambio de variables, formas canónicas, Lagrangianos, Hamiltonianos y transformacion de Legendere. Los resultados se compararon con la literatura clásica, la cual explota los hechos fı́sicos y el conocimiento de las unidades de las variables utilizadas. ContactoS 75, 21–26 (2010) 3. Morillo Pina, Atilio, Rios, E. Miguel y Acosta, Vivian. Stabilization of a brushed DC motor with the port controlled Hamiltonian approach. Rev. Téc. Ing. Univ. Zulia, ago. 2006, vol.29, no.2, p.111-118. ISSN 0254-0770. 4. Pei Yuan Wu, Hwa-Long Gau. Companion matrices: reducibility, numerical ranges and similarity to contractions. Linear Algebra and its Applications, Volume 383, 15 May 2004, Pages 127-142 Referencias 1. Brunovsky, P. A. A Classification of Linear controllable Systems. Kibernetica Vol. 6, No. 3, 173178, 1970. 2. Chouch S, Said Nait Saud M. Backstepping Control Design for position and Speed Tracking of DC Motor. Asian journal of Information Technology 5(12): 1367 - 1372, 2006. cs Curiosidades de la fı́sica, parte XII José Marı́a Filardo Bassalo, Fundación Minerva, Prof. retirado de la Universidad de Pará www.bassalo.com.br Recibido: 08 junio 2008. Aceptado: 27 mayo 2009. Las leyes de Galileo del péndulo, de la caı́da libre y de la composición de velocidades Son bien conocidas las narraciones acerca de las experiencias que llevaron al fı́sico y astrónomo italiano Galileo Galilei (1564–1642) al descubrimiento de las leyes del péndulo y de la caı́da libre. Sin embargo, en los dos casos, no hay fechas precisas ni registro de las razones que lo llevaron a realizar los experimentos que permitieron la formulación de las leyes mencionadas. Estas imprecisiones, según el fı́sico e historiador de la ciencia, el norteamericano Tony Rhotman, en su libro “Todo es relativo y otras fábulas de la ciencia y la tecnologı́a” (DIFEL, 2005) se deben a que tales historias nunca fueron escritas por Galileo en ninguno de sus libros sino por uno de sus discı́pulos, el fı́sico italiano Vincenzio Viviani (1622–1703), en una obra inconclusa que escribió a la muerte de su maestro. Como era un perfeccionista, empleó cincuenta años en revisar lo que escribı́a y murió sin verlo publicado, lo que ocurrió en 1717. Es por lo anterior que los historiadores de la ciencia presentan fechas y versiones diferentes acerca de la motivación en el estudio de esos fenómenos. Réplica del reloj de Galileo. Fuese o no motivado por esa observación, el hecho es que Galileo comenzó a experimentar con péndulos de diferentes longitudes y pesos. Observó que las oscilaciones de éstos, a pesar de tener amplitudes diferentes, siempre implicaban el mismo tiempo en una oscilación completa, y ası́ lo comunicó al marqués italiano Guidobaldo del Monte (1545–1607) en la carta del 29 de noviembre de 1602.3 Es oportuno destacar tres hechos curiosos acerca del péndulo. El primero es que el isocronismo galileano llevó al médico italiano Sanctorius Sanctorius (1561– 1636) a inventar el pulsilogium, útil para diagnósticos médicos. Aprovechemos para decir que también inventó el primer termómetro clı́nico al adaptar una escala termométrica rudimentaria al termoscopio inventado por Galileo en 1592 ó 1597. En el caso de las leyes del péndulo, fue en 15811 o 15832 que Galileo observó, durante una ceremonia en la Catedral de Pisa, que el periodo de oscilaciones de un candelabro puesto en movimiento por el viento, no dependı́a de que tales oscilaciones fueran lentas o rápidas. Midió los perı́odos de las oscilaciones con su propio pulso. Destaquemos que este isocronismo ya habı́a sido observado en el siglo X por el astrónomo árabe Ibn Junis, según afirma Geymonat. El segundo hecho acerca del péndulo se refiere a la correcta formulación de sus leyes. Ésta fue presentada por el fı́sico holandés Christiaan Huygens (1629– 1695), en 1659, al demostrar que la trayectoria ci- 1 Según el quı́mico e historiador de la ciencia Isaac Asimov, “Genios de la humanidad” (Bloch Editores, 1972). 2 Según los historiadores de la ciencia James Reston Jr. en “Galileo: una vida” (José Olympio, 1995) y Ludovico Geymonat en “Galileo Galilei” (Nova Fronteira, 1997). 3 Stillman Drake “Galileu” (Publicações Dom Quixote, 1981) y Cortes Pla “Galileo Galilei” (Espasa–Calpe Argentina, S. A., 1946). 27 28 ContactoS 75, 27–35 (2010) por lo que, después del impacto, ambas masas oscilan con la misma velocidad. Hoy se sabe que, en primera aproximación (ya que se desprecia la energı́a térmica), se puede aplicar el principio de conservación de momento linear y de energı́a (cinética y potencial) para calcular la velocidad aproximada del proyectil al salir del arma. Termoscopio de Sanctorius: el aire caliente desplazaba hacia abajo a la columna de lı́quido. cloidal hace que el perı́odo del péndulo sea independiente de su amplitud. Con esto determinó la relación entre el tiempo de caı́da de un cuerpo a lo largo de una cicloide (curva generada por un punto situado sobre un cı́rculo que se desplaza a lo largo de una lı́nea recta) y el tiempo de caı́da a lo largo del diámetro del cı́rculo generador de la cicloide. A partir de esa relación obtuvo por primera vez la expresión para el perı́odo T (mitad del tiempo de una oscilación completa) de un péndulo simple: s ℓ T =π g expresión con la que determinó el valor de la aceleración gravitacional, g = 9.806 m/s2 . En ese experimento utilizó un péndulo con ℓ = 6.18 pulgadas y 4,964 oscilaciones dobles por hora. Es oportuno anotar que Huygens publicó en 1673 su famoso libro Horologium Oscillatorium sive de Motu Pendulorum, donde describe sus experimentos con péndulos (simples y compuestos) e, incluso, la construcción de su reloj de péndulo. El tercer hecho acerca del péndulo está relacionado con su uso en la determinación de la velocidad de los proyectiles: el péndulo balı́stico, inventado por el matemático e ingeniero militar inglés Benjamin Robins (1707–1751) y descrito en su libro New Principles of Gunnery, publicado en 1742. Básicamente este péndulo consiste de un cuerpo suspendido por un hilo hacia el que se dispara el proyectil cuya velocidad y, por consiguiente, su energı́a cinética, se quiere determinar. Se trata de una colisión inelástica Veamos a continuación los experimentos realizados por Galileo para formular las leyes de caı́da libre. Según escribe Reston Jr., Galileo habrı́a observado en la torre del campanario de la catedral de Pisa, la caı́da de esferas de distintos tamaños y materiales (plomo, cobre, oro, ébano, pórfido) para contrastar el resultado descrito por el filósofo italiano Girolamo Borro (1512–1592), esto es, que la esfera más pesada caı́a más rápidamente, lo que confirmarı́a lo propuesto por el filósofo griego Aristóteles de Estagira (382–322 a.n.e.). Galileo, en el supuesto experimento de la Torre de Pisa, observarı́a que las bolas de pesos y materiales diferentes caı́an al mismo tiempo. Según esta leyenda, después del experimento, Galileo fue aclamado por una multitud compuesta de estudiantes, profesores y filósofos. Probablemente, los aristotélicos empedernidos hicieran algunos abucheos al ver que no llegaban al mismo instante. Y Galileo habrı́a respondido que la diferencia se explicaba por la resistencia debida al aire, en el vacı́o todas las bolas llegarı́an en el mismo instante. Cuando Neil Armstrong, en su histórica llegada a la Luna (sin atmósfera), el 20 de julio de 1969, dejó caer un martillo y una pluma exclamó “¿Lo vieron? ¡Galileo tenı́a razón!”. Es también oportuno anotar que, según afirma el fı́sico Peter R. Holland en The Quantum Theory of Motion: An Account of the de Broglie–Bohm Causal Interpretarion of Quantum Mechanics (Cambridge University Press, 1993), los cuerpos en el vacı́o no caen con la misma aceleración independiente de su masa, esto es: ~a 6= −~g la confirmación podrı́a hacerse con objetos cayendo desde grandes alturas en un ambiente sin atmósfera, lo que confirmarı́a a la mecánica cuántica no– ortodoxa. Regresando a la legendaria observación de Galileo en la catedral de Pisa sobre el isocronismo del péndulo y la caı́da de cuerpos en el campanario, anotemos que estos experimentos no fueron descritos en sus trabajos acerca del movimiento de los cuerpos. Curiosidades de la fı́sica, XII. José Marı́a Filardo Bassalo En efecto, el libro De Motu, donde relata sus estudios de 1589 a 1592, no menciona los experimentos de la torre inclinada de Pisa; sólo señala que, las conclusiones de los experimentos que realizó acerca de la caı́da de los cuerpos son: 1. Las velocidades de los cuerpos en caı́da en un determinado medio son proporcionales a la diferencia entre sus pesos y el medio en cuestión. 2. En el vacı́o, la velocidad del cuerpo depende de su propio peso total. Tanto la legendaria observación en la catedral de Pisa, como la del campanario, fueron descritas por Viviani, según afirman Reston, Jr. y Rothman. Es interesante observar que el matemático flamenco Simon Steviun (Stevin) de Bruges (1548–1620), en 1586, en Bélgica, realizó experimentos acerca de la caı́da de los cuerpos; observó que dos esferas de plomo, una diez veces más pesada que la otra, al ser arrojadas de una altura de 30 pies, llegaron al suelo al mismo tiempo. Galileo escribió el 16 de octubre de 1604 a su amigo, el fraile Paolo Sarpi (1531–1623) (conocido como “el Maquiavelo de Venecia”) sus ideas iniciales respecto a las leyes que rigen el movimiento de los cuerpos, mismas que fueron presentadas y discutidas en sus dos famosos libros: Dialogo supra i due Massimi Sistemi del Mondo Tolemaico e Copernicano (1632) y Discorsi e Dimostrazione Mathematiche intorno a Due Nuove Scienze Attenenti alla Mechanica ed i Movimenti Locali (1638)4 En el Dialogo Galileo examinó la caı́da de los cuerpos en un navı́o parado o en movimento y de lo alto de una torre (¿serı́a la de Pisa?), el movimiento de los proyectiles y el vuelo de las aves en una Tierra en movimiento. De ese modo, mostró mediante argumentos lógicos la imposibilidad de determinar si un barco está anclado o moviéndose tranquilamente en el mar. Según Galileo, si un observador estuviera en un camarote, ninguna observación simple como el movimiento de los insectos en el aire, o de los peces en una pecera, bastarı́a para determinar el estado de movimiento del barco, esto es, si se halla parado o en movimiento rectilı́neo uniforme. En este libro también discute los experimentos ideales acerca del movimiento ascendente y descendente de cuerpos en planos inclinados y relacio4 “Diálogo acerca de los dos máximos sistemas del mundo ptolomaico y copernicano” y “Discursos y demostraciones matemáticas alrededor de dos nuevas ciencias acerca de la mecánica y los movimientos locales”. 29 nados con el impetus, tema estudiado en 1613; también trata de otros temas polémicos: las mareas y la rotación de la Tierra. Acerca de la rotación de la Tierra, Galileo refutó el argumento principal de los aristotélicos y ptolomeicos, es decir, que si el planeta girase alrededor de su centro los cuerpos no estarı́an fijos en su superficie pues serı́an arrojados hacia fuera y que la propia Tierra serı́a despedazada. A favor de su tesis, Galileo argumentó que, cuando un cuerpo es arrojado horizontalmente a partir de un punto de la superficie terrestre, tiene un “ı́mpetus” para moverse según una tangente, pero también tiene una tendencia a bajar, debido a la gravedad. Y esta desviación, por menor que sea, basta para retener a ese cuerpo en la superficie de nuestro planeta. Para justificar esa conclusión presentó argumentos geométricos donde comparó la distancia recorrida por el cuerpo en la tangente y la recorrida por acción de la gravedad; observó que esta última es mucho mayor que la primera. Con todo, no supo precisar qué tanto mayor. En 1636 el matemático, fı́sico y teólogo, el franciscano francés Marin Mersenne (1588–1648) mostró que Galileo habı́a cometido un error de interpretación en su argumentación. En cuanto al problema de las mareas, Galileo cometió una vez más el mismo error de 1616: afirmar que las mareas se deben a los movimientos de la Tierra de rotación y traslación. Según ese argumento, la asociación de los dos movimientos hacı́a que en algunos puntos de la Tierra hubiera velocidades resultantes mayores que en otros lo que provocarı́a un ciclo de mareas igual a 24 horas. Sin embargo, el ciclo de mareas es aproximadamente de 12 horas. La explicación correcta de las mareas fue presentada por el fı́sico y matemático Sir Isaac Newton (1642–1727) con su ley de gravitación universal de 1687. En toda la discusión referida, Galileo usó el principio de relatividad del movimiento que, en lenguaje actual, está representado por las expresiones: x′ = x + V t y′ = y z′ = z t′ = t (o, equivalentemente, v ′ = v), donde x′ es la posición de una partı́cula que se desplaza con una velocidad v ′ respecto a un observador fijo O′ , y x es la posi- 30 ContactoS 75, 27–35 (2010) ción de esa misma partı́cula que se desplaza con velocidad v respecto a otro observador O que, a su vez, se desplaza con velocidad constante V en relación al observador O′ en la dirección de una recta seleccionada (en este caso, el eje de las x′ (x)). Es interesante resaltar que este “principio galileano”, que deja invariante la segunda ley de Newton ẍ′ = ẋ fue nombrado transformación de Galileo por el fı́sico alemán Philipp Frank (1884–1966) en un artı́culo de 1909.5 Destaquemos también que la invariancia indicada demuestra la afirmación de Galileo de que es imposible determinar el movimiento de un navı́o que se desplaza a velocidad constante. En los Discorsi Galileo abordó geométricamente las leyes de equilibrio de los cuerpos, la hoy conocida resistencia de los materiales (su primera ciencia) y las leyes del movimiento (su segunda ciencia). Estudió el movimiento uniforme y el movimiento uniformemente acelerado para, en seguida, aplicarlos a la caı́da libre de los cuerpos, al movimiento de los cuerpos en planos inclinados, al movimiento del péndulo y el de los proyectiles. Al estudiar la caı́da libre descubrió sus célebres leyes: 1. Las velocidades (v) de los cuerpos en caı́da libre son proporcionales a los tiempos (t) empleados en las mismas: v ∝ t, 2. Los espacios recorridos por los cuerpos en caı́da libre son proporcionales a los cuadrados de los tiempos empleados: s ∝ t2 . Es interesante notar que Galileo usó un instrumento ingenioso para medir esos tiempos. Empleó un recipiente con grandes dimensiones transversales, hizo un orificio pequeño en su fondo y lo llenó de agua, la cual fluı́a a una balanza. Debido a las grandes dimensiones horizontales del recipiente, la altura del nivel de agua era prácticamente invariable, de modo que el tiempo de vaciado era proporcional al peso de agua que llegaba a la balanza. En 1784 el fı́sico y matemático inglés George Atwood (1745–1807) publicó A Treatise on the Rectilinear Motion donde describe un instrumento (más tarde conocido como máquina de Atwood) compuesto de dos masas (m) iguales, unidas por un hilo ligero que pasa sobre una polea también ligera y con fricción despreciable respecto a su eje de rotación. Cuan5 Sitzungsberichte Berlin Akademie der Wissenschaften (Wien) 118, p. 373. do se añade una tercera masa (m′ ) a una de las extremidades de la máquina, el sistema se desequilibra con una aceleración constante (a) dada por: a= m′ g (2m + m′ ) expresión consistente con las leyes de caı́da libre obtenidas por Galileo. También mediante la máquina de Atwood fue posible medir la aceleración gravitacional (g) con gran precisión, ya que el método del péndulo debió esperar el desarrollo de relojes precisos. En los Discorsi, además de aplicar sus leyes de movimiento uniforme y uniformemente acelerado al movimiento de proyectiles, Galileo mostró que su trayectoria es parabólica (al obviar el efecto del aire). Demostró también que el alcance máximo de los proyectiles en lanzamiento oblicuo ocurre a un ángulo de 45◦ y que el mismo alcance se tiene para ángulos simétricos respecto a 45◦ . Anotemos que su alumno, el fı́sico italiano Evangelista Torricelli (1608–1647) habı́a llegado en 1630 al mismo resultado. Es interesante resaltar que durante la Primera Guerra Mundial (1914–1918) se descubrió accidentalmente que el mayor alcance se logra un poco por encima de 45◦ , según escribe el fı́sico norteamericano Keith R. Symon en Mechanics (Addison–Wesley, 1961). En la parte referente a la segunda ciencia, Galileo describió en los Discorsi sus experimentos con lı́quidos y de resistencia de materiales en los que llegó a determinar la resistencia a la tracción de hilos de cobre, de lo que propuso algunas teorı́as. Según Asimov (op. cit.), Galileo fue el primero en mostrar que, si un cuerpo crece uniformemente en todas las dimensiones lo hace a costa de un adelgazamiento progresivo. Ası́, el volumen aumenta al cubo, pero la resistencia aumenta apenas al cuadrado. Debido a esta ley, después conocida como “ley del cubo–cuadrado”, los animales de gran tamaño necesitan patas proporcionalmente más robustas que las de pequeña alzada. También en esa Segunda Ciencia, Galileo estudió la adhesión y adherencia de los cuerpos y la semejanza fı́sica entre ellos. Con todo, no llegó a ninguna relación entre la tracción ejercida y el alargamiento resultante, relación obtenida por el fı́sico inglés Robert Hooke (1635–1703) en 1678 y conocida como ley de Hooke. Creemos oportuno concluir esta sección acerca del trabajo de Galileo precisando que, a pesar de su Curiosidades de la fı́sica, XII. José Marı́a Filardo Bassalo 31 aspecto revolucionario, principalmente en su intento de reformular la fı́sica aristotélica, tiene momentos de actitud reaccionaria. Mencionemos, por ejemplo, su afirmación de que los cometas eran ilusiones atmosféricas, contradiciendo las observaciones de su propio telescopio, usado, además, para refutar las afirmaciones de Aristóteles. Otra una de sus actitudes reaccionarias, quizá la mayor, fue ignorar los trabajos del astrónomo alemán Johannes Kepler (1571– 1630), principalmente la forma elı́ptica de las órbitas planetarias que éste propuso en A Nova Astronomia (1609); Galileo sólo concebı́a el movimiento de los cuerpos celestes en términos de cı́rculos y epiciclos. la desviación de aquellas leyes ocurre un significativo aumento de las fuerzas moleculares. En sus experimentos, Corwin y de Boer usaron un equipo conocido como nanotractor.9 No es de extrañar que Galileo considerara al modelo de Copérnico, que tan arduamente defendió, constituido de cı́rculos y epiciclos ¡como lo era el modelo de Ptolomeo! 4. La fuerza de fricción es independiente de la velocidad, una vez iniciado el movimiento. Fricción Según cuenta el fı́sico norteamericano Frederick Palmer (1787–1967) en su artı́culo intitulado “Fricción”6 fue el artista, inventor y cientı́fico italiano Leonardo da Vinci (1452–1591) quien comenzó a realizar experimentos para estudiar la fricción alrededor de 1500. Sus resultados se encuentran en el Codex Atlanticus, una colección de los escritos de da Vinci organizada por el escultor italiano Pompeo Leoni (1533–1608) y pueden ser resumidos en las siguientes leyes: 1. La fricción provocada por el mismo peso tendrá la misma resistencia, al inicio del movimiento, aunque las áreas de contacto sean diferentes. 2. La fricción provoca el doble de esfuerzo si se duplica el peso. 3. La fricción depende de la naturaleza de los materiales en contacto. Nótese que da Vinci llegó a encontrar el valor de 1/4 para el coeficiente de fricción.7 Esas leyes fueron redescubiertas en 1699 por el fı́sico francés Guillaume Amontons (1663–1705). Es oportuno mencionar que, en 2004, A. D. Corwin y Maarten de Boer8 confirmaron las leyes de da Vinci–Amontons para fuerzas normales en el intervalo 1×10−3 mN−50×10−6 µN donde 1 N (newton) = 1 kg m s−2 . Debajo del valor mı́nimo del intervalo referido, estos fı́sicos observaron que 6 Scientific American, p.55, feb.1951. Truesdell. Essays in the History of Mechanics, Springer–Verlag, 1968. 8 Applied Physic Letters 84, p.2451. En el siglo XVIII, un nuevo resultado en las leyes de fricción fue obtenido por el fı́sico francés Charles Augustin Coulomb (1736–1806). En efecto, en 1781, presentó a la Academia Francesa de Ciencias una memoria intitulada Théorie des Machines Simples, donde describe sus experimentos sobre la fricción y donde confirma las tres leyes de da Vinci– Amontons; también presentó lo que hoy se conoce como la cuarta ley de la fricción: De este modo mostró que habı́a una diferencia entre la fricción estática y la fricción dinámica. Hoy esas leyes son resumidas en el siguiente conjunto de ecuaciones: Fi = µe N, Fe ≤ µe N, Fd ≤ µd N, Fe 6= Fd , µe > µd , donde Fi representa la fuerza inicial necesaria para vencer las uniones moleculares (“soldaduras”) estre las superficies de contacto; Fe y Fd representa, respectivamente, las fuerzas de fricción estática y dinámica; µe y µd significan, respectivamente, los coeficientes de fricción estático y dinámico, que dependen del tipo de material en contacto (hierro– hierro, hierro–madera, madera–madera, etc.); y N es la reacción normal entre las superficies en contacto y se calcula mediante la ley de acción–reacción formulada por Newton en 1687. Nótese que, en el trabajo referido, Coulomb también formuló el concepto de fuerza de torsión al estudiar la torsión en alambres; concluyó que esa fuerza depende de la longitud y del diámetro del alambre. Uno de los primeros estudios acerca del origen microscópico de la fricción fue presentado en 1929 por el fı́sico inglés G. A. Tomlinson10 al afirmar que los fonones son los responsables de los mecanismos de 7 C. 9 J. Krim, www.nanotechweb.org Magazine 7, p.905. 10 Philosophical 32 fricción.11 Una de las primeras medidas de la fuerza de fricción en escala nanométrica (10−9 N) fue realizada en 1987 por los fı́sicos norteamericanos C. Mathew Mate, Gary M. McClelland, Ragnar Erlandsson y Shirley Chiang12 mediante un instrumento que ellos inventaron: el microscopio de fuerza atómica. En ese experimento observaron que la fuerza de fricción que actúa en un alambre de tungsteno cuya punta se desliza sobre una superficie plana de grafito no dependı́a de la carga normal aplicada (< 10−4 N). Observaron, además, que para el intervalo de velocidad comprendido entre 40 y 4 angstroms/s la fuerza de fricción presentaba poca dependencia de la velocidad. En la segunda mitad de la década de 1980, fue objeto de estudio la fricción a nivel atómico por parte de la fı́sica norteamericana Jacqueline Krim mientras trabajaba en la Northeastern University de Boston, U.S.A. En 1991, Krim y sus colaboradores D. H. Solina y R. Chiarello13 descubrieron que las pelı́culas de kriptón (36 Kr) deslizándose sobre superficies cristalinas de oro (79 Au) eran más resbaladizas cuando estaban secas. Descubrieron además que la fuerza de fricción para las pelı́culas lı́quidas era cinco veces mayor que para las sólidas y confirmaron los mecanismos fonónicos de fricción. En sus experimentos Krim y colaboradores usaron una microbalanza de cuarzo. Es oportuno anotar que, en ese artı́culo, apareció por primera ocación el término nanotribologı́a para el estudio de la fricción en nanoescala. En 1996 Krim14 analizó los experimentos realizados en los últimos años en nanotribologı́a para concluir que las leyes macroscópicas de fricción de da Vinci–Amontons–Coulomb no eran válidas en la escala atómica. En ésta, valen las siguientes leyes: 1. La fuerza de fricción es proporcional al grado de irreversibilidad (facilidad de adherencia) de la fuerza que comprime dos superficies, en vez de la simple magnitud de la fuerza. 2. La fuerza de fricción es proporcional al área de contacto real en lugar de la aparente. 3. La fuerza de fricción es proporcional a la velocidad de deslizamiento de las superficies en contacto. 11 Nótese que el fonón es el quantum de energı́a de vibración de una red cristalina. 12 Physical Review Letters 59, p.1492. 13 Physical Review Letters 66, p.181. 14 Langmuir 12, p.4564, September; Scientific American 275, p.74, October. ContactoS 75, 27–35 (2010) Concluimos esta sección recomendando la página www.nanotechweb.org donde el lector hallará información novedosa acerca de este tema y los artı́culos de Krim de 2005.15 Onnes y el descubrimiento de la superconductividad El fı́sico holandés Heike Karmelingh–Onnes (1853– 1926) nació en la ciudad de Groningen, Holanda. En 1870 entró a la Universidad de Groningen y, al año siguiente, ganó la medalla de oro con un trabajo sobre densidad de vapor en un concurso promovido por la Facultad de Ciencias Naturales de la Universidad de Utrecht. En 1872 participó en un acto similar de la Universidad de su ciudad natal, en el que ganó la medalla de plata. Entre 1871 y 1873 fue estudiante del quı́mico alemán Robert Wilhelm Bunsen (1811–1899) y del fı́sico alemán Gustav Robert Kirchoff (1824–1887) en la Universidad de Heidelberg. En 1879 se doctoró (magna cum laude) en la Universidad de Groningen con la tesis Nieuwe bewijzen voor de aswenteling der aarde (“Una nueva prueba de la rotación de la Tierra”). En 1882, fue nombrado profesor de fı́sica experimental y meteorologı́a en la Universidad de Leiden donde, en 1894, reestructuró el Laboratorio de bajas temperaturas (criogenia) que hoy lleva su nombre. En este laboratorio desarrolló sus investigaciones sobre la Teorı́a Cinética de los Gases Reales (TCGR) desarrollada por su compatriota, el fı́sico Johannes Diederick van der Waals (1837–1932, premio nobel de fı́sica en 1910), en 1873 y 1881. Esta TCGR es hoy sintetizada en la famosa ecuación de van der Waals: a P + 2 (V − b) = RT V donde la constante a resulta de la colisión entre las moléculas (presión interna), la constante b es el covolumen, esto es, el volumen propio de las moléculas, P , V y T representan, respectivamente, la presión, el volumen y la temperatura absoluta del gas, y R es la constante universal de los gases. Según narra el fı́sico norteamericano Robert L. Weber16 (n.1913) en la conferencia inaugural en la Universidad de Leiden (11 de noviembre de 1881), Onnes usó un aforismo que lo caracterizó durante to15 Physics World 18, p.31. of Science: Nobel Prize Winners in Physics (The Institute of Physicas, 1980). 16 Pioneers Curiosidades de la fı́sica, XII. José Marı́a Filardo Bassalo 33 presión: 1 − 2 *N X i F~i r~i d~ ri + donde F~i es la fuerza que actúa sobre la i-ésima molécula (de energı́a cinética media εi ) definida por el vector r~i y h. . .i representa el valor medio de la expresión contenida en su interior. Cuando la expresión anterior se iguala a la energı́a cinética total * n + X εi i de las N moléculas, se obtiene el famoso Teorema del virial. Kamerlingh Onnes (sentado) y van der Waals. da su vida: Door meten tot weten (“Conocimiento a través de la medida”).17 Con el objetivo de realizar medidas más precisas a bajas temperaturas, Onnes estudió los trabajos de van der Waals. Ası́, en 1901,18 propuso la siguiente ecuación de estado de los gases reales: B C D E F PV =1+ + 2 + 4 + 6 + 8 RT V V V V V donde B, C, D, E, F fueron llamados coeficientes viriales y dependen de T de acuerdo a: T = b1 + b2 b3 b4 b5 + 2+ 4+ 6 T T T T con expresiones semejantes para las demás constantes. A partir de esa ecuación, Onnes obtuvo algunos resultados para gases reales. Con todo, quedaba un serio problema, la descripción teórica de aquellos coeficientes. Es oportuno recordar que el virial fue definido por el fı́sico alemán Rudolf Julius Emmanuel Clausius (1822–1888) en 1870,19 con la ex17 Más detalles sobre la vida de Onnes en: Dictionary of Scientific Biography de J. van den Handel (Charles Scribner’s Sons, 1981). 18 Communications from the Physical Laboratory at University of Leiden 74. 19 Annalen der Physis 141, p.124. Pero, regresemos al trabajo de Onnes. Durante la temporada que trabajó en su Laboratorio de Criogenia, el único de los gases permanentes que no habı́a sido licuado era el helio (He), de aquı́ el interés de Onnes para transformarlo en lı́quido.20 A fin de obtener helio lı́quido, Onnes realizó una serie de experimentos para la medición de bajas temperaturas en 1904,21 por la celebración de los 329 años de la fundación de la universidad de Leiden, cuando Onnes ya era su rector. En 190622 Onnes anunció que habı́a obtenido hidrógeno lı́quido a la temperatura de 20.4 K (−252.7 ◦ C). A pesar de esos logros el principal objetivo de Onnes, la licuefacción del helio, presentaba grandes dificultades pues era necesario enfriarlo y después expandirlo para que, de acuerdo con el efecto Joule– Thomson (1862), la expansión libre disminuyera su temperatura. Con la colaboración de un maestro artesano, el holandés Gerrit Jan Flim (1875–1970) y del jefe de sopladores de vidrio, el holandés Oskar Kesselring, Onnes consiguió licuefacer al helio al cubrir el frasco que contenı́a al helio con otro conteniendo hidrógeno lı́quido, rodeado, a su vez, por otro frasco conteniendo aire lı́quido. Al medir la temperatura del helio lı́quido, observó que era 4.2 K (−268.9 ◦ C). Esto ocurrió el 10 de julio de 1908.23 20 Otros gases, oxı́geno,nitrógeno, monóxido de carbono, ya habı́an sido licuados por los cientı́ficos polacos Zygmunt Florent Wroblewski (1845–1888) y Karol Stanislaw Olszewski (1846–1915) en 1883. El hidrógeno fue licuado en 1898 por el inglés James Dewar (1842–1923), inventor del termo. 21 Communications from the Physical Laboratory at University of Leiden, Supplement 9. 22 Communications from the Physical Laboratory at University of Leiden, Supplement 94. 23 Communications from the Physical Laboratory at University of Leiden 108. 34 Esta técnica, método de cascada, permitió obtener las temperaturas más bajas jamás conseguidas. Onnes sugirió que su alumno, el fı́sico holandés Gilles Holst (1886–1968), juntamente con Flim, midiesen la temperatura de un cilindro congelado de mercurio puro. Al realizar el experimento observaron que, cuanto la temperatura llegaba a 4.2 K, la resistencia eléctrica del mercurio caı́a bruscamente a 10−5 ohms. En un principio Onnes no daba crédito a lo que ocurrió, por lo que repitió varias veces el experimento hasta convencerse de la certidumbre de los resultados. Ası́, en 1911,24 propuso el nombre supraconductividad al fenómeno hoy conocido como superconductividad. Gracias a este descubrimiento, Onnes recibió el premio nobel de fı́sica de 1913. En 1913,25 Onnes presentó el resultado de un experimento en el que la corriente eléctrica deshacı́a el estado superconductor del mercurio. En 1916,26 F. B. Silsbee observó que la ruptura del estado superconductor se debı́a al campo magnético asociado a la corriente eléctrica y no a ésta. Es interesante registrar que, además de sus investigaciones en superconductividad, Onnes investigó las bajas temperaturas relacionadas con otro sorprendente fenómeno fı́sico, explicado mucho después de su muerte. Se trata de la superfluidez. En efecto, en 1911, Onnes notó que la densidad del helio lı́quido (más tarde conocido como He II) obtenı́a un valor máximo a la temperatura aproximada de 2.19 K. En 1924, ese lı́quido lo sorprendió nuevamente pues su calor especı́fico crecı́a anómalamente cuando la temperatura se aproximaba a 2.19 K. Antes, en 1922,27 habı́a notado que los niveles de helio lı́quido colocado en dos vasos Dewar concéntricos alcanzaban la misma altura, efecto que atribuyó a la destilación de uno en otro. Estos extraños comportamientos del helio lı́quido sólo fueron explicados con el descubrimiento de la superfluidez. Ello ocurrió en 1938 con los experimentos de los fı́sicos, el ruso Pyotr Leonidovich Kapitza (1894–1984, premio nobel de fı́sica en 1978) y los canadenses John Frank Allen (1908–2001) y Austin Donald Misener (1911–1996). 24 Communications from the Physical Laboratory at University of Leiden 122B y 124C. 25 Communications from the Physical Laboratory at University of Leiden 34B, p.55. 26 Journal of the Washington Academy of Sciences 6, p.597. 27 Communications from the Physical Laboratory at University of Leiden 159. ContactoS 75, 27–35 (2010) Además de su calidad cientı́fica, Onnes era conocido por su diplomacia en el trato con las personas, si bien exigı́a a sus colaboradores que trabajasen al extremo máximo de sus posibilidades. Con todo, era muy apreciado por sus ayudantes. El fı́sico holandés Karl Mendelssohn narra28 que durante el funeral de Onnes, ocurrida el 21 de febrero de 1926, el cortejo siguió el camino de la iglesia al cementerio. Como hubo un retraso a la salida de la iglesia, el cortejo debió apurar el paso para llegar a tiempo al cementerio. Flim y Kesselring, parte del cortejo del maestro comentaron: Muy propio del viejo. ¡Incluso ahora nos obliga a correr! Berti, Torricelli y la medición de la presión atmosférica Ya las antiguas civilizaciones conocı́an las bombas aspirantes y con ellas conseguı́an elevar el agua sólo hasta determinada altura. En el siglo XVII era sabido que esa altura no superaba a los 10 metros aproximadamente. El apotegma aristotélico: La naturaleza tiene horror al vacı́o era empleado por los filósofos de la antigüedad para explicar la elevación del agua. Afirmaban que, como no podı́a haber vacı́o entre el émbolo de la bomba y la columna de agua, ésta siempre seguı́a al émbolo. Sin embargo, no podı́an explicar porqué la columna no podı́a llegar a cualquier altura. Acerca de la dificultad de elevar la columna de agua a cualquier altura existe el siguiente hecho. Alrededor de 1630, un jardinero construyó una bomba aspirante para los jardines del Gran Duque Ferdinando II de Toscana (1610–1670), en Florencia, Italia, esa bomba pretendı́a elevar el agua más allá de los 10 metros. Sin embargo, por más que el jardinero se esforzaba en lograr la altura deseada sólo llegaba a 18 brazas, esto es, unos 10.33 metros; el agua dejaba de seguir al émbolo formando vacı́o, algo inaceptable para los aristotélicos. Cuando el Gran Duque se dirigió al fı́sico, matemático y astrónomo italiano Galileo Galilei (1564–1642) para resolver el problema, éste respondió que “La naturaleza tiene horror al vacı́o, pero sólo hasta cierto lı́mite”. Una respuesta semejante dió al fı́sico italiano Giovanni Battista Baliani (1582–1666) quien le escribió de Génova en 1630 relatándole la siguiente experiencia: intentaba, sin éxito, extraer agua de un depósito pasando por lo alto de una colina de unos 28 Em Demanda do Zero Absoluto (Editorial Inova, 1968). Curiosidades de la fı́sica, XII. José Marı́a Filardo Bassalo 21 metros de altura con un sifón. El agua sólo llegaba a unos 10 metros cuanto el tubo sifón era destapado. En su carta, Galileo decı́a que la ruptura de la masa de agua se debı́a a que era incapaz de soportar ese esfuerzo lı́mite. Lo mismo, afirmaba, debı́a ocurrir con otros lı́quidos. Conforme veremos más adelante, la solución de esta cuestión está ligada con el “peso del aire”. Al parecer Galileo no llegó a esta solución pues, desde 1612, cuando escribió Discorso intorno alle cose que stanno in su l’acqua (Discurso acerca de las cosas que están bajo el agua) sostenı́a que el aire no tenı́a peso. Con todo, en 1614, el fı́sico holandés Isaac Beeckman (1588–1637) afirmó que “el aire es pesado y nos presiona por todos lados de una manera uniforme”, Galileo29 en 1615 afirmó “todo el aire, en sı́ mismo y encima del agua, nada pesa. . . Que nadie se sorprenda porque todo el aire no tiene absolutamente ningún peso, porque es como agua”. Uno de los primeros experimentos realizados para explicar el problema descrito fue el de Gasparo Berti (c.1600–1643). En 1639, inspirado por el libro Discorsi e Dimostrazioni Mathematiche intorno a Due Nuove Scienze Attenenti alla Meccanica e Movimenti Locali de Galileo (1638) Berti construyó un tubo de plomo de 11 metros de largo, sumergido en agua, que terminaba en una larga porción de vidrio, lo fijó en la fachada de su casa en Roma. Con ese dispositivo verificó que el agua en el tubo permanecı́a equilibrada aproximadamente a los 10 metros de altura; además observó que el agua en el tubo comenzaba a burbujear pues el aire disuelto en el agua escapaba formando burbujas. Las observaciones eran bastante comprometedoras para los partidarios de la existencia del vacı́o, como el propio Berti, mientras que para los aristotélicos eran prueba de la imposibilidad del vacı́o. En el experimento anterior colaboraron tres amigos italianos: Athanasius Kircher, Raffaello Magiotti y Niccoló Zucchi. Otros dos amigos de Berti, los italianos Emmanuel Maignan y Evangelista Torricelli (1608–1647), discı́pulo de Galileo, no presenciaron el experimento. Según Rhotman, fue Magiotti quien puso al tanto a Torricelli de ese experimento, según se deduce de una carta que escribió en 1648 para el padre franciscano Marin Mersenne (1588–1648) que vivı́a en Parı́s. En esa carta, Magiotti afirma29 Tony Rhotman Tudo é Relativo e Outras Fábulas da Ciência e da Tecnologia (Difel, 2005). 35 ba “nosotros (sin duda él mismo y Torricelli) realizamos ya muchos experimentos con mercurio”. Una vez más, según Rhotman, el noble florentino Carlo Roberto Dati (1619–1676), alumno de Galileo y de Torricelli, fue quien primero relató “el experimento de Torricelli” en las cartas que escribió a Michelangelo Ricci con el pseudónimo de Torricelli. A pesar de lo descrito arriba, la gran mayorı́a de los libros que tratan del experimento de Torricelli para medir la presión atmosférica (1643), afirman que él la descubrió. En efecto, en 1643, este discı́pulo de Galileo y de Benedetto Castelli (1577–1644) tomó un tubo de vidrio de cerca de cuatro pies de largo con un extremo cerrado, lo llenó de mercurio y sumergió la parte abierta en una cuba con mercurio; observó que el nivel de mercurio descendı́a a unos 76 centı́metros. Para explicar ese hecho, Torricelli afirmó que la columna se mantenı́a por el “peso del aire” que presionaba al mercurio en la cuba; también observó que la altura de la columna de mercurio variaba diariamente.30 Sin embargo, el experimento fue realizado sólo después de haber recibido la información de Magiotti acerca de las investigaciones de Berti. Añadamos que, según Rothman, Torricelli sugirió a Vincenzo Viviani (1622–1703), discı́pulo de Galileo, algunos experimentos que el mismo Torricelli nunca realizó. Concluyamos esta sección resaltando que la presión atmosférica se define como la presión (fuerza/área) resultante del peso de la capa atmosférica sobre la superficie de la Tierra. Esta presión, al nivel del mar, representada por P0 tiene el siguiente valor en el SI (Sistema Internacional de Unidades): P0 = 101, 325 pascales (Pa) = 101, 325 N/m 2 que corresponde a la presión ejercida por una columna de mercurio de 760 mm. Esta unidad de presión también es conocida como 1 atmósfera ó 760 torr. cs 30 José Ma. Filardo Bassalo Nascimentos da Fı́sica: 3500 a.C.–1900 a.D. (EDUFPA, 1996). De viandas y brebajes Ensaladas Escancio “Kansho” Almazara La ensalada suele considerarse como un elemento secundario de la comida, como si fuera un platillo de menor importancia. La excepción a este punto de vista la tienen, por supuesto, quienes llevan una dieta vegetariana o especial, ya que para ellos es apreciada como un platillo básico. Al respecto, se supone que para nuestras costumbres occidentales una comida completa o un banquete debe estar compuesto de cuatro o cinco “tiempos”, lo cual es consecuencia de la fuerte influencia culinaria europea, ya que en muchos paı́ses orientales todos los platillos se sirven en forma simultánea. Aunque no hay nada oficial ni definitivo sobre el particular, los tiempos de una comida occidental pueden ser los siguientes: Entremeses, Entrada, Sopa, Ensalada, Pasta, Plato de Fondo, Quesos y Postre, pero no existe una norma precisa para ofrecerlos en la mesa y muy rara vez se utilizan todos. Sin embargo, vale la pena ahondar en el tema con una breve descripción de ellos. embargo, la sopa también puede ser aguada o seca, y las tradicionales son de arroz y pastas. Continuando con el siguiente tiempo, se considera como Ensalada a un platillo normalmente frı́o compuesto de verduras casi siempre crudas que se aderezan tı́picamente con aceite, vinagre y sal. También puede sazonarse con diferentes salsas y estar elaborado con variados ingredientes como quesos, carnes, pescados y otros alimentos. El siguiente tiempo, la Pasta, es tı́pica aunque no única de la cocina italiana, por lo que en ocasiones se sirve como un platillo previo al principal o puede ser una buena guarnición o convertirse en el propio Plato de Fondo. Este último acostumbra ser el objeto principal de la comida, por lo que en ocasiones se sirve como plato único acompañado de alguna guarnición, una ensalada o simplemente de pasta. Por último, los Quesos de sabor suave acompañados quizá por frutas y el Postre, usualmente dulce, deben ser platillos pequeños con los cuales se concluye el festı́n. Por último, hay que recordar que cada tiempo debe acompañarse con bebidas refrescantes o alcohólicas, ya sean frı́as o calientes, sobre las que habrá que profundizar más adelante. Los Entremeses son básicamente una mezcla de verduras crudas que se untan en diversas salsas y otros comestibles sencillos los que sirven como acompañamiento de una copa de aperitivo, costumbre que es clásica en bares y cantinas de nuestro paı́s, aunque éstos pueden tener una infinidad de variaciones.1 Por Entrada se entiende un primer plato ligero un poco más elaborado que el anterior, normalmente frı́o, aunque también hay versiones calientes, el que puede estar compuesto de frutas o mariscos en cóctel, carnes frı́as y quesos o vegetales asados y sazonados que se acompañan de diversas salsas. Las Sopas, por su parte, son de una enorme variedad ya que en su preparación se utiliza toda clase de vegetales, carnes, pastas, granos, frutas y especias en preparaciones normalmente caldosas, si bien cuando son algo espesas se les llama cremas, que la mayor parte de las veces se sirven calientes, aunque también pueden ser frı́as. En nuestro paı́s, sin El origen de la ensalada se pierde en el tiempo, ya que se remonta a las más antiguas civilizaciones en las cuales se consumı́an diversas legumbres tanto cocidas como crudas pero sazonadas con aceite, vinagre y sal. Al parecer de ahı́ proviene su nombre: en–salada, ya que los expertos aseguran que se deriva del latı́n vulgar salata—salada.2 En general, se consumı́an lechugas, cebollas y diversos granos cocidos como lentejas y habas. Sin embargo, de acuerdo con algunos autores, la ensalada no entró de lleno en la dieta habitual occidental sino hasta que inició el siglo XX, ocasión en la que se convierte en un platillo muy elaborado que ha ido adquiriendo notoriedad a causa de las dietas modernas, del “salad bar”, y de la popularidad que alcanza la actualmente llama- 1 Escancio “Kansho” Almazara. “De viandas y brebajes. Botanas”, Contactos No. 59, Págs. 35–37 (2006). 2 The American Heritage Dictionary of the English Language, 4a. Edición, Houghton Mifflin Co. (2006). 36 Ensaladas. Escancio “Kansho” Almazara. 37 da “alimentación saludable”. En México, por el contrario, las ensaladas y las salsas han sido parte de la comida tradicional al menos desde el siglo XVI, como lo atestiguan diversos cronistas. Ensalada Caprese. Ensalada tailandesa. Ensaladas famosas Algunas ensaladas han llegado a ser muy famosas y conocidas ampliamente, como la Ensalada César, la Ensalada Waldorf, la Ensalada Rusa, la Ensalada Cobb y la Ensalada Noche Buena, sobre las cuales ahondaremos un poco. Aunque es fácil suponer que la Ensalada César debe su nombre al emperador romano homónimo, la verdad es que su creación es moderna ya que las versiones más convincentes sobre su origen la sitúan a principios del siglo XX en el Hotel Cesar Palace de Tijuana. La paternidad se atribuye al chef Alessandro Cardini quien supuestamente usó el nombre de su hermano César para denominarla, aunque otros dicen que fue el propio César quien la creó cuando el hotel sufrı́a de escasez de provisiones y no podı́a ofrecer otros platos más elaborados. Una de las caracterı́sticas relevantes de esta ensalada es que se acostumbra prepararla en presencia de los comensales en un platón de madera, lo que le agrega un toque ceremonial a la comida. En cuanto a sus ingredientes, éstos suelen depender de quién la prepare, pero habitualmente lleva una mezcla de lechugas, las que se sazonan con una salsa ligera confeccionada con anchoas, huevos tibios o crudos, ajo, mostaza, salsa inglesa, jugo de limón, aceite de oliva, sal y pimienta. La preparación se corona con queso parmesano rallado y croutones (trozos de pan tostado y ligeramente frito). Por su parte, la versión más difundida dice que la Ensalada Waldorf fue creada en el hotel predecesor del actual Waldorf–Astoria de Nueva York, a fines del siglo XIX, por el maı̂tre d’hôtel Oscar Tschirky, ya que este lugar se asegura que también creó otros platillos famosos, como los huevos benedictinos y la ternera Oscar. En las preparaciones más conocidas esta ensalada se elabora con manzanas y peras cortadas en láminas finas o en cubitos, apio blanco rallado o picado, nueces peladas y picadas, jugo de limón y perejil picado. Sobre estos ingredientes mezclados (aunque hay versiones en las que se incluye pollo, mostaza, pasas y piñones), se vierte una salsa hecha con mayonesa o miel, ralladura de limón y nata. Normalmente se sirve frı́a y procurando que la salsa quede jugosa para que la mezcla de los sabores le proporcione su habitual sazón. El origen más aceptado de la Ensalada Rusa, también conocida como Ensalada Olivier, se sitúa a fines del siglo XIX en el restaurante Hermitage de Moscú. Se atribuye su creación al chef francés Lucien Olivier, quien se dice mantuvo en secreto hasta su muerte los ingredientes que utilizaba, por lo que actualmente se encuentran muchas versiones de esta conocida ensalada. Una de las más difundidas consta de variados vegetales cocidos, salteados, crudos y en conserva; diversas carnes de pollo, perdiz, lengua de vaca, cerdo y jamón; mariscos como camarones, carne de cangrejo y langostinos, ası́ como salmón ahumado y caviar. Los ingredientes más grandes se pican en pequeños cubos y para que se adhieran entre sı́ se mezclan con una salsa de mayonesa adicionada de mostaza, vodka, salsa tipo inglesa y un toque de picante. Algunos autores aseguran que los ingredientes originales de la ensalada incluı́an carne curada de oso, pato ahumado, urogallo asado y trufas, algo muy diferente de las versiones modernas. La historia cuenta que la Ensalada Cobb fue creada casi por casualidad en 1937 por Robert H. Cobb, dueño del restaurante “The Brown Derby” en Hollywood. La leyenda agrega que reunió diferentes in- 38 La Ensalada de Navidad es muy popular en México por razones muy obvias ya que se sirve en las cenas de fin de año, temporada en la cual suele acompañar otros platillos de celebración como el bacalao a la vizcaı́na, los romeritos y los buñuelos. También de ella existe gran diversidad de preparaciones, siendo una de las más conocidas la que consta de zanahorias y betabeles cocidos, jı́cama y lechuga como ingredientes principales. Además, puede llevar pasas, caña, almendras y cacahuates, todo aderezado al momento de servir con una salsa de ajo, pimienta, aceite, vinagre, jugo de naranja y una pizca de azúcar, y puede completarse finalmente con manzana, naranja, perón, plátano, rábanos, chiles y aceitunas. Muchas de estas versiones han sido publicadas desde el siglo XIX en distintos recetarios por varios autores, por lo que actualmente es difı́cil saber cuál fue la receta original que dio lugar a este platillo y porque, además, cada quién la prepara según su gusto o con los ingredientes que tenga disponibles. También en nuestro paı́s es tı́pica la Ensalada de Nopalitos, hecha con nopales, cebolla, queso fresco, tomates, aguacate, chiles jalapeños y cilantro. Otras que es común encontrar son la Ensalada de Coditos elaborada con pasta frı́a, jamón y una salsa a base de crema; la Ensalada a la Mexicana, de tomate y cebolla principalmente; y la Ensalada del Chef, preparada en muy diversas formas aunque a base de lechuga, pepinos, aguacate, tomate, jamón de pavo, queso chihuahua, aceitunas, anchoas, pollo y huevo cocido con aderezo al gusto. Por su parte, Italia nos regala con la Ensalada Caprese, a base de rebanadas de tomate y queso mozarella, con hojas grandes de albahaca condimentadas con aceite de oliva, sal y pimienta. En Estados Unidos son tradicionales (entre otras) las de col, como la Coleslaw (del holandés koolsla por kool, col y sla, apócope de ensalada), hecha con col blanca, zanahoria, piña o manzana picadas y aliñadas con una salsa a base de mayonesa, mostaza y ajo. De Grecia nos llega obviamente la Ensalada Griega a base de tomate, pepino, cebolla, aceitunas negras y queso feta todo cortado en dados y aderezado con aceite de oliva, vinagre y sal. En Francia es tı́pica la Ensalada Nicosia (salade niçoise) hecha a partir de crudités (verduras frescas), alcaparras, huevo duro, anchoas y atún, todo regado con aceite de oliva. Y del Norte de Africa proviene el Tabule (del árabe tabbula) ensalada frı́a de cous–cous, tomate, pepino y cebolla picados, aderezada con sal, hierbabuena, aceite y limón. Ensalada griega. Menos conocidas son la Pipirrana de España (cebolla, tomate, pimiento verde y pepino, con huevo cocido e incluso pescado y embutidos); la Çoban Salatası 3 (ensalada del pastor) o Ensalada Choban de la cocina turca (tomates, pepinos, cebollas, pimientos verdes y cilantro); la Ensalada Shopska de Bulgaria (tomates, pepino, cebolla, pimiento y queso feta); el Gado—Gado de Indonesia (diversas verduras tı́picas con tofu, huevo y fideos, aliñadas con una salsa de cacahuates, ajo, azúcar de coco y de palma, salsa picante, jugo de lima, salsa de pescado y de soya); el Som Tam, Tam Som o Tam Mak Hung4 de Laos (del laosiano som–ácido, tam-machacado y mak hung-papaya), es una ensalada especiada cuyo principal ingrediente es la papaya verde laosiana, pe3 La letra ı pertenece al alfabeto turco que en 1928 reemplazó la grafı́a árabe por un alfabeto latino modificado que consta de 29 letras, 8 vocales y 21 consonantes. Esta letra es una vocal distinta de la “i” latina, aunque sólo le falta el punto, ya que su pronunciación es diferente y un poco difı́cil para quienes no hablan el turco. Corresponde a una letra entre i y e, cuyo sı́mbolo fonético es [ ]. 4 Escancio “Kansho” Almazara. “De viandas y brebajes. La cocina de Laos”, Contactos No. 71, pp. 57–60 (2009). m gredientes un poco al azar a los que añadió un aderezo clásico. Del experimento resultó esta ensalada, la que se prepara originalmente con corazones y hojas de lechuga, berros, achicorias, tomates, aguacate, pollo, huevo duro, cebollines, tocino y queso Roquefort. Adicionalmente, el aderezo especial se elabora a base de vinagre de vino tinto, ajo, azúcar, jugo de limón, aceite de oliva y de maı́z, salsa inglesa, mostaza, sal y pimienta negra. La preparación de la ensalada es simple y sólo requiere cortar los ingredientes en pequeños cuadros para presentarlos separados en un platón para después sazonarlos con la salsa. ContactoS 75, 36–39 (2010) Ensaladas. Escancio “Kansho” Almazara. ro lleva tomate, col, chile, ajo y se aliña con salsa de pescado y jugo de lima; en Alemania se entiende por Wurstsalat (wurst-embutido y salat-ensalada) un tipo de ensaladas hechas a partir de salchichas que pueden llevar pepinos, cebollas, quesos, pepinillos, arenque, salami, hierbas, aceite, sal y vinagre o mayonesa; y, entre muchas otras, la Kartoffelsalat (ensalada de papa) también de la cocina alemana, que tampoco tiene una única receta ya que además de papas cocidas puede llevar cebolla, tocino, pepino, manzanas, carne, arenque, salchicha y huevo aliñada con vinagreta o mayonesa. Por último, hay que decir que el aliño de todas estas ensaladas consiste generalmente en una salsa tipo mayonesa o en una emulsión de aceite y vinagre (la popular vinagreta) que puede llevar jugo de limón y sal, entre otros ingredientes. Sin embargo, actualmente es posible comprar en cualquier supermercado una gran variedad de aderezos industrializados que facilitan mucho la cocina, como las salsas “mil islas”, “ranchera” y “barbacoa”, entre otras, pero no siempre son la solución óptima para la calidad de la gastronomı́a. La receta fácil Aunque la primera ensalada que presento en esta ocasión requiere un poquito de trabajo, es en realidad fácil de hacer, pero puede dificultarse por los ingredientes ya que algunos de ellos son de temporada. Su origen es árabe, ya que es muy apropiada para los climas cálidos. Esta versión, sin embargo, ha sido modernizada para utilizar otros ingredientes. En cuanto a la segunda, que fue creada hace algunos años con el propósito de complementar una comida especial con mi familia, se basa en mezclar pequeños ingredientes, fundamentalmente vegetales, para lograr el aspecto de una mini ensalada. Ensalada tropical Ingredientes: Para la salsa: 2 dientes de ajo. 1 cucharadita de consomé en polvo. 1 cucharada de mostaza para untar. 1/4 de taza de miel de abeja. 1/2 litro de jugo de naranja. 2 cucharadas de vinagre (opcional). 1/2 taza de aceite de oliva. 39 Para la ensalada: Camarones grandes frescos y pelados. Endivia rebanada gruesa. Col morada rebanada gruesa. Papaya Maradol o hawahiana en trozos. Kiwi verde en rebanadas. Kiwi dorado en rebanadas. Espárragos blancos grandes cocidos o en lata, escurridos. Mostaza de Dijón en grano. Pimiento morrón triturado. Preparación: Licuar todos los ingredientes de la salsa y posteriormente agregar una cucharada de mostaza de Dijón en grano. Freı́r los camarones en el aceite de oliva y el pimiento morrón. Si son grandes, crudos y enteros, resulta muy elegante cocerlos previamente, quitarles la cabeza y pelarlos con cuidado, exceptuando el extremo de la cola para que sea más fácil tomarlos con la mano. Acomodar la papaya y los kiwis en rebanadas, sobre la lechuga y la col, para culminar el plato con los camarones y los espárragos enteros. Finalmente cubrir con la salsa. Ensalada Escancio o mini–ensalada Ingredientes: Tomates cóctel. 1 frasco de esparraguitos verdes. 1 frasco de elotitos. 1 frasco de cebollitas de Cambray. 1 frasco de pepinillos pequeños. Queso feta en cuadritos. Aceitunas negras deshuesadas. 1 terrina de paté de pato. 1 lata de angulas. 1 lata de champiñones pequeños (opcional). Preparación: Todos los pequeños ingredientes se disponen sobre una charola o un plato, poniendo en el centro la terrina. El platillo se adorna con las aceitunas, las angulas se esparcen sobre los ingredientes y se sazona abundantemente con el aceite de oliva de la misma lata de angulas. cs Análisis gráfico. Parte I. Escalas lineales y logarı́tmicas. Angel Manzur Guzmán Depto. de Fı́sica* Las gráficas más comunes son las que se obtienen usando un sistema de ejes cartesianos. Es costumbre que el eje de las abscisas (eje X) represente a la variable independiente o la variable controlada y en el eje de las ordenadas (eje Y ) la variable dependiente, aunque en algunos casos podrı́a convenir lo contrario. Se hace referencia a la gráfica como Y en función de X, Y contra X, Y versus X o como Y vs. X. Las cantidades que representan los ejes se escriben, preferentemente, con sı́mbolos seguidos de las unidades entre paréntesis o después de una diagonal. Las escalas se deben escoger de modo que se utilice eficientemente el espacio destinado a la gráfica, y que permitan una lectura fácil de los puntos experimentales; la mı́nima división de la escala debe ser en números sencillos (múltiplo de 2, 5, o 10). Recibido: 03 noviembre 2009. Aceptado: 26 noviembre 2009. Abstract The graphic representation importance of the experimental data is discussed. First, the lineal relations are analyzed when direct graphics are made of data. After, changes of variables are proposed to obtain rects. Finally, the characteristic, parameters are discussed. Resumen Se enfatiza la importancia de representar gráficamente los datos que se obtienen experimentalmente. Primero se analizan relaciones lineales que se obtienen al graficar directamente los valores experimentales. Después se analizan los cambios de variables que deben efectuarse en las relaciones de potencia y relaciones exponenciales con el fin de que al graficar se obtenga una recta. Se determinan los parámetros que caracterizan a la recta para finalmente escribir la relación matemática que cumplen los datos originales. Se recomienda hacer una gráfica preliminar antes de desarmar el dispositivo experimental, ya que cualquier desviación o punto sospechoso (porque queda alejado de la tendencia que los otros puntos siguen en la gráfica) puede ser eliminado o comprobado al repetir las mediciones en las mismas condiciones. Aun en los casos en que se repite varias veces una misma medida, es conveniente graficar la medida contra el número de medidas o contra el tiempo, para detectar posibles variaciones con la temperatura ambiente, presión atmosférica, intensidad de luz, cambio de experimentador, etc.; esto se hace ya que en una gráfica se pueden mostrar claramente las desviaciones sistemáticas alrededor del valor medio. Introducción En el campo de las ciencias experimentales, cada experimento proporciona un conjunto de datos que, para que sea de utilidad, debe ser analizado para obtener la información que se busca. Los datos numéricos que están entre sı́ relacionados se presentan de tal modo que cada par de estos valores pueden tomarse como coordenadas de un punto; el resultado de unir estos puntos mediante una curva es la gráfica (también se llama gráfico). En general, se busca la relación matemática que los datos guardan entre sı́. Una vez que se ha realizado un experimento y se tiene una tabla de datos, se puede hacer una gráfica con ellos, la cual facilitará la interpretación de los resultados. Se grafican los puntos experimentales con su incertidumbre, y se unen con una curva suave (sin discontinuidades) lo más simple posible. Cuando los puntos están dispersos, la curva se traza siguiendo la tendencia de los puntos. Esta curva representa una predicción acerca de posibles valores de la variable dependiente para valores intermedios de la variable independiente que no fueron medidos experimentalmen- * CBI, UAM–I. Apartado Postal 55–534, México, D. F. 09340. e–mail: amg@xanum.uam.mx 40 Análisis gráfico. Parte I. Angel Manzur Guzmán te o, inversamente, se predicen valores de la variable independiente que corresponderı́an a magnitudes de la variable dependiente. Esta predicción en la gráfica, dentro del intervalo de valores medidos experimentalmente, se llama interpolación. Por otra parte, el proceso de prolongar la tendencia de la curva más allá de los puntos experimentales (fuera del intervalo en que se realizó el experimento) se llama extrapolación; es una suposición acerca del comportamiento del fenómeno observado, sugerida por la tendencia de la curva hacia regiones antes o después del intervalo experimental. Una gráfica con los puntos experimentales es de gran utilidad porque con una sola mirada se puede tener rápidamente una visión clara sobre la validez del experimento en cuanto a: 1. el tamaño del intervalo seleccionado de la variable independiente, 2. el número adecuado de puntos experimentales, 3. la distribución de los puntos experimentales 4. la magnitud del error experimental, 5. si la interpolación está o no debidamente justificada, 6. la tendencia que siguen los puntos experimentales, 7. los posibles fenómenos o procesos involucrados en el experimento. A través de la gráfica se pueden comparar los resultados experimentales con las predicciones teóricas, si éstas existen. Además, una gráfica facilita la interpretación de la información relevante proporcionada por el experimento y se puede usar para proponer conclusiones. El objetivo aquı́ es mostrar cómo encontrar la función matemática que relaciona los datos experimentales. Se analizan tres tipos de relaciones matemáticas: lineal, de potencia y exponencial; cada caso se ilustra con un ejemplo. Con el propósito de fijar la atención en la obtención de la función matemática, en estos ejemplos no se toma en cuenta la incertidumbre en los datos experimentales. En las referencias 1-4 se expone bastante información sobre el tema de análisis gráfico. Relaciones lineales En un experimento se miden directamente los valores de algunas cantidades variables y después se determinan otras cantidades a partir de las que fueron medidas directamente. Supóngase un experimento en 41 que interesa determinar la relación entre dos cantidades X y Y (léase equis y ye), cuyos valores experimentales medidos o determinados son x y y, y que son proporcionales. Por ejemplo, la distancia recorrida por un vehı́culo moviéndose en lı́nea recta con velocidad constante es proporcional al tiempo transcurrido. Decir que los valores x y y son proporcionales es equivalente a decir que los puntos (x, y) están sobre una lı́nea recta. Relaciones de la forma y = mx + b Suponiendo que se haya obtenido que los datos experinenta1es (x, y) se encuentren a lo largo de una lı́nea recta, subsiste el problema de encontrar la expresión analı́tica que los relaciona; es decir, la ecuación que satisfacen. En otras palabras, es necesario determinar los valores de los parámetros m y b en la ecuación general de una recta y = mx + b. (1) Al parámetro m se le llama la pendiente de la recta y a b se le llama la ordenada al origen (es el valor de la ordenada cuando x = 0). Si b = 0, entonces la recta pasa por el origen. Si m = 0, entonces y no depende de x y la recta es paralela al eje de las abscisas. A partir de la expresión (1) es claro que b tiene las mismas unidades de y, y que m tiene unidades de y entre unidades de x. Para trazar la recta se sugiere usar una regla transparente, colocándola de modo que pase por todos los puntos experimentales. Si los puntos no están alineados, se traza la recta de tal manera que los puntos experimentales estén simétricamente distribuidos a lo largo de la recta tanto por arriba como por debajo de la recta y tanto en la mitad derecha como en la mitad izquierda; ésta será la mejor recta que se pueda ajustar visualmente. Determinación de m y b Para encontrar el valor de b sólo se necesita leer de la gráfica el valor de la ordenada al origen (cuando x = 0); es el punto (0, b) donde la recta (o su prolongación) se interseca con el eje de las ordenadas. Para encontrar el valor de la pendiente se utilizan los valores de las coordenadas de dos puntos (x1 , y1 ) y (x2 , y2 ) sobre la recta, no experimentales, tan separados como se pueda para que no se afecte la precisión en la determinación de la pendiente, estas coordenadas se sustituyen en la expresión analı́tica de la pendiente: y2 − y1 m= (2) x2 − x1 42 ContactoS 75, 40–52 (2010) perimentalmente. El trazo de la curva teórica se simplifica si se efectúan los cambios de variable necesarios para que sea una recta, pues ésta es fácilmente distinguible de cualquier otra curva. Figura 1. Gráfica de la velocidad en función del tiempo. En general, la pendiente se determina como el cociente de la diferencia de ordenadas y la diferencia de abscisas entre dos puntos. Ejemplo Considérese la tabla 1 en la que se registran los valores experimentales de la velocidad de un cuerpo en caı́da libre y el tiempo, después de un tiempo arbitrario t = 0. Se quiere determinar la relación que existe entre la velocidad v y el tiempo t. Al graficar v vs. t se obtiene la recta de la figura 1. La recta fue trazada siguiendo las recomendaciones antes mencionadas. Las longitudes de las rectas de trazos representan las diferencias de ordenadas y de abscisas entre los dos puntos (0.05, 1.2) y (0.35, 4.2) sobre la recta; con el cociente de ellas se calcula la pendiente que resulta ser alrededor de 10 m/s2 . En este ejemplo la pendiente representa la aceleración con que el objeto cae, a. La teorı́a indica que debe ser igual a la aceleración de la gravedad. En la gráfica se ve que la ordenada al origen es alrededor de 0.75 m/s; representa el valor de la velocidad en t = 0, llámesele v0 . Con los valores de la pendiente y la ordenada al origen, la recta v = at + v0 queda completamente especificada; se puede escribir como v = 10t + 0.75 Cambio de variables Se dice que hay acuerdo entre la teorı́a y el experimento cuando la curva teórica coincide con la curva trazada a través de los puntos determinados ex- La situación es sencilla cuando en el experimento solamente se miden los valores de dos variables que están relacionadas de forma simple. Considérese la expresión general representada por la fórmula y = axn . Si la teorı́a predice el valor del exponente, entonces una gráfica puede usarse para verificar la predicción. Se puede hacer el siguiente cambio de variables: X = xn y Y = y; con lo que se obtiene Y = aX, la cual es la ecuación de una lı́nea recta en las nuevas variables X y Y . La gráfica de Y vs. X producirá una lı́nea recta si la teorı́a describe adecuadamente al fenómeno. Tales gráficas son posibles solamente si el análisis teórico sugiere qué graficar. La situación parecerı́a complicada cuando en el fenómeno bajo estudio se miden los valores de tres o más variables, pero resulta manejable si la teorı́a predice que las variables están relacionadas a través de una función especı́fica f (x, y, z, t) = 0. Al conocer esta función se pueden hacer gráficas de una de las variables en función de otra, manteniendo fijos los valores de las restantes variables, combinándolas de la manera conveniente para que se obtenga una recta y ası́ obtener los parámetros de esta primer recta. Después se escogen otras dos variables (con una diferente a las de la primera pareja), manteniendo constante el valor de las otras; se repite el procedimiento hasta obtener las relaciones entre las diferentes parejas de variables. Finalmente se hace la comparación de las relaciones obtenidas, como resultado del análisis de los datos experimentales, con la predicción teórica. Algunos ejemplos ponen de manifiesto las ideas expresadas en los párrafos anteriores. Tercera ley de Kepler. Considérese el conjunto de valores del perı́odo de traslación (T ) de cada planeta alrededor del Sol y de la distancia media (D) entre cada planeta y el Sol. El interés aquı́ es verificar la relación que existe entre T y D. Esta relación conocida como la tercera ley de Kepler establece que el cubo del radio medio de la órbita de un planeta es proporcional al cuadrado de su perı́odo. Los valores se presentan en la tabla 2, en la que se han usado dos tipos de unidades. En un tipo se Análisis gráfico. Parte I. Angel Manzur Guzmán 43 Cuadro 1. Velocidad y tiempo de un cuerpo que cae*. Las unidades son m/s y s. t v 0.033 1.08 0.067 1.50 0.100 1.64 0.133 1.96 0.167 2.34 0.200 2.66 0.233 3.11 0.267 3.48 0.300 3.66 0.333 3.84 0.367 4.27 *Datos tomados de la referencia 1, página 62. Figura 3. Gráfica D3 vs. T 2 para los primeros planetas Figura 2. La gráfica D3 vs. T 2 es una recta que pasa por el origen. usan como unidad las cantidades correspondientes a la Tierra; es decir, T en años terrestres y D en distancia Tierra–Sol (T − S). En el otro tipo de unidades se usan dı́as y kilómetros. Una manera de lograr la verificación es haciendo un adecuado cambio de variables. Como se conoce la relación que existe entre D y T se puede graficar D3 vs. T 2 para obtener la lı́nea recta mostrada en la figura 2. Otro cambio de variables adecuado es graficar D vs. T 2/3 . En la figura 2 se usaron las unidades T − S y año, pero debido a la escala, se presenta la dificultad de que los primeros puntos aparecen encimados. Para ver estos puntos se deberı́a graficar usando escalas menores. Sin embargo, la gráfica se hará usando unidades en km y dı́a, con lo cual los valores son muy grandes, pero se aprovechará la oportunidad para hacer ver que si los valores se multiplican por factores adecuados, la graficación se facilita. La figura 3 muestra la gráfica D3 vs. T 2 para los primeros cuatro planetas; en ella los valores de D3 y T 2 se han multiplicado por factores constantes para que las escalas sean pequeñas, en contraste con las escalas de la figura 2. Aquı́ se quiere enfatizar que cambiar de variables y de escalas es importante para el análisis gráfico. El tema de escalamiento de gráficas será tratado en general y en forma detallada más adelante. Gas ideal. Los gases reales en condiciones especı́ficas de presión (p) y densidad bajas se comportan como uno ideal, cuyo comportamiento se describe a través de pV = N kT o en forma equivalente como pV = nRT donde V representa el volumen, N el número de moléculas, k la constante de Boltzmann, T la temperatura, n el número de moles y R la constante de los gases. Supóngase que en el laboratorio se controlan las variables de presión, volumen, temperatura y cantidad de gas, y se quiere encontrar las relaciones entre parejas de estas variables. V vs. N Al escoger como variables el volumen y la cantidad de moléculas, manteniendo constantes la presión y la temperatura, y graficar V vs. N se obtendrá una recta que pasa por el origen; es decir, V ∝ N , con p y T constantes, lo cual significa que los volúmenes iguales de gases distintos contienen la misma cantidad 44 ContactoS 75, 40–52 (2010) Cuadro 2. Perı́odo de traslación (T ) y distancia media al Sol (D) de los planetas del Sistema Solar*. Planeta Mercurio Venus Tierra Marte Júpiter Saturno Urano Neptuno Plutón T (año) 0.241 0.615 1.000 1.881 11.862 29.456 84.011 164.780 248.823 D(T − S) 0.389 0.725 1.000 1.530 5.221 9.570 19.255 30.168 39.597 T (dı́a) 87.97 224.70 365.26 686.98 4,332.59 10,759.20 30,685.93 60,187.64 90,885 D (km) 0.58 × 108 1.08 × 108 1.49 × 108 2.28 × 108 7.78 × 108 14.26 × 108 28.69 × 108 44.95 × 108 59.00 × 108 *Datos de T (dı́a) y D (km) tomados de la referencia 6, página 3414. de moléculas (ley de Avogadro). Es claro que a partir del valor de la pendiente se puede obtener el valor de k. p vs. V −1 Si ahora se escogen p y V , manteniendo constante la temperatura de una cantidad fija de gas, y se grafica p vs. V −1 nuevamente se obtendrá una recta que pasa por el origen; con palabras se dice que la presión del gas es inversamente proporcional al volumen que ocupa (ley de Boyle). V vs. T Si ahora se mantiene constante una cantidad fija de gas, el experimento demuestra que el volumen de gas será directamente proporcional a su temperatura (V ∝ T con p y N constantes). Esta relación se conoce como ley de Gay–Lussac o ley de Charles. Péndulo simple. Otro ejemplo lo proporciona el péndulo simple donde la teorı́a establece que el perı́odo de oscilación T está dado por s T = 2π L g donde L es la longitud del hilo y g es la aceleración de la gravedad. Al hacer el experimento para determinar el valor de g, se usan diferentes valores de L (que es la variable controlada) y se miden los √ correspondientes valores de T . Si se2πgrafica T vs. L se obtiene una recta de pendiente √ g . Otro cambio de variables para obtener una recta es grafi2 car T 2 vs. L donde la pendiente es 4πg . En ambos casos el valor de g se determina a partir del valor de la pendiente. Relaciones de potencia Ahora se estudiarán relaciones de potencia; es de- cir, relaciones en que una variable es proporcional a la otra variable elevada a un exponente ya sea positivo o negativo, entero o fraccionario. Este tipo de relaciones aparece con mucha frecuencia. Por ejemplo, la posición, como función del tiempo, de un cuerpo con movimiento unidimensional uniformemente acelerado es de tipo parabólico; o sea, es una función cuadrática en el tiempo. Relaciones de la forma y = xn En general, con sólo ver la curva no es fácil identificar una relación analı́tica entre las variables, excepto cuando es evidente como en el caso de una lı́nea recta. La figura 4 muestra algunas curvas de la forma y = xn . Es difı́cil distinguir las curvas correspondientes a las funciones con exponentes 2 y 3 o 12 y 1 3 ; la situación se complica aun más cuando solamente se observa un pedazo de curva. Sin embargo, a veces se tiene una idea de qué tipo de curva es, ya sea porque existe un modelo teórico que predice cierta curva o porque la gráfica directa tiene cierto parecido con alguna bien conocida. Si haciendo cambios de variable se puede lograr que la gráfica sea una recta, entonces se puede identificar la relación analı́tica correspondiente. Una forma adecuada para hacer que todas las curvas de la figura 4 (pág. 45) se conviertan en rectas es usar escalas logarı́tmicas, como ilustra la figura 5 (pág. 45). En realidad, cualquier curva que satisface la forma analı́tica y = xn puede convertirse en recta sin importar el valor del exponente n, el cual puede ser un número positivo o negativo, entero o fraccionario. Logaritmos De alguna manera existe familiaridad con el concepto de logaritmo. Se ha escuchado de la escala Richter para medir la magnitud o energı́a de un terremoto, del decibel usado principalmente en acústi- Análisis gráfico. Parte I. Angel Manzur Guzmán 45 Figura 4. Curvas de la forma y = xn en función de x para varios valores de n. Figura 5. Al usar escalas logarı́tmicas, las curvas de la figura 4 se transforman en rectas. ca y en señales eléctricas, del pH que se usa como indicador de la acidez o alcalinidad de una sustancia; en estos casos el concepto de logaritmo está involucrado. El logaritmo de un número es simplemente el exponente al cual un número fijo debe ser elevado para igualar el número en cuestión; ese número fijo es llamado base (por ejemplo el 10 o cualquier otro número positivo). Ası́, el logaritmo de 100 es 2 porque 102 = 100; el logaritmo de 1000 es 3 porque 103 = 1000; el logaritmo de 0.1 es 1 porque 10−1 = 0.1. Para números entre potencias de 10, el logaritmo está entre los dos exponentes de 10 más cercanos. Por ejemplo, el logaritmo de 700 está entre 2, el logaritmo de 100, y 3, el logaritmo de 1000; resulta ser alrededor de 2.85. Las caracterı́sticas y propiedades de los logaritmos pueden consultarse en la referencia 5. ras: con logaritmos o con un adecuado cambio de variables cuando se conoce el valor del exponente n. Relaciones de la forma y = axn Ahora se verá por qué al usar escalas logarı́tmicas las curvas de la figura 4 se convierten en las rectas mostradas en la figura 5. Supóngase que la relación entre las cantidades medidas (x, y) es del tipo y = axn (3) donde a y n son constantes. Observe que esta forma de función es más general que la usada en la figura 4 (a = 1 en la figura 4). El interés es que al graficar se obtenga una lı́nea recta y que, a partir de la recta, los parámetros a y n puedan ser determinados. Para lograrlo se puede proceder de dos mane- Ahora se usarán logaritmos. Al calcular el logaritmo de ambos miembros de la fórmula (3), se obtiene log y = log a + n log x Llamando X = log x y Y = log y, esta ecuación se transforma en Y = log a + nX. (4) Comparando las ecuaciones (1) y (4), se puede observar que esta última es la ecuación de una recta en las nuevas variables X y Y , con ordenada al origen igual a log a y con pendiente igual a n; estos parámetros se obtienen directamente de la recta. Esto significa que si, en vez de graficar los puntos (x, y) en escalas lineales, se grafican los puntos (log x, log y) en escalas lineales se obtiene una recta. Otra manera de obtener la recta, como se verá más adelante, es graficar en papel log–log; es un papel especial para graficar y que tiene escalas logarı́tmicas en los ejes horizontal y vertical. Las gráficas de las funciones de la forma (3) serán lı́neas rectas, y el valor de la pendiente de esa recta y el valor de la ordenada al origen proporcionan los detalles necesarios para escribir la ecuación que satisfacen los datos. Es conveniente mencionar los detalles que se presentan al determinar la pendiente y la ordenada al ori- 46 ContactoS 75, 40–52 (2010) gen cuando las escalas son lineales o cuando son logarı́tmicas. Cuando se calculan los logaritmos de todos los datos y se grafican usando escalas lineales en ambos ejes, para determinar la pendiente se escogen dos puntos en la recta y se usa la fórmula (2). En cambio, cuando se grafican los datos originales (sin calcular sus logaritmos) en escalas logarı́tmicas en ambos ejes, para determinar la pendiente es necesario calcular los logaritmos de los dos puntos escogidos sobre la recta y usar la fórmula siguiente pendiente = log y2 − log y1 log x2 − log x1 Este valor de la pendiente corresponde al parámetro n de las expresiones (3) y (4). Ejemplo Considérense nuevamente los valores de T y de D dados en la tabla 2. Ahora el interés es determinar la relación que existe entre T y D, ignorando la tercera ley de Kepler. Primero se buscará la relación usando los valores en las unidades de años y T − S. En la figura 6 aparece la gráfica D vs. T en escalas lineales. Se observa que los puntos siguen una tendencia que no corresponde a una lı́nea recta y que, debido a la escala, no se distinguen con claridad los primeros puntos. En cambio, en la figura 7 se presenta la gráfica de los logaritmos comunes (en base 10) de D y T . Se observa que los puntos están sobre una recta y que, a diferencia de la figura 6, en la gráfica se distinguen todos los puntos. Nótese que las escalas en ambos ejes de la figura 7 también son lineales. En las figuras 6 y 7 aparecen fórmulas, pero hay que observar que el significado de las variables que aparecen como x y y son diferentes en cada fórmula. La x en la figura 6 representa a T , en la figura 7 representa a log T ; análogamente, la y en la figura 6 representa a D y en la figura 7 representa a log D. La ecuación mostrada en la figura 6 indica que los puntos se ajustan a una ecuación en forma de potencia, mientras que la ecuación mostrada en la figura 7 representa a una lı́nea recta. Ambas fórmulas contienen la misma información pues log 1.0007 = 0.0003. Es decir, el logaritmo del coeficiente en la fórmula de la figura 6 es igual a la ordenada al origen en la fórmula de la figura 7. Las fórmulas tienen las formas dadas en las expresiones (3) y (4), respectivamente. Debido a que el valor del exponente 0.6672 puede apro- Figura 6. D y T en escalas lineales. ximarse como 2/3, entonces resulta que D y T satisfacen la relación (fórmula que aparece en la figura 6) D = 1.0007T 2/3 . Si se considera que el coeficiente difiere muy poco de la unidad, la relación se puede expresar como D3 = T 2 (5) Esta relación corresponde a la tercera ley de Kepler. Figura 7. Los logaritmos de D y T graficados en escalas lineales. Papel log–log Una forma equivalente que no requiere el cálculo explı́cito del logaritmo de los puntos, como sı́ fue hecho para obtener la gráfica de la figura 7, es utili- Análisis gráfico. Parte I. Angel Manzur Guzmán zar papel cuadriculado con escalas logarı́tmicas en los dos ejes coordenados (llamado papel log–log) en el cual cuando se localiza el punto (x, y), las escalas son tales que el punto corresponde a (log x, log y). Es decir, este papel hace el cambio de variable Y = log y, X = log x. Para graficar se toma en cuenta que a partir de la intersección de los ejes coordenados, origen en (1, 1), cada ciclo (o década) es mayor que el anterior por un factor de 10. Ası́, el primer ciclo representa los logaritmos de los números del 1 al 10, el siguiente ciclo representa a los logaritmos del 10 al 100, etcétera; el primer ciclo a la izquierda del origen representa los logaritmos de los números del 1 al 0.1, el siguiente ciclo a la izquierda representa a los logaritmos de los números del 0.1 al 0.01, etc. Por ejemplo, para graficar el logaritmo de 5 en uno de los ejes, en el primer ciclo se escoge el 5; la posición del logaritmo de 50 serı́a en el 5 del ciclo siguiente; la posición del logaritmo de 0.5 serı́a en el 5 del primer ciclo a la izquierda del origen. 47 punto donde la recta interseca al eje vertical que pasa por el origen (1, 1). Tomando los puntos (0.3, 0.45) y (200, 34) de la recta de la figura 8, se obtiene que la pendiente es n= log 34 − log 0.45 = 0.662 log 200 − log 0.3 La ordenada al origen que se lee en la gráfica es log a = log 1. Por tanto, a = 1. La ecuación que corresponde a la recta es log D = log 1 + 0.6662 log T = log 1 + log T 0.6662 o sea que log D = log T 0.6662 . Por tanto, D = 2 T 0.6662 = T 3 , como se obtuvo anteriormente. En la figura 8 se muestra la gráfica de los valores de D y T usando papel log–log de 3 × 4 ciclos (3 ciclos en la dirección vertical y 4 ciclos en la dirección horizontal). La posición que tiene un punto cualquiera (D, T ) en el papel log–log (por ejemplo, el punto (11.86, 5.2) para Júpiter) es la posición que ocuparı́a este punto en papel milimétrico. Este punto en papel log–log se lee (log D, log T ). Por tanto, al graficar log D vs. log T , usando este papel, no es necesario calcular los logaritmos de cada uno de los datos de D y T , se grafica directamente D vs. T . Determinación de a y n La recta de la figura 8 es de la forma Y = log a+nX, expresada en la ecuación (4). Por las propiedades de los logaritmos, corresponde a una relación de potencia de la forma y = axn , ecuación (3). El exponente n se obtiene calculando la pendiente de la recta en papel log–log y la constante a se lee directamente como la ordenada al origen. Para calcular la pendiente se escogen dos puntos de la recta (x1 , y1 ) y (x2 , y2 ), que se leen como (log x1 , log y1 ) y (log x2 , log y2 ), y se usa n= log y2 − log y2 log x2 − log x1 La ordenada al origen de esta recta de la figura 8 corresponde al término loga de la fórmula (4). Como la recta está graficada en papel log–log, y considerando que log 1 = 0, la ordenada al origen es el punto con coordenadas (log 1, log a), o sea que log a es el Figura 8. D en función de T . Datos trazados en papel log–log. Escalas logarı́tmicas Cuando no se quiere usar papel log–log se puede proceder de la manera siguiente. Si se dispone de una computadora con un programa que permita hacer gráficas (Excel, por ejemplo), se hace la gráfica D vs. T y después se cambian las escalas de lineales a logarı́tmicas en ambos ejes. Siguiendo este procedimiento se obtuvo la gráfica de la figura 9. Nótese que en las figuras 7 y 9 hay dos diferencias im- 48 ContactoS 75, 40–52 (2010) portantes: escalas lineales en la figura 7 y logarı́tmicas en la figura 9, y las coordenadas de los orı́genes; el origen en escalas lineales es el punto (0, 0), mientras que en escalas logarı́tmicas el origen está en la posición (1, 1). La fórmula que aparece en la figu- donde n es la pendiente de la recta en la gráfica log– log y k es la intersección de la recta con el eje vertical, k debe ser determinada en X = 1. Supóngase que se ha graficado Y vs. X, pero la recta no corta al eje vertical; en cambio, si se grafica Y ′ vs. X ′ con Y ′ = Y × 10b y X ′ = X × 10a , la recta sı́ se interseca con el eje vertical. Los puntos de la recta Y ′ vs. X ′ satisfacen la relación Y ′ = k ′ X ′n . Al escribir la relación log Y ′ = log(k ′ X ′n ) en términos de Y y de X, se obtiene log(Y × 10b ) = log(k ′ × 10an ) + log X n Al despejar log Y se obtiene log Y = n log X + log k ′ × 10an 10b De donde se obtiene la relación de potencia Y = Figura 9. Valores de D y T graficados en escalas logarı́tmicas. ra 9 es la misma que aparece en la figura 6, lo cual ası́ debe ser porque son los mismos datos. Pero debe notarse que la forma de las curvas es diferente y que en la figura 6 las escalas son lineales mientras que en la figura 9 son logarı́tmicas (obsérvese la separación entre las marcas que definen las escalas en D y T). Escalamiento de gráficas En ocasiones se presenta la dificultad que se obtuvo en la figura 6 de que, debido al valor de los datos y a la escala, los primeros puntos aparecen muy cercanos entre sı́, casi encimados. Serı́a muy conveniente lograr que en la recta trazada se vean todos los puntos y que la escala no cause problema alguno. Bajo ciertas circunstancias, los datos no pueden ser graficados adecuadamente a menos que los ejes horizontal y vertical sean escalados; es decir, cada uno multiplicado por un factor. El escalamiento es necesario para la determinación de la ordenada al origen si su valor se quiere leer directamente en la gráfica. El escalamiento es general aunque aquı́ se ilustra para gráficas log–log. En la ecuación general de la forma Y = kX n k ′ × 10an n X 10b (6) En esta expresión se ve que la relación entre k y k ′ es k ′ × 10an k= 10b Recuérdese que k ′ es el valor leı́do en el cruce de la recta con el eje vertical en la gráfica Y ′ vs. X ′ ; es decir, en la gráfica Y × 10b vs. X × 10a . Para ilustrar este procedimiento se usará nuevamente el ejemplo de los planetas del Sistema Solar. Para resaltar el efecto de números grandes, se usarán los valores de T en dı́as y D en kilómetros (ver tabla 2). Al graficar D en km y T en dı́as, el origen de las coordenadas queda lejos de la zona de trazado de los puntos en el papel y la recta no cruza el eje vertical, como lo ilustra la figura 10. Esta dificultad se presenta cuando se quieren graficar números muy grandes o muy pequeños. En estos casos se acostumbra escalar apropiadamente los ejes vertical y horizontal; es decir, multiplicar las variables por factores adecuados. Este procedimiento es muy simple cuando se hace en escalas lineales (papel milimétrico, por ejemplo); pero en el caso de escalas logarı́tmicas o de papel log–log, la determinación de la ordenada donde se intersecan la recta y la vertical X = 1 se ve afectada por estos factores de escala. Los valores de D en km y T en dı́a satisfacen la relación general D = kT n , pero si en lugar de graficar D y T se grafican D′ = D × l0−8 y T ′ = T × 10−2 , entonces la ordenada de intersección no representa al Análisis gráfico. Parte I. Angel Manzur Guzmán Figura 10. Gráfica de D en km y T en dı́as en escalas logarı́tmicas. valor de k, sino otro, digamos k ′ . Esta última gráfica se presenta en la figura 11. Observe que las fórmulas que aparecen en las gráficas (figuras 10 y 11) tienen el mismo valor del exponente de T , pero el coeficiente de T es diferente. Ambas fórmulas deben contener la misma información. En la gráfica de la figura 11, la recta tiene ordenada al origen k ′ = 0.63 y pendiente n = 32 ; para usar la expresión (6) debe emplearse a = −2, b = −8, T en vez de X y D en vez de Y . Se obtiene que 4 2 k ′ × 10an n 0.63 × 10− 3 2 D= T = T 3 = 2.92×106 T 3 10b 10−8 Este valor del coeficiente de T , redondeado a entero, es el que aparece en la fórmula de la figura 10. Por tanto, las fórmulas dadas en las figuras 10 y 11 contienen idéntica información. Si se hubiera querido graficar T en años (en vez de T en dı́as) y D en km, no habrı́a sido necesario escalar T (el exponente a habrı́a sido cero). Relaciones exponenciales Muchos fenómenos están regidos por una ley exponencial; es decir, una cantidad del fenómeno se puede expresar como otra cantidad constante, llamada base, elevada a un exponente representado por otra cantidad variable del mismo fenómeno. Por ejemplo, fenómenos como la carga y la descarga de capacitores, el decaimiento de una sustancia radiactiva, la temperatura de un objeto que se enfrı́a ba- 49 Figura 11. Al graficar D′ (= D × 10−8 ) vs. T ′ (= T × 10−2 ) la recta corta el eje vertical sin que sea necesario extrapolar. jo ciertas condiciones, o el crecimiento de poblaciones biológicas, todos ellos como función del tiempo satisfacen relaciones exponenciales. Relaciones de la forma y = abcx Ahora considérese la relación del tipo y = abcx donde a, b y c son constantes; es usual que la constante b esté representada por el número 10 o por el número e. Si se toma como base el número e, la expresión es y = aecx (7) Al calcular el logaritmo natural en ambos miembros de esta fórmula, se obtiene ln y = ln a + cx (8) Al identificar X = x y Y = ln y, esta expresión (8) queda como Y = cX + ln a la cual corresponde a una lı́nea recta en las variables (X, Y ). La ordenada al origen está representada por ln a y la pendiente por la constante c. En otras palabras, si los valores (x, y) satisfacen una relación del tipo expresado por la fórmula (7), para hacer que los puntos queden a lo largo de una lı́nea recta, se debe graficar ln y vs. x. Cuando solamente se calculan los logaritmos naturales de los valores de la variable dependiente y se grafican ambas variables (dependiente e independiente) usando escalas lineales en ambos ejes, para determinar la pendiente se escogen dos puntos en la recta y se usa la fórmula (2). En cambio, cuando 50 ContactoS 75, 40–52 (2010) se grafican los datos originales (sin calcular logaritmos), las equis en escala lineal y las yes en escala logarı́tmica, para determinar la pendiente es necesario calcular los logaritmos solamente de las ordenadas de los dos puntos escogidos sobre la recta y usar la fórmula siguiente pendiente = ln y2 − ln y1 x2 − x1 (9) Este valor de la pendiente corresponde al parámetro c de las expresiones (7) y (8). Ejemplo Al investigar el efecto que producen los rayos gamma sobre una cierta clase de virus en la papa, se determinó la fracción de virus sobrevivientes (S) después de aplicar cierta dosis de radiación (D, en unidades arbitrarias). Se quiere determinar la relación que D y S guardan entre sı́. Los valores aparecen en la tabla 3*. En la tabla se observa que al aumentar la dosis D la fracción S disminuye, pero solamente esto puede decirse. Para saber cómo están relacionadas estas cantidades, conviene graficarlas. La figura 12 muestra la variación de S en función de D. La curva que describen estos puntos es la de una función exponencial decreciente. La forma general de la función exponencial se ha dado en la fórmula (7), la cual en su forma logarı́tmica está expresada en la fórmula (8). En la figura 13 se trazaron los valores del logaritmo natural de S en función de D, a diferencia de la figura 12 donde se trazaron los valores de S y D tal como aparecen en la tabla 3. Las fórmulas que aparecen en las figuras 12 y 13 tienen las formas dadas en las expresiones (7) y (8), respectivamente. El exponente que aparece en la figura 12, aparece como la pendiente en la figura 13; el coeficiente que aparece en la figura 12 es la ordenada al origen que aparece en 13, pues el logaritmo natural de 1.0596 es igual a 0.0579. Otra forma equivalente de obtener la recta que aparece en la figura 13, a partir de los datos graficados en la figura 12 y sin calcular logaritmos, es cambiar las ordenadas a escala logarı́tmica. Haciendo este cambio se obtuvo la recta de la figura 14, la cual difiere de la figura 13 en la escala de las ordenadas y en la presentación de la función que satisfacen los puntos. El proceso recién descrito también puede realizarse manualmente. Al graficar los datos de la tabla 3 se observa que la curva no es una recta, se obtiene una curva como la de la figura 12. Si uno procede a calcular los logaritmos naturales de los valores de S y grafica ln S en función de D se obtiene Figura 12. Datos de la tabla 3 graficados en escalas lineales. Figura 13. Para esta gráfica se calculó explı́citamente el logaritmo natural de los valores de S. una recta como la mostrada en la figura 13. La pendiente se calcula aplicando la fórmula (2) a dos puntos sobre la recta, el valor de la ordenada al origen se lee directamente en la gráfica. Papel semilog Una manera de evitar el cálculo de los logaritmos de los valores de S, pero que al graficarlos se obtenga una recta, es hacerlo con los valores de S y D en papel semilogarı́tmico (llamado papel semilog a secas). Es un papel para graficar que tiene en un eje una escala lineal y en el otro eje una escala logarı́tmica. Evitar el cálculo de los logaritmos es muy conveniente cuando se dispone de una cantidad grande de puntos. Para graficar los valores de la tabla 3, escoger dos ciclos en la escala logarı́tmica serı́a suficiente pues en ella caben todos los valores de S. Sin embargo, al extrapolar la recta de la figura 13 se obtiene que la ordenada al origen queda ligeramente Análisis gráfico. Parte I. Angel Manzur Guzmán 51 Cuadro 3. D S 3 0.400 5 0.250 6 0.175 8 0.100 10 0.050 12 0.030 14 0.015 *Datos tomados de la referencia 2, página 85. Figura 14. La escala de las ordenadas es logarı́tmica mientras que la escala de las abscisas es lineal. arriba del origen; en forma equivalente, la ordenada al origen en la fórmula de la figura 13 ası́ lo informa. Debido a conveniencia de que el valor de la ordenada al origen se lea directamente en la gráfica, en este ejemplo se ha decidido usar papel semilog de tres ciclos. La gráfica se muestra en la figura 15 (la cual es semejante a la de la figura 14). Determinación de a y c Para calcular la pendiente se usan las coordenadas de dos puntos que estén sobre la recta y se aplica la fórmula (9). Escogemos los puntos (3, 0.44) y (14, 0.016), con lo cual se obtiene que la pendiente es c= ln 0.016 − ln 0.44 = −0.301 14 − 3 En la gráfica de la figura 15 la ordenada al origen tiene el valor 1.06, aproximadamente. Insertando estos valores de c y a en la ecuación (8), que es la ecuación de la recta, se obtiene ln S = ln 1.06 − 0.301D = ln 1.06e−0.301D la cual se reescribe como S = 1.06e−0.301D Ésta es la relación que satisfacen los valores D y S dados en la tabla 3. Figura 15. Datos de la tabla 3 graficados en papel semilogarı́tmico. Nota final Para analizar los datos experimentales, siempre conviene graficarlos. Si los puntos están contenidos en una recta lo que resta por hacer es determinar, a partir de la gráfica, los parámetros que la describen. Por el contrario, si los puntos experimentales no se ajustan a una recta, sino más bien a una curva, entonces se recurre a graficarlos usando escalas logarı́tmicas en ambos ejes coordenados o solamente en uno y escala lineal en el otro. El propósito es que, con el uso de gráficas log-log o semilog, los puntos describan una recta ya que su identificación es muy fácil e indudable. Otra manera de lograr que los puntos experimentales estén sobre una recta es mediante un adecuado cambio de variables, el cual usualmente es sugerido por el análisis teórico del problema. 52 Todas las curvas de la forma y = axn pueden ser transformadas para que sean lı́neas rectas usando escalas logarı́tmicas en ambos ejes coordenados. La otra familia de curvas que pueden ser convertidas en rectas son las que tienen la forma analı́tica y = abcx . Es usual que el parámetro b sea sustituido por el número 10 o por el número e; en el primer caso el cálculo se facilita usando logaritmos decimales y en el segundo al usar logaritmos naturales. Se obtiene una recta al graficar con escala logarı́tmica en uno de los ejes coordenados. Bibliografı́a 1. L. H. Greenberg. Discoveries in Physics for scientists and engineers, second edition. Saunders, Philadelphia, PA, 1975. 2. B. Oda Noda. Introducción al análisis gráfico de datos experimentales, 3a. edición. Facultad de Ciencias, UNAM, México, 2005. ContactoS 75, 40–52 (2010) 3. D. C. Baird. Experimentación. Una introducción a la teorı́a de mediciones y al diseño de experimentos. Segunda edición. Prentice–Hall Hispanoamericana, México, 1991. 4. C. Gutiérrez Aranzeta. Introducción a la metodologı́a experimental, segunda edición. Limusa, México, 1998. 5. E. W. Swokowski. Álgebra y trigonometrı́a con geometrı́a analı́tica, segunda edición. Grupo Editorial Iberoamérica, México, 1988. 6. C. D. Hodgman, Ed. Handbook of Chemistry and Physics, 43 ed. Chemical Rubber, Cleveland, 1961. cs ¡A cuenta gotas! Parte II. Marı́a del Pilar Beltrán Soria*, René Gerardo Rodrı́guez Avendaño** Como muchos otros cientı́ficos (del pasado y del presente) el principal objetivo de Millikan al principio de su carrera era el reconocimiento cientı́fico, y aunque, ya habı́a escrito algunos buenos textos escolares con anterioridad, estaba deseoso de realizar una contribución verdaderamente importante en el área de la Fı́sica. Millikan contaba ya con cuarenta años de edad y por esa época el interés estaba situado en la determinación de la magnitud de la carga del electrón, aunque dedicarse de lleno a tal labor podı́a haber representado justamente todo lo contrario de lo que Millikan anhelaba. Recibido: 10 noviembre 2009. Aceptado: 24 noviembre 2009. 2. El problema (descripción a detalle del experimento de Millikan) Roberts Andrews Millikan nació en Morrison Illinois, Estados Unidos de Norteamérica, el 22 de Marzo del año 1868, bajo el signo piscis del zodiaco, fue hijo de un ministro, obtuvo su doctorado en fı́sica en la Universidad de Columbia y realizó trabajo post doctoral en Berlı́n Alemania, ası́ como en la Universidad de Gotinga. Se incorporó al cuerpo docente de la Universidad de Chicago en 1896, y en 1910 fue profesor de fı́sica. Fue precisamente en la Universidad de Chicago donde estudio bajo la dirección del astrofı́sico estadounidense Albert Abraham Michelson, quien recibió el premio Nobel de fı́sica en 1907 por desarrollar un extraordinario instrumento para medir distancias mediante interferencia de ondas luminosas, con lo cual en 1878 determinó la velocidad de la luz, que cifró en 299,910 km/s, y posteriormente demostró, mediante el llamado experimento de Michelson–Morley (1901), que la velocidad de propagación de la luz es independiente del movimiento de la Tierra. Hay que establecer que en esa época en Inglaterra otro de los grandes cientı́ficos J. J. Thomson después de haber descubierto la existencia del electrón también se habı́a abocado a la tarea de la determinación de la carga del electrón (demostrando que el átomo tenı́a partes internas) siendo además el director de tesis de Millikan y teniendo a su cargo el laboratorio Cavendish de la Universidad de Cambridge las posibilidades se hacı́an cada vez menores para Millikan. Uno de los colaboradores de Thomson habı́a inventado ya un dispositivo llamado “cámara de niebla” (que inicialmente habı́a sido inventada simplemente para estudiar las nubes de la atmósfera) el cual era útil para seguir trayectorias de partı́culas cargadas y de movimiento rápido, esto se lograba haciendo que el aire supersaturado (lleno de vapor de agua) de su interior se condensara alrededor de las partı́culas de polvo y otras partı́culas que flotaban libremente llamadas iones, lo cual suponı́a una ventaja sobre otros cientı́ficos en la carrera por determinar antes que nadie la carga del electrón. Michelson construyó instrumentos ópticos de precisión, con los que llevó a cabo diversas investigaciones espectroscópicas, y logró determinar de forma absoluta el diámetro de algunas estrellas, indudablemente la influencia de Michelson sobre Millikan fue determinante y quizá fue el principal motivo por el cual Millikan no abandonó la universidad hasta el año de 1921, cuando se le requirió para un puesto de mayor importancia al convertirse en director del laboratorio Norman Bridge de fı́sica en el Instituto de Tecnologı́a de California. Paradójicamente el dispositivo de niebla que parecı́a trazar la ruta adecuada para la determinación de la carga eléctrica del electrón dado que se podı́an manipular las partı́culas cargadas eléctricamente (iones) tuvo un efecto negativo al retardar la determinación adecuada, principalmente porque utilizaba agua y presentaba la dificultad de que se evaporaba rápidamente a este método se le conoció como método “Wilson” quien fue un estudiante de Thomson. * IEMS Plantel “Iztapalapa I” Calzada Ermita Iztapalapa No. 4163, Col. Lomas de Zaragoza, Del Iztapalapa. C.P. 09620, México D.F. pilysori@yahoo.com.mx, tel. (55)59764790 ** IEMS Plantel “Salvador Allende” GAM II. Av. Ferrocarril Hidalgo No. 1129, Col. Constitución de la República, Gustavo A. Madero GAM. C.P. 07469, México D.F.a rgra@yahoo.com.mx 53 54 Una breve descripción de algunos detalles de éste método son que los iones generados por radiación externa en la cámara de niebla, actuaban como centros de nucleación de las gotas de agua por acción de la atracción de las moléculas de agua con el vapor de agua supersaturado. Estas pequeñas gotas, podı́an ser observadas con ayuda de iluminación, cuando descendı́an lentamente por acción de la gravedad. Claro está que Millikan seguı́a los pasos de su director de tesis y también utilizaba la “cámara de niebla” y para ionizar la nube gaseosa en la cámara utilizó primero los rayos X de Roentgen y posteriormente pequeñas cantidades de radio, haciendo la prueba con un campo eléctrico más potente en la cámara, con el fin de contrarrestar la fuerza de la gravedad suspendiendo la nube manteniéndola inmóvil todo con el afán de que por un hecho milagroso pudiera adelantarse a los resultados de los mismos creadores del dispositivo, cosa que a todas luces parecı́a irracional, sin embargo Millikan acertó un golpe de suerte cuando en un congreso en la universidad de Chicago y después de haber expuesto sus primeros resultados el afamado cientı́fico neozelandés Ernest Rutherford (que habı́a demostrado que las sustancias radiactivas producen tres tipos de emanaciones a las que llamo rayos alfa, rayos beta y rayos gamma) le hizo ver a Millikan que una de las grandes dificultades era la gran velocidad con la que se evaporaban las diminutas gotas de agua. Además se encontraba el hecho de las propias limitaciones de la Ley de Stokes, que describe el movimiento de gotas minúsculas en un fluido y que desde tiempo atrás el equipo de Thomson utilizaba para calcular el tamaño promedio de las gotas individuales que componı́an la nube simplemente midiendo la velocidad con la que caı́a la nube. Rutherford le hizo ver que el generar una nube completa en la “cámara de niebla” no era adecuado para obtener el valor correspondiente de la carga del electrón y, hay que considerar, que sabı́a de lo que estaba hablando ya que la naturaleza de los rayos beta que trabajaba Rutherford fue determinada después de cinco años de investigación, en los cuales utilizaba el propio aparato de Thomson para obtener finalmente la naturaleza de tales rayos y dar a conocer que estaban constituidos de electrones (misma conclusión a la que habı́a llegado Becquerel en el año de 1900). Pero ¿en donde radicaba entonces el error cometi- ContactoS 75, 53–63 (2010) do por el equipo de Thomson? quizá la respuesta tenga que ver con el procedimiento del cálculo que proseguı́a a la obtención de la velocidad de caı́da de la nube ya que sabiendo además el volumen total de vapor de agua dentro de la nube y el tamaño medio de las gotas, Thomson pudo calcular (con la colaboración de su estudiante de doctorado Charles Wilson) el número de gotas que contenı́a la nube y bajo la suposición de que cada gota de la nube se habı́a condensado alrededor de un único electrón, se podı́a dividir la carga de la nube por el número de gotas para obtener una estimación aproximada de cada electrón, sin embargo los valores tenı́an una muy baja precisión. Millikan después de las recomendaciones hechas por Rutherford, modificó su aparato para estudiar gotas individuales en lugar de medir toda una nube. La nueva versión consistı́a en una cámara en la que las gotas de agua cargadas caı́an por un pequeño agujero, originado en una placa horizontal, entrando ası́ en un área donde, con la ayuda de un microscopio (que utilizó porque las gotas eran extremadamente pequeñas, tanto que aún con el microscopio Millikan sólo observaba la gota como si estuviera viendo a una estrella lejana en el firmamento), podı́a verse cómo subı́an o bajaban entre dos marcas de medición hechas al interior de la cámara. En 1909 Millikan envió su primer artı́culo sobre el método que denominó “equilibrio de las gotas” (en el cual se mantenı́a una nube en estado estacionario por efecto de un campo eléctrico lo suficientemente fuerte para evitar que se cayera por efecto gravitatorio) que fue publicado en febrero de 1910. El artı́culo fue notable por la honestidad de su presentación, tanto ası́ que el historiador de la ciencia Gerald Holton lo describe como un gesto poco común en la literatura cientı́fica. Millikan incluyo sus juicios personales sobre la fiabilidad y validez de cada una de las 38 observaciones de gotas. Cuestión que seguramente después lamentarı́a. Ese mismo año Felix Ehrenhaft (1879–1952) utilizarı́a diminutas partı́culas de metal en lugar de gotas afirmando, en una publicación que saldrı́a en 1910, que sus resultados probaban la existencia de “subelectrones” con cargas inferiores a las que Millikan sostenı́a que era la menor, a la vez establecı́a que los mismos experimentos de Millikan soportaban la teorı́a de la continuidad de la carga eléctrica. ¡A cuenta gotas! Parte II. Ma. del Pilar Beltrán S., René Gerardo Rodrı́guez A. La siguiente modificación al experimento tenı́a que ver con la rápida evaporación de agua que anteriormente habı́a sido cuestionada por Rutherford, Millikan trataba de resolver el problema, cuando la respuesta le llegó en un momento de inspiración (según se establece en su autobiografı́a) en el cual comprendió que no tenı́a sentido luchar contra la evaporación de las gotas de agua cuando los aceites de relojerı́a se habı́an desarrollado explı́citamente para resistir a la evaporación. Por lo tanto la idea de Millikan era utilizar una sustancia más pesada que el agua y que tuviera una tasa de evaporación menor como el mercurio o un aceite. Tal idea, posteriormente ha sido causa de disputas acerca de la originalidad ya que el mismo Millikan la atribuye en los artı́culos escritos en esa época a su colega J. Y. Lee, mientras que un estudiante de doctorado de Millikan, Harvey Fletcher, afirmó más tarde que era a él a quien se le habı́a ocurrido la idea de utilizar gotitas de aceite. En este punto habrá que establecer que Millikan habı́a asignado a Fletcher la misión de encontrar el mejor método experimental, y discernir entre utilizar mercurio, glicerina o aceite, por lo que no es nada descabellado pensar que en realidad tal idea pudo provenir de los resultados de Fletcher. Sobre todo si se analiza el hecho de que Fletcher fue quien diseño el instrumento mediante el cual una gota de aceite permanecı́a suspendida en el aire como si bailara, este fenómeno es conocido como movimiento Browniano, y actualmente es de gran interés cientı́fico. Cuando Fletcher comunicó sus resultados a Millikan éste desecho todo lo que se habı́a obtenido utilizando agua y puso su atención a los resultados obtenidos con las gotas de aceite. Ası́ pues Millikan y Fletcher trabajando sobre el nuevo y mejorado dispositivo encontraron dos valiosos resultados. Uno era la determinación de la carga eléctrica (conocida como e) y el otro era, la determinación del producto NA e donde NA es el número de Avogadro. El producto NA e pudo ser obtenido gracias a las observaciones del movimiento browniano de las gotitas de aceite en el experimento. Justo en este punto se establece uno de los pasajes más oscuros dentro de la vida cientı́fica de Millikan ya que le propuso a su estudiante de doctorado Fletcher ser el único autor del resultado del trabajo acerca del movimiento Browniano, siempre y cuando Millikan apareciera como el único autor en la determinación de la carga eléctrica del electrón, ya que Fletcher necesitaba una publicación en donde apa- 55 reciera como autor único para poder obtener el grado de Doctor. Sin duda alguna Millikan sabı́a que la medición de la carga del electrón podrı́a elevar en gran medida su reputación como investigador y él querı́a todo el crédito para sı́ mismo. Fletcher, también lo entendió ası́ y estuvo en desacuerdo con Millikan, pero Millikan habı́a sido su mentor y protector ası́ que no tuvo más remedio que aceptar el trato. Según se tiene reportado aún con este incidente Millikan y Fletcher permanecieron siendo buenos amigos y fue hasta la muerte de ambos cuando finalmente se hizo público tal hecho. Sin embargo hay que tomar en cuenta que cuando Fletcher finalmente obtuvo el grado de Doctor en Fı́sica se separó indefinidamente de Millikan. Como sea, la idea era crear cargas eléctricas negativas en el interior de una gota y dejarla caer durante unas pocas fracciones de segundo bajo la sola influencia de la gravedad. Sin embargo las gotas de aceite eran también muy pequeñas y nuevamente tuvo que verlas a través de un microscopio. En septiembre de 1910, Millikan publicó en solitario su segundo artı́culo importante sobre la carga de los electrones, el primero basado en gotas de aceite, en la prestigiosa revista Science. En este artı́culo no ordena las gotas según su fiabilidad, dice explı́citamente no haber incluido varias de ellas en sus cálculos de la carga de un electrón. En algunos casos, según explica, la causa era un error experimental grande. En 1913 Millikan publicó un artı́culo en el cual asegura que los datos que los datos que presenta provienen de una serie de observaciones sobre 58 gotas que, según señala no es un grupo selecto de gotas sino que constituye el conjunto completo de las observadas experimentalmente. Posteriormente un examen cuidadoso de Holton sobre los cuadernos que incluı́an los datos experimentales de Millikan reveları́a que en realidad habı́a estudiado 140 gotas y no las 58 que mencionaba en él, este el periodo comprendido entre el 11 de Noviembre de 1911 al 16 de Abril de 1912 según obra en los archivos de Caltech. Los divulgadores cientı́ficos al leer el trabajo presentado por Holton, han centrado su atención en la omisión de las gotas, y especialmente en la falsa afirmación de Millikan en su artı́culo de 1913, de que habı́a incluido todas las observaciones. 3. Las consecuencias La disputa entre R. Millikan y F. Ehrenhaft, que 56 duró varios años (1910 a 1925) concluyó finalmente cuando Ehrenhaft abandonó la causa de defender la teorı́a de los subelectrones. Años más tarde se obsesionó con otra: los monopolos magnéticos, algo ası́ como imanes con un solo extremo imantado. Sin embargo Holton y muchos otros historiadores de la ciencia han centrado su atención y analizado tal disputa desde otro punto de vista, presentado una detallada reconstrucción de la metodologı́a de experimentación de Millikan y Ehrenhaft estipulando que Ehrenhaft seguı́a el método cientı́fico tradicional (como el que se presenta en los libros de texto) permitiendo que la teorı́a sea dictada por datos experimentales. Mientras que la metodologı́a experimental de Millikan fue guiada por las presunciones, cuando Holton analizó los cuadernos que contenı́an los datos experimentales de las gotas de aceite del artı́culo de 1913 encontró que el 59 % de los datos de las gotas estudiadas fueron descartados ya que no concordaban con la hipótesis de Millikan de la carga eléctrica fundamental del electrón. Es importante resaltar el hecho de que en muchos libros de texto actuales no se menciona la controversia Millikan–Ehrenhaft y que tiene gran importancia en la historia de la ciencia, sobre todo si se analiza que en muchos libros se enaltece el uso del método cientı́fico tal como lo hizo Ehrenhaft y que actualmente este cientı́fico se encuentra totalmente ignorado y olvidado. Para entender los diferentes puntos de vista entre ambos cientı́ficos habrá que establecer el contexto en el que se presenta tal discrepancia del método cientı́fico, es importante considerar que a finales del siglo XIX existen dos posiciones antagónicas sobre el carácter del trabajo cientı́fico. Una de ellas la podemos identificar con cientı́ficos como el fı́sico y filósofo austriaco Ernest Mach, quienes siguen una lı́nea filosófica que defiende una base fenomenológica basada en correlaciones de observaciones directas evitando usar cantidades “hipotéticas”. Por otro lado tenemos a cientı́ficos como el fı́sico austriaco Ludwing Boltzmann que defienden el uso de entidades ocultas a la observación directa como medio para entender la realidad. Sin embargo, para ambas concepciones el carácter experimental del método cientı́fico es crucial. Esta distinción de posiciones filosóficas es fundamental porque es claro que el éxito de una teorı́a depende no de uno, sino de muchos experimentos realiza- ContactoS 75, 53–63 (2010) dos por muchas personas y la importancia asignada a los diferentes experimentos depende de las diferentes orientaciones filosóficas, además de que un mismo experimento puede significar cosas diferentes en diferentes tradiciones. Bajo este punto de vista, quizá se pueda establecer el por qué los resultados obtenidos por Ehrenhaft fueron desechados y los de Millikan prevalecieron, más allá de considerar que existı́a entre ambos cientı́ficos una rivalidad mal canalizada. Aunque hay que establecer que realmente Ehrenhaft nunca fue considerado por Millikan como su más reconocido adversario, sino más bien fue su propio director de tesis J. J. Thomson quien hasta la fecha es recordado como el “padre del electrón”. Por otra parte los resultados no mostrados del trabajo de Millikan han provocado que el hecho sea presentado como ejemplo de conducta contraria a la ciencia, y especı́ficamente al método cientı́fico, quizá esa sea la razón por la cual en la universidad de Chicago no exista evidencia alguna de la labor realizada por este gran cientı́fico. Holton establece como hipótesis en su trabajo de 1982, la importancia trascendental que tienen los factores temáticos o metafı́sicos en la investigación cientı́fica de Millikan y Ehrenhaft. Lo cierto hasta ahora y lo que aparece en los libros de texto es que a través del experimento de Millikan y otros experimentos adicionales, se ha determinado que la carga de un electrón es 1.6 × 10−19 C (Coulombios). A continuación se presenta la secuencia matemática que describe la fenomenologı́a fı́sica en el experimento de la gota de aceite de Millikan. Descripción cuantitativa del experimento de las gotas de aceite de Millikan. Una descripción de este experimento puede ser resumida de la siguiente manera: en primera instancia hay que considerar que el comportamiento de las gotas de aceite, es muy diferente a la nube de agua que se formaba en la cámara de niebla, ya que las gotas individuales de aceite se pueden manipular individualmente, esto se debe a que la gota queda cargada eléctricamente entre las placas, cuyo voltaje se puede variar para que la gota no caiga al fondo. Modificando el voltaje entre las placas se podrı́a hacer que las gotas de aceite ascendieran a velocidad constante. La carga en cada una de las gotas fue generada utilizando irradiación con rayos X, la cual se ad- ¡A cuenta gotas! Parte II. Ma. del Pilar Beltrán S., René Gerardo Rodrı́guez A. hirió a las gotas, implicando con ello un pequeño número de electrones (n = 0, 1, 2, 3, . . .). Cuando se eliminaba el campo eléctrico la gota estaba sometida exclusivamente a la fuerza de la gravedad y, debido a la resistencia del aire, la gota no caı́a aceleradamente sino que alcanzaba una velocidad terminal. Para la descripción matemática de lo anteriormente comentado se puede considerar que el aire tiene una viscosidad η conocida y que se puede establecer el valor de la fuerza gravitacional como: F g = m∗ g = F f Donde Fg es la fuerza de la gravedad, y m∗ es la masa aparente, tomada en cuenta en la frontera del aceite y el aire, mientras que Ff es la fuerza de fricción que se opone al movimiento por lo que la ecuación se puede escribir como: Entonces despejando el radio de una de las gotas de aceite s 9ηv0 r= (ρaceite − ρaire )2g puede ser estimado ya que como se estableció anteriormente la viscosidad del aire η es conocida. Si un campo eléctrico E0 ahora es aplicado, entonces una fuerza eléctrica F = qE0 actúa sobre la gota de aceite, donde q = −ne, donde finalmente aparece la carga eléctrica del electrón. Con el campo eléctrico adecuado compensando la gravedad se tiene: 4 meE0 = −g(ρaceite − ρaire ) πr3 3 Con lo cual se puede calcular la carga de la gota de aceite de la manera siguiente: −q = ne = − Fg = (ρagua V − ρaire V )g = −6πηrv Donde m∗ = ρagua V − ρaire V y Ff = −6πηrv para partı́culas esféricas (considerándose a la gota como tal) según se establece en la ecuación de Stokes, (la resistencia opuesta por un fluido al movimiento de una esfera en su seno es proporcional a la velocidad relativa) la cual debe su nombre al fı́sico y matemático irlandés George Gabriel Stokes. 4 F = qE1 − g πr3 (ρaceite − ρaire ) − 6πηrv 3 En la cual la velocidad terminal en este caso: v1 = Fg = g(ρagua − ρaire )V = −6πηrv 4 Fg = (ρagua − ρaire ) πr3 = −6πηrv 3 De donde se puede despejar la velocidad terminal constante y obtener: v= m∗ g 6πηr La cual depende de la viscosidad del gas (ηaire ), el radio de la gota r (que puede ser determinado a partir de la masa total condensada en la parte inferior de la cámara de niebla), la constante de aceleración gravitacional g, y la masa de la gota m. Retomando la definición hecha para la masa aparente m∗ se tiene que se puede calcular la velocidad de caı́da v0 . v0 g(ρaceite − ρaire ) 34 πr3 6πηr g 4 3 πr (ρaceite − ρaire ) E0 3 Una variación del experimento de un campo eléctrico mayor E1 es aplicado, con lo cual se mueve la gota de aceite hacia arriba, y la gota experimenta una fuerza total de: Por lo que se puede reescribir como: O bien, considerando el volumen de una partı́cula esférica. 57 qE1 − g 43 πr3 (ρaceite − ρaire ) 6πηr Por lo que al restar v1 − v0 se obtiene: v1 − v0 = qE1 6πρr De la cual la carga es: q = −ne = 6πηr(v1 − v0 ) η 23 r 36π v0 = (v1 − v0 ) E1 2 g(ρaceite − ρaire ) Cuando la gota cambia su carga, su velocidad terminal v1 cambiará. La carga más pequeña será observada cuando ∆n = 1. Lo cual proporciona la carga elemental del electrón. Se puede obtener valores para la carga elemental del electrón que sean dos veces la carga elemental, tres veces la carga elemental, nueve veces la carga elemental y muchos otros números enteros de esta carga elemental. Pero nunca se verá una parte fraccional de esta carga elemental, asumiendo que la carga no se puede dividir. 58 ContactoS 75, 53–63 (2010) q q q q Peso de cada canica = 3.2 × 10−19 C = 6.4 × 10−19 C = 8.0 × 10−19 C = 11.2 × 10−19 C 1g 2g 1/2 g Cuadro 1. Número de canicas en el saco 8 4 16 Cuadro 2. Es decir, para cada una de las gotas individuales se puede establecer que: Qgota = n(1.6 × 10 −19 C) Peso de cada canica 8g 4g Número de canicas en el saco 1 2 Cuadro 3. Donde n es un número entero positivo, que denota el número de electrones que fueron añadidos en el experimento de Millikan a cada una de las gotas de aceite y que en conjunto contribuyen a la carga neta de la gota. Millikan obtuvo valores para la carga del electrón como los mostrados en la tabla 1. Teorı́as actuales de fı́sica declaran que cargas de 1/3 y 2/3 de la carga elemental del electrón pueden existir. Hay evidencia para estas cargas fraccionadas y los cuarks (los componentes más pequeños de los cuales está hecha la materia) están asociados. Para poder acoplar los resultados de Millikan con estas nuevas teorı́as habrá que considerar que los resultados de la gota de aceite de Millikan hasta ahora pueden establecer la conclusión de que los cuarks siempre se unen para hacer una carga total de +1 ó −1, lo cual no contradice de ninguna manera los resultados del experimento de las gotas de aceite. Una manera muy práctica y fácil de entender los resultados obtenidos por Millikan, es a través de la situación de encontrar la masa y la cantidad de canicas que se encuentran en un costalito, con la condición de que no se puede abrir y observar su contenido y con la ayuda que se conoce la masa de varios de ellos que contienen diferentes números de canicas, tal y como se describe en el ejemplo numero uno y dos que a continuación se presentan. Ejemplo 1 Se tienen varios sacos cada uno con un número determinado de canicas. Los pesos de los sacos son de 8, 14, 18, 20, 26, 40 gramos respectivamente. ¿Cuál es el peso de cada canica y cuantas canicas hay en cada saco? En el primer saco las posibilidades más sencillas de pesos en las canicas son: 1, 2, 4, 8. A esos números les llamaremos los factores o divisores del 8 ya que son los números naturales que dividen al 8 y no hay más. Si formamos parejas, primer número con último y segundo con penúltimo, podemos formar las dos primeras filas de la tabla 2. Hay que hacer notar que también es permitido considerar que el peso de una canica sea un número fraccional, por sencillez nos limitaremos al análisis de 1/2 g exclusivamente. Para los dos primeros pesos de canicas, también funciona intercambiando los datos de las columnas, tabla 3. O podemos ponerlo en una sola tabla 4, p. 58. Sin embargo cuando se propone que cada canica pese 16 g se obtiene la tabla 5, p. 59. Lo cual es fı́sicamente imposible ya que el número de canicas debe ser siempre un número entero positivo, con lo cual queda descartado el hecho de que cada canica pueda pesar 16 gramos y con esto cualquier otro peso en el cual se obtenga un número de canicas no entero positivo. Restricción 1: el número de canicas en los sacos debe ser un número entero positivo. Hay que hacer notar una restricción adicional, en el primer saco el número de gramos obtenidos es de ocho, por lo tanto ninguna canica puede pesar más de esa cantidad lo cual nuevamente concuerda con la eliminación de 16 g como respuesta. Peso de cada canica 1 2 4 8 Número de canicas en el saco 1 8 4 2 1 Cuadro 4. ¡A cuenta gotas! Parte II. Ma. del Pilar Beltrán S., René Gerardo Rodrı́guez A. Peso de cada canica 16 g Número de canicas en el saco 1/2 Peso de cada canica Cuadro 5. Peso de cada canica 1/2 1 2 7 14 59 Número de canicas en el saco 2 28 14 7 2 1 Factibilidad del resultado SI SI SI SI NO∗ Cuadro 6. *El peso de una canica no debe ser mayor de 8 g derivado del primer saco de canicas. 1 2 1 2 4 5 10 20 Número de canicas en el saco 4 40 20 10 5 4 2 1 Factibilidad del resultado SI SI SI SI SI NO* NO* Cuadro 8. *El peso de una canica no debe ser mayor de 8g derivado del primer saco de canicas. ¿Qué pasa para el segundo saco? véase tabla 6, p. 59. ¿Qué pasa para el tercer saco? véase tabla 7, p. 59. ¿Qué pasa para el cuarto saco? véase tabla 8, p. 59. ¿Qué pasa para el quinto saco? véase tabla 9, p. 59. ¿Qué pasa para el sexto saco? véase tabla 10, p. 59. Ya tenemos todas las posibilidades, pero las canicas en los seis sacos son iguales, por lo que deben pesar lo mismo, entonces se reducen las posibilidades. De las seis tablas, los pesos que coinciden en las 6 tablas son el 1/2, 1 y el 2. En este problema tenemos las siguientes posibles soluciones: Si cada canica pesa 1/2 gramo: Para el saco uno tenemos 16 canicas. Para el saco dos tenemos 28 canicas. Para el tercer saco tenemos 36 canicas. Para el cuarto saco tenemos 40 canicas. Para el quinto saco tenemos 56 canicas. Para el sexto saco tenemos 80 canicas. Peso de cada canica 1/2 1 2 3 6 9 18 Número de canicas en el saco 3 36 18 9 6 3 2 1 Factibilidad del resultado SI SI SI SI SI NO∗ NO∗ Cuadro 7. *El peso de una canica no debe ser mayor de 8 g derivado del primer saco de canicas. Peso de cada canica 1/2 1 2 13 26 Número de canicas en el saco 5 56 26 13 2 1 Factibilidad del resultado SI SI SI NO* NO* Cuadro 9. *El peso de una canica no debe ser mayor de 8g derivado del primer saco de canicas. Peso de cada canica 1 2 4 5 8 10 20 40 Número de canicas en el saco 6 40 20 10 8 5 4 2 1 Cuadro 10. Factibilidad del resultado SI SI SI SI SI NO* NO* NO* 60 Si cada canica pesa 1 gramo: Para el saco uno tenemos 8 canicas. Para el saco dos tenemos 14 canicas. Para el tercer saco tenemos 18 canicas. Para el cuarto saco tenemos 20 canicas. Para el quinto saco tenemos 26 canicas. Para el sexto saco tenemos 40 canicas. Si cada canica pesa 2 gramos: Para el saco uno tenemos 4 canicas. Para el saco dos tenemos 7 canicas. Para el tercer saco tenemos 9 canicas. Para el cuarto saco tenemos 10 canicas. Para el quinto saco tenemos 13 canicas. Para el sexto saco tenemos 20 canicas. Otra posible solución a este problema es observar los números de los pesos en cada uno de los sacos de canicas y determinar si existe alguna relación entre ellos. Si se obtiene la diferencia que existe entre estos valores tenemos la tabla 11, p. 61. Analizando los incrementos nos damos cuenta de que el menor de ellos es de 2 g por lo que debe existir un número entero positivo de canicas que proporcione dicha cantidad. Elaboremos, entonces, la tabla 12, p. 61. Llegando nuevamente a los valores de 1/2 g, 1 g y 2 g que se habı́an obtenido con el método anterior sólo que este método presenta la ventaja de que puede aplicarse aún cuando las mediciones de los pesos no sean números enteros como se presenta a continuación, en el ejemplo número dos. Los valores que son las tres posibles respuestas pueden también escribirse como: Primera posibilidad: mc = 21 g ó mc = 0.5g ó mc = 2−1 g. Segunda posibilidad: mc = 1g ó mc = 20 g. Tercera posibilidad: mc = 2g ó mc = 21 g. Ejemplo 2: Consideremos ahora que las mediciones en cada uno de los sacos que contienen las mismas canicas del ejemplo uno son 2.82, 6.58, 10.34, 14.1, 17.86 y 23.5 gramos respectivamente y que tenemos que determinar la masa y el número de canicas de cada uno y que además concuerden con los resultados del ejemplo uno. Habrá que establecer nuevamente lo siguiente: Restricción 1: el número de canicas en los sacos debe ser un número entero positivo. ContactoS 75, 53–63 (2010) Masa propuesta Masa propuesta Diferencia de valores Ejemplo 1 Ejemplo 2 1g 0.94 g 0.6 g 0.5 g 0.47 g 0.3 g Cuadro 15. A continuación si se obtiene la diferencia que existe entre estos valores tenemos la tabla 13, p. 61. Analizando los incrementos nos damos cuenta de que el menor de ellos es de 3.76 g por lo que debe existir un número entero positivo de canicas que proporcione dicha cantidad. Hay que hacer notar que en el primer saco solamente se tienen 2.82 g por lo automáticamente se tiene la restricción de que una canica no puede pesar más de esa cantidad. Restricción 2: mcanica ≤ 2.82 g Elaboremos entonces, la tabla 14, p. 61. De los resultados de la tabla se puede verificar que las cantidades que son enteros positivos para el número de canicas dentro de los sacos son: Primera posibilidad: mc = 0.94 g. Segunda posibilidad: mc = 0.47 g. Con lo cual al comparar con los resultados del ejemplo número uno, tenemos que, la masa de cada una de las canicas debe ser de 0.47g, ya que si analizamos la diferencia entre ambos problemas tenemos que la diferencia es menor, tabla 15, p. 60. Ejemplo 3: Una vez realizada la metodologı́a para el caso de las canicas y los sacos podemos extrapolar el procedimiento al problema de la determinación de la carga del electrón con los datos obtenidos por medio del experimento de Millikan, los datos son los de la tabla 16, p. 62. A continuación si se obtiene la diferencia que existe entre estos valores tenemos la tabla 17, p. 62. Por lo que la menor diferencia es de 3.2×10−19 C, con lo cual habrá que determinar ¿Cuántos electrones son necesarios para generar tal carga? véase tabla 18, p. 63. Lo cual establece que los posibles valores para la carga eléctrica del electrón son: 1.6 × 10−19 C y 0.8 × 10−19 C. Sin embargo Millikan nunca encontró valores de carga eléctrica menores a 1.6 × 10−19 C, por ¡A cuenta gotas! Parte II. Ma. del Pilar Beltrán S., René Gerardo Rodrı́guez A. Peso de los sacos de canicas 8g 14 g 18 g 20 g 61 26 g 40 g Diferencia entre cada uno de los sacos que contienen las canicas. ∆m ∆m1 = (14 − 8)g ∆m2 = (18 − 14)g ∆m3 = (20 − 18)g ∆m4 = (26 − 20)g ∆m5 = (40 − 26)g ∆m ∆m1 = 6g ∆m2 = 4g ∆m3 = 6g ∆m4 = 2g ∆m5 = 14g Cuadro 11. Masa propuesta de cada una de las canicas Número de canicas que contribuyen al valor del incremento de 2 g Número de canicas en el saco 1 Número de canicas en el saco 2 Número de canicas en el saco 3 Número de canicas en el saco 4 Número de canicas en el saco 5 Número de canicas en el saco 6 mc = 2g 1 4 7 9 10 13 20 mc = 1g 2 8 14 18 20 26 40 mc = 12 g 4 16 28 36 40 52 80 Cuadro 12. Peso de los sacos de las canicas 2.82 g 6.58 g 10.34 g 14.1 g 17.86 g 23.5 g Diferencia entre cada uno de los sacos que contienen las canicas ∆m ∆m1 = (6.58 − 2.82) ∆m2 = (10.34 − 6.58) ∆m3 = (14.1 − 10.34) ∆m4 = (17.86 − 14.1) ∆m5 = (23.5 − 17 − 86) ∆m ∆m1 = 3.76 ∆m2 = 3.76 ∆m3 = 3.76 ∆m4 = 3.76 ∆m1 = 3.76 Cuadro 13. Número de canicas que contribuyen al valor del incremento de 2 g Número de canicas en el saco 1 Número de canicas en el saco 2 Número de canicas en el saco 3 Número de canicas en el saco 4 Número de canicas en el saco 5 Número de canicas en el saco 6 mc = 3.76 2 = 1.88 2 3 2 = 1.5 7 2 11 2 = 5.5 15 2 19 2 25 2 mc = 3.76 3 = 1.2533 3 9 4 = 2.25 21 4 33 4 = 8.2 45 4 mc = 3.76 4 = 1.88 4 3 mc = 3.76 5 = 0.752 5 15 4 mc = 3.76 6 = 0.6266 6 9 2 mc = 3.76 7 = 0.5371 7 21 4 mc = 3.76 8 = 0.47 8 Masa propuesta de cada una de las canicas 6 = 3.5 = 5.25 7 = 3.75 = 4.5 = 5.25 11 35 4 = 8.7 21 2 = 10.5 49 4 55 4 = = = 7.5 = = 9.5 57 4 = = 12.5 75 4 = 11.25 14.25 18.75 15 19 25 75 4 = 95 4 = 125 4 = 13.75 18.75 23.75 31.25 33 2 45 2 57 2 75 2 77 4 = 16.5 = 105 4 = 225 = 133 4 = 28.5 = 175 4 = 37.5 12.25 19.25 26.25 33.25 43.75 14 22 30 38 50 Cuadro 14. = 62 ContactoS 75, 53–63 (2010) q = 3.2 × 10−19 q = 6.4 × 10−19 q = 8.0 × 10−19 q = 11.2 × 10−19 Cuadro 16. Valores obtenidos en las mediciones q = 3.2 × 10−19 C q = 6.4 × 10−19 C q = 8.0 × 10−19 C q = 11.2 × 10−19 C Diferencia entre cada uno de los sacos que contienen las canicas −19 ∆q = (6.4 × 10 − 3.2 × 10−19 ) ∆q1 = 3.2 × 10−19 ∆q = (8.0 × 10−19 − 4.8 × 10−19 ) ∆q = (6.4 × 10−19 − 3.2 × 10−19 ) ∆q3 = 3.2 × 10−19 ∆q4 = 3.2 × 10−19 Cuadro 17. lo que la segunda opción queda descartada y se tiene el resultado de: qelectrón = 1.6 × 10−19 C Propuesta adicional: 1. Se les indica a los estudiantes que elaboren un listado de materiales a partir de los cuales pueden obtener datos similares a los obtenidos en los ejemplos de las canicas para describir el experimento de Millikan. 2. De los objetos propuestos por los estudiantes se elige, el que presente las mejores condiciones experimentales. 3. Se permite a los estudiantes conformar equipos de tres personas y realizar las mediciones experimentales, reportando cada una de las masas para poder iniciar con la metodologı́a antes expuesta. 4. Se les pide determinar la masa y el número de objetos, al igual que se hizo con las canicas. 5. Se analizan los resultados obtenidos, ası́ como la valoración del procedimiento experimental para obtenerlos, si los valores no son satisfactorios se debe evaluar las causas y confrontar las soluciones por parte de cada uno de los equipos. 6. Se contrasta la metodologı́a experimental de cada uno de los equipos con los pasos que se describen en el método cientı́fico y se sacan las conclusiones pertinentes. 7. Por último, se les aplica un cuestionario de reflexión, elaborado por el profesor de la asignatura en la cual se trata de evaluar el impacto de la estrategia didáctica en la adquisición de conocimiento. 4. Conclusión Indudablemente el experimento de Millikan para la determinación de la carga del electrón es un ejemplo de la ingeniosa creatividad del hombre, ası́ pues es indudable que debe pertenecer al selecto grupo de los experimentos más bellos de la Fı́sica. Sin embargo la conducta de R. Millikan de ninguna manera puede ser aceptable, no por el hecho de su acertada eliminación de datos no relevantes en su artı́culo publicado en 1913, sino por no haber dado el crédito que le correspondı́a a aquellos que contribuyeron a su éxito y reconocimiento. Desde el punto de vista académico el experimento de las gotas de aceite de Millikan presenta una metodologı́a para poder entender una manera de obtener el resultado de que la carga elementarı́a del electrón, estudiando a la vez en la parte matemática, números enteros, números racionales, notación cientı́fica, incrementos, etc., en el área de la fı́sica entender el electromagnetismo, la reactividad, los rayos X, la carga eléctrica, etc., y finalmente en el área de la quı́mica, el átomo, el electrón, la composición quı́mica y los modelos atómicos . Es importante también señalar la conveniencia de utilizar la historia de la ciencia como un instrumento en la enseñanza de asignaturas como matemáticas, fı́sica o quı́mica, quedando como una propuesta factible y concreta para su uso en la enseñanza en el nivel medio superior. Otro aspecto importante que se puede abordar con esta estrategia didáctica es el hecho de poder presentar de una manera totalmente diferente a lo que tradicionalmente se encuentra en los libros de texto el conocido “método cientı́fico” y abordar las diferentes aristas desde los diferentes puntos de vistas de los cientı́ficos aquı́ mencionados. ¡A cuenta gotas! Parte II. Ma. del Pilar Beltrán S., René Gerardo Rodrı́guez A. Carga de cada uno de los electrones Número de electrones 63 Número de electrones en la gota 1 Número de electrones en la gota 2 Número de electrones en la gota 3 Número de electrones en la gota 4 mc = 3.2×10 2 2 = 1.16 × 10−19 2 4 5 7 mc = 3.2×10 3 3 = 1.06 × 10−19 3.01 6.03 7.54 10.56 mc = 3.2×10 4 = 0.8 × 10−19 4 8 10 14 −19 −19 −19 4 Cuadro 18. Y por último, pero no menos importante permite realizar un análisis con los estudiantes acerca de los valores y conductas de las personas y en especial de los cientı́ficos. Los valores éticos pueden ser abordados hasta el detalle deseado, estableciendo un vı́nculo directo con el quehacer diario de cada uno de los estudiantes y su manera de proceder en su vida diaria. 5. Bibliografı́a 1. Cantoral, R. (2003). Desarrollo del pensamiento matemático (pp. 5–7). México: Trillas. 2. Cantoral, R. (2008). Investigaciones sobre enseñanza y aprendizaje de las matemáticas, Un reporte iberoamericano. (pp. 41–53) Ed. Dı́az de Santos. 3. Crease, R. (2006). Ver el electrón. El prisma y el péndulo. (pp. 153–169). Barcelona: Crı́tica. 4. Bruce, C. (1997). La paradoja de Einstein y otros misterios de la ciencia resueltos por Sherlock Holmes. (pp. 65–79). España: Granica. 5. Garritz, A. y Chamizo, J. A. (1994). Quı́mica. Wilmington, Delaware, USA: Addison–Wesley Iberoamericana. La segunda edición de este libro es (2001) Tú y la quı́mica. México: Pearson Educación. 6. Becker P., History and progress in the accurate determination of the Avogadro constant, Rep. Prog. Phys. 64 (2001) 1945–2008. 7. Carmona F. J. E., Gallego B. H. A., Orozco G. H., Automatización y control del experimento de la gota de aceite de Millikan, Scientia et Technica, año XIII, 37 (2007) 545–549. 8. Córdova J. L., El número de Avogadro N0 = 6.023 × 1023 . Contactos 3 y 4, vol. 1, 1984. 9. The Historical and Conceptual Development of the Electron and Measuring the Fundamental Electric Charge. Development of Ideas in Physical Science. Fall 2005. Professor Etkina cs El enigma de la biodiversidad y los bichos en el jardı́n Rafael Guzmán Mendoza* sos que hacen funcionar a los ecosistemas, la unidad estructural de toda la vida en la Tierra. En este sentido, los procesos biogeoquı́micos, como el ciclo del agua, del carbono o del nitrógeno, han sido ampliamente estudiados, pero el fenómeno de la biodiversidad, entraña desafı́os aún más apasionantes como propiedad funcional. Recibido: 10 de noviembre de 2009. Aceptado: 20 de enero de 2010. Abstract Insects are one of the oldest groups of organisms in the world. In terrestrial ecosystems are the most abundant and diverse. Maintain complex relationships between them and abiotic ecosystem factors, so that regulate the functional properties of environments as the flow of nutrients and primary productivity. It can affect in many key areas like the rate of decomposition of organic matter and the physiognomy of the landscape. However, little is known about this group of animals both in taxonomic and ecological aspects. In Mexico, the entomological study is a branch of biology expanding with many fascinating phenomena to be discovered. El término “biodiversidad”señala toda la variabilidad de seres vivos sobre el planeta. En un sentido amplio, puede ser dicho que la diversidad biológica es desde el número de especies presentes, hasta la heterogeneidad representada en las comunidades bióticas, pasando desde luego, por las interacciones que ocurren a múltiples escalas espaciales y temporales desde milı́metros al planeta entero y de minutos a millones de años, y a diferentes niveles de organización ecológica (del individuo a la región). La biodiversidad es entonces, un proceso que es producto de múltiples factores, donde ninguno es mutuamente excluyente y todos juegan un papel importante y en el que el azar y las contigencias históricas, forman parte fundamental de la composición actual de las comunidades que conforman a los ecosistemas. Palabras clave: biodiversidad, insectos, ecosistemas. Resumen Los insectos son uno de los grupos de organismos más antiguos del mundo. En los ecosistemas terrestres son de los más abundantes y diversos. Mantienen complejas relaciones entre ellos y los factores abióticos del ecosistema, de manera que regulan las propiedades funcionales de los ambientes como el flujo de nutrientes y la productividad primaria. Lo que puede derivar en aspectos clave como la velocidad de descomposición de la materia orgánica y la fisonomı́a del paisaje. Sin embargo, poco se sabe de este grupo de animales tanto en términos taxonómicos como en aspectos ecológicos. En México, el estudio entomológico es una rama de la biologı́a en expansión con muchos fenómenos fascinantes aún por descubrir. Para entender cómo es que funcionan los ecosistemas y cómo es que se modifican sus propiedades funcionales, se han utilizado muchos modelos, sobre todo en plantas, donde se ha manipulado la biodiversidad. Algunos autores como Shahid Naeem, han encontrado que modificaciones en la composición de la comunidad de plantas, que son los productores primarios, es decir, los que se encargan de capturar la energı́a luminosa del sol y transformarla en tejidos vivos a través de la fotosı́ntesis, influye significativamente sobre la productividad primaria neta disponible para los consumidores. Sin embargo, poco ha sido explorado el efecto de los consumidores sobre las propiedades funcionales del ecosistema como la productividad, en donde se ha propuesto que las comunidades de estos organismos, pueden llevar a los ecosistemas hacia estados alternativos (Schmitz, 2004) donde, bajo condiciones ambientales similares, diferentes parches pueden presentar diferencias en la estruc- Introducción Desde hace muchos años, los ecólogos han intentado descifrar los misterios que encierran los proce* Estudiante de Doctorado en Ciencias Biológicas de la UAM. División de Desarrollo Sustentable, Universidad Intercultural del Estado de México División de Desarrollo Sustentable, Lib. Francisco Villa s/n Col. Centro, San Felipe del Progreso 50640, Estado de México e-mail: rgzmz@yahoo.com.mx 64 El enigma de la biodiversidad y los bichos en el jardı́n. Rafael Guzmán Mendoza. 65 tura de las comunidades dependiendo de la dinámica particular de cada uno de ellos. ca, hace de tres a cuatro billones de años (Deamer, 2008). En el presente ensayo, se abordarán aspectos importantes sobre el entendimiento y definición del concepto de biodiversidad, ası́ como elementos clave sobre la importancia funcional de los insectos sobre las propiedades funcionales del ecosistema. Se exponen las razones del por qué México es un paı́s diverso y la escasez del conocimiento de su riqueza entomológica. El fenómeno que llamamos vida, tiene propiedades complejas que hacen difı́cil una definición. Por ejemplo, un ser vivo es capaz de replicarse a sı́ mismo mediante la reproducción, pero la reproducción es un evento que ocurre de dos formas: asexual y sexual. La conducta, la competencia, la anatomı́a, la fisiologı́a y la selección sexual, son sólo algunos de los factores biológicos involucrados. Los seres vivos son capaces de mantenerse en el tiempo, algunos incluso con el potencial de la eternidad, como los árboles por un lado que presentan un crecimiento indeterminado y las bacterias y hongos por otro, que forman estructuras de resistencia contra cambios ambientales desfavorables, llamadas quistes. La adaptación y la evolución se convierten en la historia natural de los linajes que surgen a partir de ancestros, pero hay grupos cuyos orı́genes pueden estar dados por más de uno. Los organismos vivos son interdependientes entre sı́, lo que significa interacciones de diversos tipos como competencia, simbiosis, depredación, mutualismo y parasitismo, entre otras. La respiración es otro proceso asociado con la vida, aparentemente sencillo, ya que únicamente hay dos tipos de intercambio gaseoso (anaeróbico y aeróbico). Sin embargo, sus implicaciones sobre el curso de la vida en la Tierra, han sido profundas. La aparición de oxı́geno molecular en nuestro planeta, hace 2.4 billones de años, es considerada como la causa responsable de la diversidad biológica actual, y del cambio en el curso de la evolución de la vida (Fontúrbel y Molina 2004). Por otro lado, el flujo de metano, producto de la respiración anaerobia, pudo ser un factor importante en la modulación de las condiciones climáticas de la Tierra primigenia y en épocas relativamente recientes. De esta manera, las especies presentes en un espacio y un tiempo determinados, son productos complejos de historia, interacciones y azar. ¿Qué es la biodiversidad? El problema de la biodiversidad parte necesariamente del origen mismo de la vida. El experimento clásico de Miller (1953), muestra cómo elementos orgánicos se sintetizan a partir de sustancias inorgánicas a través de fuentes de energı́a, como el calor y los rayos ultravioleta, condiciones que se han considerado necesarias para nuestro planeta durante sus primeras fases de desarrollo geológico y en donde el agua ha sido un precursor ineludible. Otros investigadores argumentan la sı́ntesis de moléculas orgánicas prebióticas fuera del planeta Tierra, como en las nebulosas. Considerando el sesgo en el experimento de Miller (1953) para explicar la evolución quı́mica, por el criterio de selección de las sustancias precursoras, parecerı́a ser que en un principio, la materia prima que dio origen a la vida, llegó del espacio. La evidencia de una atmósfera primitiva rica en dióxido de carbono (CO2 ) y nitrógeno (N2 ), sugiere condiciones poco viables para una sı́ntesis suficiente de moléculas orgánicas prebióticas, lo que refuerza la hipótesis de fuentes externas de elementos orgánicos al planeta o bien una atmosfera rica en CO (Miyakawa et al., 2002). Sin embargo, la sı́ntesis de moléculas orgánicas no significa el origen de seres vivos; conceptualmente todavı́a hay una gran brecha entre sustancias orgánicas simples y moléculas orgánicas complejas con actividad biológica útil, como los aminoácidos y las proteı́nas. Deamer (2008), menciona que el constante flujo de materia y energı́a dirigió las reacciones orgánicas hasta incrementar la complejidad y variedad de compuestos poliméricos (ácidos grasos, aminoácidos, proteı́nas, etc.), hasta conformar ensambles microscópicos que en un escenario heterotrófico y de selección quı́mica, ganaron mayor complejidad al capturar energı́a y pequeñas moléculas del ambiente. La vida comenzó cuando algunos ensambles encontraron el camino no sólo para crecer, sino también para incorporar funciones catalı́ticas (enzimas que regulan las reacciones quı́micas en los seres vivos) y de información genéti- La variabilidad de la vida no sólo surge como producto de la vida misma. Elementos abióticos están estrechamente vinculados. Por ejemplo, la tectónica de placas y la deriva continental han tenido mucho que ver en procesos de especiación (origen de especies nuevas). Con la formación de montañas, se modifican los climas, aumentando la heterogeneidad fı́sica del ambiente y promoviendo la creación de mosaicos ambientales diversos al aumentar la variabilidad vegetal y climática. En este sentido, se ha sugerido una estrecha relación entre estos ele- 66 mentos (orogenia, clima, vegetación y fauna) que incrementan la riqueza de especies. Los procesos de especiación también son complicados y sujetos a debate, sobre todo en lo que respecta a la importancia en términos de su frecuencia y efectividad para originar especies nuevas. La erupción de un volcán o el espacio abierto en el dosel por un rayo en una tormenta en el Amazonas, deja espacios ecológicos vacı́os que las especies van ocupando y donde, en el transcurso del tiempo, se va modificando la identidad de los ocupantes por medio de un proceso llamado sucesión ecológica. La intensidad y la cantidad de energı́a solar que incide sobre la superficie terrestre es un elemento importante que explica la variabilidad de la vida, porque incrementa el número de hábitats y acelera los procesos evolutivos, además, revela él por qué de la distribución desigual de la riqueza biológica en el mundo. Pero algo más perturbador surge ante esta complejidad de interacciones bióticas y abióticas, alrededor de la biodiversidad y es que, en este mundo cambiante, nada parece estar en equilibrio y ninguna especie, por lo tanto, esta óptimamente adaptada. Otra fuente de conflicto para el entendimiento de la biodiversidad, es la unidad fundamental que se utiliza para medirla, la especie. A pesar de que la población es un conjunto de individuos que comparten caracterı́sticas comunes, el concepto de especie es todavı́a un artefacto difı́cil de construir. Lo anterior se debe a la enorme variabilidad genética, fenotı́pica, de hábitats y nichos que una misma especie puede presentar, por ejemplo, la salamandra dorsiroja de bosque (Plethodon cinereus) a lo largo de su área de distribución de bosque y tierras bajas, es posible encontrar subespecies; los insectos, con un ciclo de vida complejo pueden estar ocupando diferentes nichos y hábitats a lo largo de su vida; muchas especies vegetales como los encinos, son susceptibles a procesos de hibridación. Lo anterior, ha generado una gran cantidad de conceptos para definirla, todos ellos limitados, por lo que ninguno puede llegar a describir cabalmente lo que es la especie. A pesar de esta adversidad inherente a la confusión de la vida misma, los ecólogos han tomado este desafı́o y generado múltiples modelos para estimar la riqueza biológica. El número de especies presentes en un espacio y un tiempo determinado, nos habla de riqueza. La forma en cómo se reparten los re- ContactoS 75, 64–68 (2010) cursos dentro de la comunidad, en términos de las abundancias de las especies presentes, revela la equitatividad, la dominancia y la heterogeneidad; en este sentido se han construido modelos matemáticos complejos como los ı́ndices de Shannon y Simpson. ¿Los insectos, herramientas útiles para el estudio de la relación biodiversidad-ecosistemas? Los insectos conforman el grupo más abundante y biodiverso del mundo, pero además, uno de los menos conocidos. Desde principios del siglo pasado, los cientı́ficos han intentado conocer el número total de especies de estos animales. La dificultad para llegar a tal número se debe a la historia evolutiva y a la biologı́a del grupo. Los insectos existen desde hace 400 millones de años, ecológicamente ocupan nichos importantes que regulan los flujos de materia y energı́a de los ecosistemas terrestres. En un estudio realizado en el desierto de Chihuahua, fueron cuantificadas cerca de 180,000 hormigas granı́voras forrajeando en una hectárea, y dado que las semillas son parte fundamental de su alimentación, las convierte en un factor primordial en la dinámica de la comunidad de plantas, al modificar la abundancia, la composición y la distribución de las especies vegetales; algunas otras especies, por su conducta de construir galerı́as y transportar materia orgánica de la superficie hacia el interior del suelo, son capaces de modificar las propiedades fı́sicas tales como porosidad, retención de agua y estructura del suelo; y propiedades quı́micas, como las concentraciones de nitrógeno (N) y potasio (K). Es por ello que se les considera “las pequeñas cosas que hacen funcionar al mundo” y son verdaderos ingenieros ecológicos, dado que con su actividad ecológica pueden llevar a los ecosistemas terrestres, hacia estados alternos, donde aspectos funcionales del ecosistema puedan verse modificados, como la productividad primaria, al influir directamente sobre la comunidad vegetal y el paisaje (Schmitz, 2004). Pueden ser analizadas caracterı́sticas adicionales que resalten la importancia de los insectos para el mundo en general y en particular para la humanidad. Es bien sabido el problema de la pérdida de biodiversidad a nivel global; la fragmentación y la pérdida del hábitat, se sitúan como las principales amenazas de la diversidad biológica mundial. En la actualidad, la humanidad ha convertido cerca de 4,973 millones de hectáreas de la superficie terrestre en zonas agrı́colas, a expensas de los hábitats naturales. A pesar de lo apremiante del problema ambien- El enigma de la biodiversidad y los bichos en el jardı́n. Rafael Guzmán Mendoza. 67 tal global, las consecuencias ecológicas de este proceso son poco entendidas y muchas están sujetas a debate, aunque es claro que, la pérdida de biodiversidad, perjudica el funcionamiento y la sustentabilidad de los ecosistemas, ası́ como los servicios ambientales que proporciona, por ejemplo, el control biológico, la producción de alimentos, la regulación de gases invernadero y el abastecimiento de agua, entre otros. vir como indicadores de cambios ambientales rápidos. Desde el punto de vista técnico, los insectos y artrópodos en general, pueden ser fáciles y menos costosos de medir que los vertebrados, de manera que métodos pasivos de muestreo, pueden capturar grandes cantidades de individuos y de especies en cortos periodos y la preparación de los ejemplares implica menor tiempo de lo que se invierte con los vertebrados. Los desacuerdos en este tema cientı́fico se encuentran inmersos en el diseño de los experimentos por un lado, y el grupo taxonómico con el que se esté trabajando, por otro. Duffy (2003) enfatiza los sesgos en los que se encuentran los resultados de estudios experimentales al trabajar únicamente con la comunidad vegetal, dejando de lado a los consumidores. Además, los resultados de los experimentos se encuentran sujetos a la temporalidad, es decir, en el largo plazo (más de dos años), los resultados podrı́an cambiar por efecto de las interacciones como la competencia. El poco control que se pueda llegar a tener sobre variables del ambiente fı́sico, puede enmascarar la influencia de las especies sobre la funcionalidad de los ecosistemas. A pesar de la enorme importancia ecológica de los insectos, pocos estudios han sido realizados con el fin conocer cómo la biodiversidad de este taxón está relacionada con procesos clave del ecosistema, como la descomposición, el ciclo de nutrientes y la productividad primaria y más aún, muchos grupos están todavı́a lejos de ser conocidos en sus aspectos básicos. En este panorama, los insectos, como algunos otros taxa, pueden ser una herramienta útil de evaluación del estado de conservación de un ecosistema. Lomov et al. (2006) encontraron que las mariposas son un grupo útil como indicadores de monitoreo de la restauración ambiental. Lo anterior, debido a la especificidad de plantas hospederas; los requerimientos del hábitat y la facilidad en la identificación a nivel de especie de estos lepidópteros. Longcore y Novotny (2000), encontraron resultados similares al evaluar la composición de la comunidad de artrópodos en hábitats con diferente grado de conservación y que la estructura de la comunidad refleja el proceso de perturbación del hábitat. El conocimiento del proceso de la fragmentación y degradación del ambiente, reflejada en la estructura de las comunidades de insectos puede ser importante para evaluar la restauración ecológica del ambiente (Longcore y Novotny, 2000). Otras propiedades han sido señaladas para considerar a los insectos como bioindicadores de la restauración ambiental, entre las que se pueden mencionar: la distribución microgeográfica, que podrı́a reflejar condiciones de heterogeneidad a escalas muy finas del hábitat, en donde muchos otros grupos, como los vertebrados, podrı́an ser insensibles; el alto recambio y las tasas de crecimiento de muchas especies, podrı́an ser- ¿Por qué México es biodiverso? Existen varias razones por las que México es considerado uno de los paı́ses más ricos en diversidad biológica del mundo, con alrededor de 108,000 especies (CONABIO, 2008). De hecho, las principales cadenas montañosas, son consideradas como “hotspots” por su alto nivel de endemismos; por ejemplo, son estimadas poco más de 3,900 especies vegetales endémicas. Los factores históricos han jugado un papel importante en la conformación de la biota actual, el levantamiento del istmo de Panamá, que unió Sudamérica con Norteamérica; la dinámica geológica en la conformación de cadenas montañosas que promovieron movimientos de flora y fauna que convergen dentro del territorio nacional, que junto al accidentado terreno por las montañas, originaron microhábitats que se convirtieron en centros de origen de muchos taxa. El origen de las especies endémicas y de la riqueza biológica en general, se debe a un conjunto de factores climáticos, como las glaciaciones del Pleistoceno; el surgimiento de cadenas montañosas relativamente recientes como el Eje Neovolcánico Transversal; organismos lo suficientemente adaptables a las condiciones ambientales cambiantes y con la capacidad de migrar, en algunos casos. Todo ello en un marco de historia natural. Desafortunadamente, poco se sabe de esta extraordinaria diversidad biológica. Lo que se puede llegar a precisar es que en el paı́s se estiman cerca de 18,000 especies de flora vascular. De acuerdo a lo anterior, los insectos podrı́an estar estrechamente rela- 68 cionados con esta riqueza florı́stica y covariar positivamente, como sugiere su tendencia evolutiva, en cuanto a su diversificación a partir del origen de las plantas con flor, y como ha sido observado de manera consistente en diferentes circunstancias, la estrecha relación entre la diversidad de la comunidad de insectos y el estado de conservación de la vegetación en los ecosistemas. En este sentido, el número de especies de insectos para México es de 47,800 especies (CONABIO, 2008), con un registro confuso en cuanto a los endemismos ya que, Morrone y Márquez (2008), reportan 8,000 especies endémicas considerando otros artrópodos como los arácnidos, lo que puede aumentar significativamente al incrementar el esfuerzo de muestreo en regiones todavı́a no exploradas dentro del territorio nacional. Los bichos en el jardı́n Desde el palco donde escribo esto, puedo ver a un grupo de Homo sapiens en el patio jugando y trabajando, a un lado de ellos se encuentra un pequeño jardı́n con una extraordinaria riqueza vegetal, las flores brillan e invitan a los polinizadores a consumir el néctar, entre las flores y los tallos de los árboles, acechan los depredadores, arañas sigilosas y pacientes esperan en sus redes, mientras que otras escondidas observan en tercera dimensión a las presas potenciales, granı́voros y detritı́voros caminan sobre el suelo húmedo. Una red de complejas interacciones bióticas se teje en un pequeño espacio y un breve tiempo, con diversas y complejas historias evolutivas, organismos con diferente origen y un pasado profundo, han coincidido en un momento tan corto a principios del presente. Agradecimientos El presente estudio ha sido posible gracias al apoyo de la beca de posgrado del CONACyT. Al Dr. José A. Zavala-Hurtado del Departamento de biologı́a de la UAM y a la Dra. Gabriela CastañoMeneses del Laboratorio de Ecologı́a y Sistemática de Microatrópodos UNAM, quienes proporcionaron importantes comentarios al presente escrito. A Josefina Caltzonci Marı́n por su apoyo en el trabajo de campo y de laboratorio ContactoS 75, 64–68 (2010) Bibliografı́a 1. CONABIO, 2008. www.biodiversidad.gob.mx/ pais/capitalNatMex.html. Fecha de consulta Noviembre 2009 2. Deamer, D. W., Origin of life How leaky were primitive cells?, Nature, 454, pp. 37-38, 2008. 3. Duffy, J. E., Biodiversity loss trophic skew and ecosystem functioning, Ecology Letters, 6, pp. 680-687, 2003. 4. Fontúrbel, R. F., y Molina, A. C., Origen del agua y el oxı́geno molecular en la Tierra. Elementos Ciencia y Cultura, 11, pp. 3-9, 2004. 5. Lomov, B., Keith, D. A., Britton, D. R., y Hochuli, D. F., Are butterflies and moths useful indicators for restoration monitoring? A pilot study in Sydney’s Cumberland plain woodland. Ecological Management & Restoration, 7, pp. 20-210, 2006. 6. Longcore ,T., y Novotny, V., Arthropod monitoring for fine scale habitat analysis: a case study of the El Segundo sand dunes. Environmental Management, 25, pp. 445-452, 2000. 7. Miller, S. L., A production of amino acids under possible primitive earth conditions. Science, 117, pp. 528-529, 1953. 8. Miyakawa S., Yamanashi, H., Kobayashi, K., Cleaves, H. J., y Miller, S. L., Prebiotic synthesis from CO atmospheres: implications for the origins of life. Proceedings of the National Academy of Sciences, 99, pp. 14628-14631, 2002. 9. Morrone J. J., y Márquez., J., Biodiversity of mexican terrestrial arthropods (Arácnida and Hexapoda): a biogeographical puzzle. Acta zoológica Mexicana, 24, pp. 15-41, 2008. 10. Schmitz, O. J., Perturbation and abrupt shift in trophic control of biodiversity and productivity. Ecology Letters, 7, pp. 403-409, 2004. cs Noticias Breves Alma E. Martı́nez Licona Depto. de Ing. Eléctrica. La NASA lanza una sonda para desvelar los secretos del Sol Fuente: http://www.noticiasciencias.com/ 2010/02/la-nasa-lanza-una-sonda-paradesvelar.html vista del interior del astro mediante una especie de ultrasonido. Desde la órbita terreste el SDO recopilará datos durante cinco años y descargará 1.5 terabytes diariamente, el equivalente de 500,000 canciones en un iPod, según informó Elizabeth Citrin directora del proyecto. La agencia espacial estadounidense NASA ha lanzado este jueves una nueva y potente sonda solar para desvelar más secretos sobre el Sol, cuyas tormentas afectan al clima terrestre. Con la misión del Solar Dynamics Observatory (SDO), los cientı́ficos esperan aprender más acerca de cómo los campos magnéticos del Sol afectan al resto del sistema planetario. Un centro de recepción especial administrará la información. Para quienes dispongan de un iPhone habrá una aplicación especial a través de la cual se podrá ver el comportamiento solar en tiempo real tal como lo interpreta el flujo de datos. Dean Pesnell, otro cientı́fico del proyecto, señaló que el proyecto es vital para calcular y predecir los fenómenos solares. Un mayor conocimiento de los cambios meteorológicos en el Sol y su efecto sobre el sistema permitirá, también estar alerta en la Tierra sobre posibles tormentas solares que podrı́an afectar a las redes de energı́a eléctrica y de comunicaciones en todo el planeta. “El Sol afecta nuestras vidas y dependemos cada vez más de la tecnologı́a”, agregó. “Cada vez que contemplamos el campo magnético del sol, es diferente”, añadió. Un océano bajo Encelado Fuente: http://www.noticiasciencias.com/ A las 16:23 (hora peninsular española) el cohete Atlas V despegó desde la base de Cabo Cañaveral. El lanzamiento estaba previsto para el miércoles pero el fuerte viento que soplaba impidió su despegue. La sonda Cassini ha recopilado nuevos datos que parecen confirmar la teorı́a sostenida por algunos cientı́ficos que aseguran que bajo la superficie helada de una de las lunas de Saturno, “Encélado”, se oculta un gran cuerpo de agua lı́quida. En concreto, se han detectado moléculas de agua con carga negativa en la atmósfera del satélite, un hallazgo que respalda esta hipótesis. El observatorio volante, el primero del programa Living with a Star (viviendo con una estrella), examinará durante 24 horas al dı́a y siete dı́as por semana toda la actividad oscilante del Sol y con ello ayudará a entender mejor el llamado “clima espacial”. Según recoge la BBC, estas últimas observaciones fueron realizadas a partir del espectrómetro de plasma de la sonda (CAPS), un instrumento que se utiliza para obtener datos sobre el medio ambiente magnético de Saturno, que mide su densidad, la velocidad de flujo y la temperatura de los iones y electrones que capta el mecanismo. Cada diez segundos, el SDO capturará una imagen del astro en ocho longitudes de onda con una definición de 16 megapı́xeles. El satélite vigilará además las radiaciones ultravioletas y las oscilaciones del campo magnético del Sol y obtendrá una 69 70 ContactoS 75, 69–72 (2010) las de combustible y en el control de la captura y liberación de hidrógeno. Además, la Cassini ha detectado sodio en las plumas (la forma de las sales disueltas que aparece en cualquier masa de agua lı́quida) que habı́an estado en contacto con la roca de profundidad. “Las moléculas de agua que aparecen en los electrones apoyan nuestras creencias”, explica el investigador del Laboratorio de Ciencias Espaciales del Mullard University College de Londres, Andrew Coates. Nanotecnologı́a: Mejorará nuestra calidad de vida Fuente: http://www.noticiasciencias.com/search/ label/Nanotecnologı́a La nanotecnologı́a —la ciencia que permite manipular la materia al nivel del átomo— mejorará nuestra calidad de vida a mediano plazo. Según un estudio, su aplicación a la industria, especialmente en la electrónica, los transportes o la sanidad será en la próxima década el motor de la próxima revolución industrial. Neumáticos más resistentes a la abrasión, medios de locomoción propulsados por energı́as limpias o pruebas diagnósticas hospitalarias que permitirán detectar patologı́as desde sus comienzos son algunas de estas aplicaciones, que serán visibles antes de 2020. Según el estudio, efectuado por la Fundación OPTI (Observatorio de Prospectiva Tecnológica Industrial), la nanotecnologı́a aplicada al transporte permitirá el uso de vehı́culos con menor peso, ya que la aleación de materiales empleados para su fabricación serán más ligeros, especialmente en chasis y carrocerı́a. Prevista para 2015, permitirá reducir el peso de automóviles y aviones en un 30 %. En la energı́a y el medio ambiente, los nanomateriales resultan cruciales en la implementación de las pi- En la diagnosis de enfermedades, la nanobiotecnologı́a permitirá detectar patologı́as como el cáncer y enfermedades cardiovasculares o neurológicas en su estado más inicial. También regulará la toma de medicamentos mediante la administración continuada e inteligente de las dosis. El estudio destaca también la aplicacián de esta tecnologı́a en sectores como la construcción, la cerámica, el textil o los envases de alimentos. En el primero de estos campos, los nanoaditivos permitirán cementos con propiedades autolimpiantes, antimicrobianas y descontaminantes y nanomateriales avanzados nos protegerán contra incendios y responderán a estı́mulos como la temperatura, la humedad o la tensión para ofrecer mayor confort. Los nanosensores controlarán la seguridad y el buen estado de las estructuras. Las cerámicas incorporarán funciones antideslizantes, autolimpiables, antirrayado, antimicrobianas o efectos térmicos. En el sector textil están previstas fibras más ligeras pero con gran aislamiento térmico, más resistentes al desgaste, a la suciedad, al agua o a las radiaciones ultravioletas. Por último, en el sector del envasado, se conseguirán envases activos que conservarán el producto e informarán al consumidor sobre su estado. Robot submarino con sentido del tacto Fuente: http://www.noticiasciencias.com/search/ label/Tecnologia El robot se sumerge en el mar, navega hasta el cable submarino y realiza las reparaciones precisas, pero el operario que maneja el robot no tiene una tarea fácil. Se trata de un objetivo oscuro y la luz del robot Noticias Breves. Alma E. Martı́nez Licona. no ayuda mucho. Además, las corrientes empujan al robot fuera de la zona de trabajo. 71 El telescopio de La Palma capta una espectacular estrella de neutrones Fuente: http://www.noticiasciencias.com/2010/03/ el-telescopio-de-la-palma-capta-una.html El Gran Telescopio Canarias (GTC), instalado en el Observatorio del Roque de los Muchachos (La Palma), ha obtenido imágenes de una profundidad “sin precedentes” de una estrella de neutrones del tipo magnetar, de las que se conocen seis, según informó este lunes el Instituto de Astrofı́sica de Canarias (IAC). En el futuro, el robot podrı́a encontrar por sı́ mismo su camino hacia el punto donde tiene que actuar. Un sensor le dotará con el sentido del tacto y ayudarle a orientarse en su ambiente submarino de forma autónoma. “Un componente de esta capacidad táctil es un indicador de tensión”, explicó Marcus Maiwald, responsable del proyecto de nuevo robot submarino en el Instituto Fraunhofer de Tecnologı́a, en Bremen (Alemania). “Si el robot encuentra un obstáculo”, explica “el indicador de tensión registra una alteración y la resistencia eléctrica cambió”. El diseño especial del indicador de tensión consiste en que no está adherido, sino impreso en la superficie del robot, lo que significa que se puede aplicar al sensor la curvatura de la superficie del robot. Esta banda impresa es de un grosor de tan sólo diez micrómetros, similar al de un cabello humano. Como resultado, el indicador de tensión puede aplicarse muy cerca y permite al robot identificar con precisión dónde está contactando con un obstáculo. El sensor está protegido de la sal marina mediante una cápsula. Para producir esas indicaciones de tensión, los cientı́ficos atomizan una solución con nanopartı́culas para crear un aerosol. Un sistema de software guı́a el flujo del aerosol a la posición correcta. Dirigiendo el gas en forma de rayo envolvente se asegura que éste no se abra. El IAC indica en un comunicado que la estrella observada tiene como nombre oficial SGR 0418+5729, y explica que las observaciones realizadas desde el Gran Telescopio Canarias no tienen precedentes en el rango óptico para este tipo de objetos y contribuirán a delimitar las propiedades fı́sicas de este cuerpo celeste con campos magnéticos de extrema intensidad. Las estrellas de neutrones se forman cuando estrellas masivas, de entre 10 y 50 veces la masa del Sol, explotan como supernovas al final de su vida, y entre ellas destacan las magnetar, con un campo magnético mil veces más fuerte que las estrellas de neutrones ordinarias, y millones de veces mayor que el campo más intenso que se pueda recrear en un laboratorio terrestre. Concentran una masa comparable a la del Sol La densidad es tan alta que “estos cadáveres estelares concentran una masa comparable a la del Sol dentro de una esfera de apenas 30 kilómetros de diámetro, el espacio ocupado por una gran ciudad”, destaca en el comunicado Paolo Esposito, investigador del Instituto Nacional de Astrofı́sica de Italia que ha liderado el estudio. Explica que los magnetar son los imanes más potentes del Universo, y añade que, debido a su actividad magnética, en estas estrellas se producen fracturas en la corteza exterior que dejan escapar fuga- 72 ContactoS 75, 69–72 (2010) ces e intensos estallidos de luz, en su mayorı́a en forma de rayos gamma de baja energı́a. Estos potentes destellos fueron el rastro seguido por el Gran Telescopio Canarias. Los magnetar han sido estudiados por lo general a partir de sus brillantes emisiones en rayos X, pero se conoce muy poco acerca de sus caracterı́sticas en longitudes de onda ópticas. Tras la detección de una serie de explosiones de SGR 0418+5729 por parte de los satélites de la NASA Fermi y Swift, el equipo de investigadores solicitó al Gran Telescopio Canarias una observación óptica profunda del objeto. La ocasión para observarlo se produjo el 15 de septiembre, cuando el objeto era aún muy luminoso en rayos X. La emisión fue tan débil en el rango óptico que ni siquiera el instrumento Osiris, acoplado al Gran Telescopio Canarias, fue capaz de capturarla, pero la observación permitió a los astrónomos establecer la imagen óptica más profunda de las obtenidas hasta ahora para este tipo de fuente, agrega el IAC. Según el investigador italiano, las observaciones con Gran Telescopio Canarias son clave en la comprensión de cómo y dónde se produce la radiación emitida por los magnetar, y ayudará a aclarar aspectos básicos de la fı́sica de campos magnéticos ultra-fuertes. El equipo que ha participado en el análisis de esta exótica estrella está conformado por cientı́ficos de Italia, España, Francia y Reino Unido, y los resultados del estudio se publicarán en la revista Royal Astronomical Society. SMOS manda las primeras imágenes del ciclo de agua en la Tierra Fuente: http://www.noticiasciencias.com Apenas han transcurrido cuatro meses desde su lanzamiento pero la misión SMOS de la Agencia Espacial Europea (ESA, por sus siglas en inglés) ha obtenido ya sus primeras imágenes. Las instantáneas sobre el brillo de la temperatura servirán para entender las variaciones globales en la humedad de la tierra y en la salinidad del océano para avanzar en el conocimiento de los ciclos del agua. Lanzada el pasado 2 de noviembre, la misión Soil Moisture and Ocean Salinity (SMOS) está proporcionando información sobre el ciclo del agua de la Tierra mediante observaciones globales de la humedad y la salinidad sobre los océanos. Hasta ahora, estos parámetros no habı́an sido medidos desde el espacio y son claves para entender el ciclo de agua y la variabilidad del clima. A través de un mapa consistente de estas dos variables, SMOS avanzará en el conocimiento de los proceso externos entre la superficie de la Tierra y la atmósfera y ayudará a mejorar los modelos del clima y del tiempo. Además, los datos de SMOS tendrán varias aplicaciones en áreas como agricultura y gestión de los recursos del agua. SMOS funciona capturando imágenes sobre el brillo de la temperatura que requieren un proceso para lograr información sobre la humedad de la Tierra y la salinidad del océano. La ESA está ahora en disposición de mostrar los primeros resultados, que son “muy estimulantes”. El director del Proyecto de la ESA, Achim Hahne, señaló que el equipo que lo desarrolla está “extremadamente contento y orgulloso” de ver la transformación real del sistema SMOS en órbita. cs