Boletín El Hijo de El Cronopio Facultad de Ciencias Universidad Autónoma de San Luis Potosí No.62, 24 de enero de 2000 Boletín de información científica y tecnológica de la Facultad de Ciencias Publicación semanal Edición y textos Fís. J. Refugio Martínez Mendoza Cualquier información, artículo o anuncio deberá enviarse al editor e-mail: flash@galia.fc.uaslp.mx Este boletín y números anteriores, pueden consultarse por Internet en la página de la UASLP: http://phobos.dtc.uaslp.mx/publi.html Reiniciamos actividades en este año 2000 deseándoles lo mejor para ustedes y los suyos La Sociedad Mexicana para la Divulgación de la Ciencia y la Técnica Convoca a comunicadores, periodistas, científicos, maestros, estudiantes y toda persona interesada en la divulgación de la ciencia a participar en el Congreso Nacional a celebrarse del 5 al 7 de abril en Morelia, Mich., el cual tendrá como tema central La Divulgación de la Ciencia y la Técnica en el nuevo Milenio. Se podrá participar con exposiciones orales y carteles sobre el tema central del Congreso, presentando estudios y análisis de actividades de divulgación de la ciencia y la técnica, realizadas a través de diversos medios. Las propuestas de ponencias orales y de carteles sobre el tema central, deberán enviarse a más tardar el 12 de febrero del 2000. Recepción de trabajos por correo electrónico o fax: Guadalupe Zamarrón Garza Tels 56 58 78 85, email: zamarron@servidor.unam.mx El Hijo de El Cronopio No. 62 Noticias de la Ciencia y la Tecnología Asistencia digital Un científico de la University of Massachusetts ha desarrollado un ordenador portátil que "se lleva encima". Aunque los ordenadores son cada vez menos voluminosos y pueden ser transportados fácilmente, aún no poseen el nivel de integración adecuado para responder a las tareas diarias de cualquier persona. Precisan de nuestra voluntad para proporcionar información. Andy Fagg, un experto en informática de la University of Massachusetts, sin embargo, ha construido una máquina sofisticada que "se lleva" encima como una prenda de ropa más. Una mini-pantalla de cristal líquido situada frente a uno de los ojos basta para darnos acceso visual a la información que quiera proporcionarnos. Se trata, pues, de un asistente digital, el cual puede ser programado para que "note" el lugar en el que estamos, actuando en consecuencia. Así, si entramos en un supermercado, nos mostrará la lista de la compra. Si vamos a una reunión, preparará los documentos pertinentes y notas sobre las discusiones de la última vez. También se le puede decir que vamos a cocinar un plato determinado, y él nos presentará de inmediato la receta apropiada y los pasos a seguir. Por supuesto, será capaz de actuar como agenda, recordándonos todo lo que debemos hacer durante el día. Y puede servir como puente para conectarnos a Internet. El sistema se ha construido con materiales ya disponibles, y pesa menos de 3 kg. Posee todo tipo de puertos para conexiones con otros dispositivos, un receptor GPS para posicionamiento global, auriculares, etc. Uno de los principales retos es enseñar al ordenador a interrumpirnos en los momentos adecuados. No nos interesa saber cuál es la lista de la compra cuando aún estamos en la oficina, o recibir información visual mientras conducimos nuestro vehículo. Lo importante es que la máquina no nos aburrirá diciendo que hemos olvidado comprar la botella de leche, sino que nos avisará de ello cuando aún estemos en disposición de resolver el problema. Información adicional en: http://www-anw.cs.umass.edu/~fagg/projects/wearables http://www.umass.edu/newsoffice/press/00/0105wearableComp.html Imagen: http://www.umass.edu/newsoffice/photos/faculty/Fagg_Andrew-300.jpg (Andy Fagg y su ordenador portátil.) (Foto: UMass.) Decreciendo Los huesos de los seres vivos tienen la capacidad de crecer hasta un punto óptimo, pero en algunos casos también pueden seguir el camino inverso, un camino que es posible invertir. Cuando los científicos que miden las dimensiones de un determinado tipo de vertebrados repiten la experiencia un cierto tiempo después y descubren que el espécimen ha disminuido su tamaño, la primera explicación que se les ocurre es que se ha producido 650 El Hijo de El Cronopio No. 62 un error durante la medición. Sin embargo, esto no tiene siempre por qué ser así, como demuestran 18 años de estudios y datos obtenidos en las islas Galápagos. Investigadores que estudian las iguanas marinas en dos poblaciones distintas de estas islas han informado que dichos reptiles han reducido su tamaño en unos 6,8 cm (un 20 por ciento de su longitud corporal) en un período de sólo dos años. Al parecer, las iguanas (Amblyrhynchus cristatus) han disminuido su tamaño para incrementar sus posibilidades de supervivencia durante un cambio meteorológico prolongado. La mencionada disminución ya había sido notada en otros momentos (1982-83, 1987-88, 1992-93 y 1997-98), pero se había desestimado como un error de medición. Un seguimiento más cercano ha puesto de manifiesto un claro patrón: los períodos de disminución coinciden con los años en los que ha reinado El Niño, el famoso fenómeno meteorológico. Las iguanas comen algas. Sus islas experimentan habitualmente corrientes frías, ricas en nutrientes, procedentes tanto del oeste como del sur. Pero durante los años de El Niño, las corrientes son más cálidas y las lluvias intensas provocan un incremento de la temperatura del agua. En ese instante, las iguanas se ven obligadas a comer algas marrones, menos digestibles que las habituales algas rojas y verdes. Esto desencadena una disminución del tamaño de los animales, ya que sólo así se harán más delgados, con bocas más pequeñas y adecuadas para la captura de tan diminutas algas. En los años posteriores a El Niño, las iguanas que logran sobrevivir (las que han reducido su tamaño más) comen mucho y engordan, y entonces empiezan a crecer de nuevo. Es decir, las iguanas decrecen hasta alcanzar unas dimensiones bajo las que su posibilidad de supervivencia aumenta. Una disminución de 1 cm puede suponer un incremento del porcentaje de supervivencia en un 10 por ciento, pudiendo llegarse hasta el 35 por ciento. Tan interesante como que los huesos se acorten es que después vuelvan a su tamaño original. Esto podría aportar pistas sobre cómo vencer la osteoporosis en los humanos. Información adicional en: http://www.life.uiuc.edu/alumni/wikelski.htm Imagen: http://www.life.uiuc.edu/alumni/images/Martin%20.jpg (Martin Wikelski y una iguana de las Galápagos.) (Foto: U. of Illinois) Adiós a las cicatrices Un nuevo pulverizador de aplicación sobre la piel evitará la formación de las antiestéticas cicatrices. Cuando una herida se cierra, el tejido de la piel en la zona afectada suele tener una estructura más débil de lo normal. Aparece la cicatriz, delatora de que algo ha ocurrido y poco agradable a la vista. Para evitarlas, científicos británicos han desarrollado un pulverizador (spray) que, al ser utilizado sobre la herida, depositará una fina red de fibras de polímeros que ayudarán a la formación de una estructura cutánea más resistente. Cuando la piel resulta afectada por un corte, el daño destruye a menudo la estructura trenzada de colágeno, la misma que le proporciona su resistencia habitual. Cuando el cuerpo intenta reparar la herida, se produce una situación anómala que hemos heredado 651 El Hijo de El Cronopio No. 62 del pasado. Una persona podía morir si no cicatrizaba lo antes posible, de modo que el cuerpo evolucionó evitando la reconstrucción del complejo de colágeno original, sustituyéndolo por una medida de emergencia que supone la colocación de finas tiras alineadas de colágeno. El material resultante tiene un aspecto más pálido y menos flexible que la piel normal. Es lo que denominamos tejido de cicatriz. En los tiempos que corren, no es tan importante cicatrizar rápido como que la cicatriz se vea lo menos posible. Por eso, una compañía de biotecnología llamada Electrosols ha desarrollado el pulverizador antes mencionado. Las fibras de polímeros biodegradables que aplica sobre la herida proporcionarán a las células que producen colágeno una red sobre la que crecer. El resultado es una estructura de colágeno regular, muy parecida a la piel normal, y por tanto, alejada del habitual aspecto de las cicatrices. El "spray" está hecho con etanol y un polímero biodegradable como el ácido poliláctico, mezclados en un contenedor superconductor y a los cuales se les aplica después una carga eléctrica. Dado que la herida posee un potencial eléctrico muy inferior al polímero, la solución resulta atraída por la superficie de la piel, formando pequeñas fibras de no más de 5 micrómetros de diámetro. Como las fibras tienen la misma carga, se repelen unas a otras, adoptando un espaciado regular. El aplicador tiene la forma de un bolígrafo de 15 cm de largo y 2,5 cm de diámetro. Su uso es apto incluso para primeros auxilios. (New Scientist) Anticuerpos a la carta Científicos de la University of Texas han desarrollado un método para sintetizar anticuerpos. Los anticuerpos son fundamentales para los seres vivos evolucionados ya que forman parte del sistema inmunológico. Reconocen y se unen a sustancias invasoras (antígenos), ayudando a luchar contra las enfermedades. Los anticuerpos son proteínas muy importantes en el campo biomédico, pero son frágiles y difíciles de producir. Es por eso que los científicos están interesados en hallar sustitutos que suplan su función de una forma más sencilla y menos costosa. Investigadores del Southwestern Medical Center de la University of Texas han realizado un interesante paso en este sentido, ya que han descubierto un método que permitirá producir y sintetizar sustitutos de los anticuerpos naturales para su aplicación en áreas diversas como la diagnosis médica, la biotecnología y la investigación biomédica. Su método sirve para encontrar y seleccionar péptidos que imitan a los anticuerpos. Se trata de pequeñas moléculas que no son proteínas pero que pueden reconocer un tipo particular de aminoácidos. Su producción es mucho más rápida y sencilla que los anticuerpos, ya que éstos son grandes y deben proceder de animales. Esta misma línea de investigación permitirá fabricar sensores para detectar agentes de guerra biológica. Los péptidos ya se emplean en ciertos trabajos biomédicos para detectar o purificar determinadas proteínas. Pero los péptidos no se unen tan fuertemente como los anticuerpos, de manera que el próximo paso a seguir será incrementar su afinidad. Información adicional en: http://irweb.swmed.edu/newspub/newsdetl.asp?story_id=204 652 El Hijo de El Cronopio No. 62 Cerebro y vejez La vejez afecta a la química del cerebro, lo cual explica en parte el deterioro cognoscitivo que experimentan algunas personas mayores. Con contadas excepciones, la vejez afecta de forma progresiva a la capacidad desarrollada por el cerebro. Las razones para ello no son muy conocidas, pero poco a poco vamos encontrando nuevas pistas que completan el cuadro. Investigadores del Brookhaven National Laboratory, la State University of New York y la University of Pennsylvania School of Medicine han descubierto que la vejez viene unida a determinados cambios químicos en el cerebro, los cuales podrían influir en el deterioro de la capacidad cognoscitiva. Con la edad, el cerebro sufre una disminución de la actividad de la dopamina, un compuesto químico relacionado con el placer. Esto hace avanzar más despacio el metabolismo en regiones del cerebro que se consideran relacionadas con la mencionada capacidad cognoscitiva. En concreto, la edad se encuentra unida a un declive significativo de los receptores de dopamina D2, moléculas que transmiten señales asociadas a la sensación del placer. Aproximadamente un 6 por ciento de estos receptores se pierden por cada década de vida, entre los 20 y los 80 años. Cuando ello ocurre, disminuye el metabolismo de la glucosa en las regiones frontales del cerebro y en otras importantes para el trabajo intelectual, traduciéndose a su vez en un descenso de la actividad cerebral. La parte frontal se ocupa de funciones tales como la resolución de problemas, la habilidad de pensar de forma abstracta, o la capacidad de realizar varias tareas simultáneamente. También resultan afectados el control de los impulsos, el humor o la atención. La relación entre metabolismo y disponibilidad de dopamina se hace patente incluso si no tenemos en cuenta la edad de los individuos. De hecho, hay personas jóvenes que tienen menos dopamina que otras mucho mayores. Las investigaciones se han realizado mediante una técnica de imágenes llamada tomografía de emisión de positrones. Se examinaron 37 voluntarios de 24 a 86 años de edad, todos saludables y bajo ningún tipo de medicación. Información adicional en: http://www.bnl.gov/ Noticias del Espacio La Luna en el horizonte ¿Se ha parado a pensar por qué la Luna se ve más grande cuando se encuentra cerca del horizonte? Desde siempre, cuando hemos visto a la Luna salir o "ponerse" tras el horizonte, nos ha dado la impresión de que su tamaño es mayor que cuando se encuentra mucho más arriba, cerca del cenit. Por supuesto, su diámetro aparente y su distancia respecto a nosotros son iguales durante el corto período de un único día, de modo que nos encontramos frente a una ilusión óptica. 653 El Hijo de El Cronopio No. 62 Dos científicos americanos, padre e hijo, creen haber encontrado la explicación a este fenómeno. Según los doctores Lloyd Kaufman y James H. Kaufman, ello ocurre porque el cerebro interpreta que la Luna sobre el horizonte se encuentra más lejos de nosotros que cuando está más elevada en el cielo. Es pues la distancia aparente y no su distancia real, lo que determina su tamaño relativo. La explicación es un resultado importante porque ayuda a los científicos a entender cómo nuestro cerebro percibe el espacio y la distancia. Kaufman padre propuso su teoría en 1960, pero hasta ahora no había aportado las pruebas necesarias. Según esta teoría, el cerebro "calcula" las distancias respecto a los objetos que contemplamos. En el caso de la Luna, cuando ésta se halla cerca del horizonte, el terreno, en un plano más cercano, afecta al cálculo, sugiriendo que nuestro satélite se encuentra a una distancia enorme. Por el contrario, cuando la Luna se halla elevada en el cielo, disponemos de menor cantidad de pistas sobre su distancia real. Como resultado de ello, el tamaño que percibimos para la Luna lejana es dos veces mayor que el de la Luna cuya distancia no sabemos definir bien. Un efecto similar es descrito bajo la ilusión de perspectiva de Ponzo, la cual data de 1913. La familia Kaufman diseñó dos experimentos para medir directamente la distancia de la Luna que percibimos. Ambos utilizaron un aparato construido por IBM Research para proyectar imágenes estereoscópicas de lunas artificiales. Un grupo de voluntarios participó en las posteriores mediciones. Los humanos somos capaces de percibir el tamaño de un objeto sea cual sea su distancia. Lo hacemos gracias a que nuestro cerebro realiza cálculos comparativos entre objetos y paisaje, teniendo en cuenta la realidad geométrica. Normalmente, el terreno nos da suficientes puntos de referencia para ello, pero al parecer, distancias tan alejadas como las de la Luna están más allá de la capacidad de nuestro cerebro, lo que provoca ilusiones ópticas. Información adicional en: http://www.sandlotscience.com/Distortions/Ponzo_java.htm http://www.research.ibm.com/news/detail/moon_illusion.html http://www.research.ibm.com/news/detail/newmoon.html Animación de los experimentos: http://www.pnas.org/content/vol97/issue1/images/data/500/DC1/newmoons.gif (Animación de la demostración estereográfica.) (Foto: PNAS) La Galileo vuelve a visitar Europa El primer sobrevuelo del año de la sonda Galileo se ha llevado a cabo con gran éxito. La nave visitó la luna joviana Europa el pasado 3 de enero, confirmando que bajo su corteza helada puede haber un océano líquido de agua. La misión oficial de la sonda Galileo debía finalizar el 31 de enero, pero su buen estado de salud y los recursos energéticos que aún transporta a bordo permiten prolongarla algunos meses más, quizá años. El último sobrevuelo previsto para su actual periplo se realizó el 3 de enero. La nave interplanetaria, en órbita alrededor de Júpiter, pasó a 351 km de la luna Europa, 654 El Hijo de El Cronopio No. 62 realizando observaciones de campos magnéticos y partículas cargadas. Dichas observaciones fueron diseñadas para detectar interferencias magnéticas que podrían ser debidas a corrientes eléctricas presentes en el océano líquido que se cree se encuentra bajo su corteza helada. También se efectuaron observaciones lejanas de Amaltea, Thebe, Io y Metis. La radiación ambiental provocó falsas indicaciones de reinicializaciones del ordenador de la sonda, pero éstas fueron convenientemente afrontadas por el software de a bordo. Desde diciembre de 1995, la Galileo ha soportado dosis que duplican la radiación para la cual fue diseñada, pero a pesar de todo sigue activa. Visto su comportamiento, y aunque como hemos dicho su misión debía finalizar tras este último sobrevuelo, la dirección de la NASA ha aprobado en principio una prolongación de sus actividades. La nueva Galileo Millenium Mission, cuyo presupuesto e itinerario no han sido decididos aún, podría contemplar un sobrevuelo de Io el 22 de febrero y dos de Ganimedes (30 de mayo, 28 de diciembre). La nave realizará asimismo observaciones de Júpiter coincidiendo con la llegada (en ruta hacia Saturno) de la sonda hermana Cassini, lo cual ayudará a calibrar sus instrumentos. La NASA quiere que la Galileo aporte información mientras pueda resistir los efectos de la radiación ambiental, ya que así se compensa en parte la pérdida que supuso la no apertura de su antena de alta ganancia, situación que redujo la cantidad de datos que es posible transmitir en tiempo real. Sin duda, su visión del sistema de Júpiter está revolucionando nuestros conocimientos sobre este astro y sus satélites. Quizá el más espectacular descubrimiento sea el posible océano de agua líquida que se encontraría bajo la corteza exterior de hielo de Europa. Durante el sobrevuelo del 3 de enero, el magnetómetro de la Galileo detectó cambios de dirección que coinciden con lo que ocurriría si el satélite tuviese una masa "subterránea" de material conductor, como por ejemplo, un océano líquido salado. Las imágenes del exterior mostrando grietas y desplazamientos en el hielo ya hacían sospechar sobre la real existencia de dicho océano. Su posición estaría en algún punto por debajo de los 100 km más exteriores de la luna. El campo magnético de Júpiter en la posición de Europa cambia de dirección cada 5 horas y media. Este campo cambiante puede inducir corrientes eléctricas en un material conductor, como lo sería el océano. Dichas corrientes producen a su vez un campo magnético similar al terrestre, aunque con su polo norte magnético situado cerca del ecuador y moviéndose constantemente (siguiendo el ciclo de 5 horas y media). En anteriores sobrevuelos, la Galileo había identificado el polo norte magnético de Europa, pero no puedo determinar si se movía con el paso del tiempo. Esto se ha comprobado por fin en esta última ocasión, confirmando la teoría de la existencia del océano. No es fácil que una superficie sólida de hielo permita que corrientes eléctricas fluyan a través de ella, pero en cambio, cuando el hielo se funde, se convierte en un buen conductor si contiene sales disueltas, como pasa en los océanos terrestres. Información adicional en: http://galileo.jpl.nasa.gov http://www.jpl.nasa.gov/galileo http://galileo.jpl.nasa.gov/news/release/press000110.html Imagen: http://photojournal-b.jpl.nasa.gov//outdir/PIA02099.21238.gif (Superficie de Europa.) (Foto: JPL) 655 El Hijo de El Cronopio No. 62 Naves espaciales a dieta Los ingenieros luchan para idear formas de reducir el peso de los vehículos espaciales, logrando con ello propuestas poco convencionales. Las últimas investigaciones realizadas en el Air Force Research Laboratory apuestan por nuevos métodos que permitan disminuir la masa de las futuras naves espaciales. Sólo así bajará el coste del acceso al espacio y podremos ir más lejos. Una de las propuestas de este laboratorio se centra en el desarrollo de estructuras inflables. El primer prototipo tiene el aspecto de un platillo volante transparente, o quizá el de una gigantesca lentilla. Está hecho con un plástico especial y podría reemplazar a algunos elementos como antenas, sistemas ópticos, etc., que por su peso y dimensiones encarecen mucho su envío al espacio. Las estructuras inflables pueden tener el mismo uso, pesan mucho menos y pueden ser lanzadas a bordo de un cohete ocupando poco volumen. Una vez en órbita, un dispositivo de hinchado especial, cargado de un gas inerte, les dará su forma definitiva. La solución no es desdeñable, puesto que enviar un kilogramo al espacio cuesta unos 5.000 dólares. Además, las estructuras inflables, dado su pequeño volumen inicial, pueden dar lugar a gigantescos elementos una vez en órbita. Los satélites espía necesitan de antenas y sistemas ópticos lo más grandes posible, ya que ello implica una resolución mucho mayor y una capacidad superior a la hora de descubrir objetos cada vez más pequeños sobre la superficie de la Tierra. Es evidente, pues, que las estructuras inflables tienen un alto interés militar. Estas últimas son, además, 10 veces más baratas y 10 veces más ligeras que las convencionales. Noticias de la Facultad Exámenes profesionales Un total de 19 exámenes profesionales fueron presentados por alumnos de la Facultad en el periodo comprendido del 10 de diciembre de 1999 al 19 de enero del 2000, 15 de ellos en la modalidad de realización de tesis, a continuación los datos de los exámenes referidos. Roberto Antonio de Lira Hueso Presentó su examen profesional con la presentación de la tesis Estructura y propiedades eléctricas de hexaferritas de bario coprecipitadas con adición de SiO2 , el 10 de diciembre de 1999 para obtener el título de Licenciado en Electrónica Instrumentista. El trabajo de tesis fue asesorado por Manuel Mirabal García (IF-UASLP), Salvador Palomares Sánchez (IF-UASLP) y A. Huanosta (IIM-UNAM). Arturo Delgadillo Vázquez Presentó su examen profesional con la presentación de la tesis Ajuste de curvas experimentales mediante descomposición de gaussianas , el 13 de diciembre de 1999 para obtener el título de Matemático. El trabajo de tesis fue asesorado por Facundo Ruiz (IF-UASLP) y Gerardo Ortega Zarzosa (FC-UASLP). 656 El Hijo de El Cronopio No. 62 Miguel A. Rivera Rubio Presentó su examen profesional con la presentación de la tesis Mantenimiento correctivo y preventivo de lectores láser, el 10 de diciembre de 1999 para obtener el título de Ingeniero Electrónico. El trabajo de tesis fue asesorado por Mario Llanas Arana (FCUASLP). Hugo O. López López Presentó su examen profesional con la presentación de la tesis Mantenimiento correctivo y preventivo de lectores láser, el 10 de diciembre de 1999 para obtener el título de Ingeniero Electrónico. El trabajo de tesis fue asesorado por Mario Llanas Arana (FCUASLP). Héctor G. Covarrubias Zapata Presentó su examen profesional con la presentación de la tesis Estudio del inversor monofásico de media onda, el 14 de diciembre de 1999 para obtener el título de Licenciado en Electrónica en Sistemas Digitales. El trabajo de tesis fue asesorado por Benito Pineda Reyes (FC-UASLP) y Isaac Campos Cantón (FC-UASLP). Mireyda Salinas Carrizales Presentó su examen profesional con la presentación de la tesis Características y aplicaciones de los amplificadores de instrumentación, el 14 de diciembre de 1999 para obtener el título de Licenciado en Electrónica en Sistemas Digitales. El trabajo de tesis fue asesorado por Gonzalo Hernández Jiménez (IF-UASLP). Adriana Martínez Guerrero Presentó su examen profesional con la presentación de la tesis Diseño y construcción de un sensor de corriente alterna, el 14 de diciembre de 1999 para obtener el título de Licenciado en Electrónica en Sistemas Digitales. El trabajo de tesis fue asesorado por Gonzalo Hernández Jiménez (IF-UASLP). José Alfredo Camarillo Hernández Presentó su examen profesional con la presentación de la tesis Diseño y construcción de un sensor de corriente directa, el 14 de diciembre de 1999 para obtener el título de Ingeniero Electrónico. El trabajo de tesis fue asesorado por Gonzalo Hernández Jiménez (IF-UASLP). Juan José del Castillo Rojas Presentó su examen profesional con la presentación de la tesis Innovaciones tecnológicas para motores monofásicos de C.A., el 15 de diciembre de 1999 para obtener el título de Licenciado en Electrónica Instrumentista. El trabajo de tesis fue asesorado por Benito Pineda Reyes (FC-UASLP) y Isaac Campos Cantón (FC-UASLP). Héctor Luna Mejía Presentó su examen profesional con la presentación de la tesis Innovaciones tecnológicas para motores trifásicos de C.A., el 15 de diciembre de 1999 para obtener el título de 657 El Hijo de El Cronopio No. 62 Licenciado en Electrónica Instrumentista. El trabajo de tesis fue asesorado por Benito Pineda Reyes (FC-UASLP) y Isaac Campos Cantón (FC-UASLP). Fernando Magdaleno Gil Presentó su examen profesional con la presentación de la tesis Introducción a la visión digital, el 16 de diciembre de 1999 para obtener el título de Licenciado en Electrónica en Sistemas Digitales. El trabajo de tesis fue asesorado por J. Jesús Acosta Elías (FCUASLP). Angélica Rosales López Presentó su examen profesional con la presentación de la tesis Sistema Netware, el 16 de diciembre de 1999 para obtener el título de Licenciado en Electrónica en Sistemas Digitales. El trabajo de tesis fue asesorado por Yolanda Luna Rivera (FC-UASLP). Carlos Manuel Morales Vázquez Presentó su examen profesional con la presentación de la tesis Programación de CGI, el 16 de diciembre de 1999 para obtener el título de Ingeniero Electrónico. El trabajo de tesis fue asesorado por J. Jesús Acosta Elías (FC-UASLP). Eduardo Tenorio López Presentó su examen profesional con la presentación de la tesis Estudio de la informática para el nivel medio superior, el 16 de diciembre de 1999 para obtener el título de Licenciado en Electrónica en Sistemas Digitales. El trabajo de tesis fue asesorado por José Gustavo Pérez (FC-UASLP). José María Agundis Flores Presentó su examen profesional con la presentación de la tesis Einstalación de una estación terrena solo receptora de televisión de la red EDUSAT, el 16 de diciembre de 1999 para obtener el título de Licenciado en Electrónica en Comunicaciones. El trabajo de tesis fue asesorado por José Gustavo Pérez (FC-UASLP). Edgar Armando Cerda Méndez Obtuvo el título profesional de Ingeniero Físico el 7 de enero del 2000, mediante la modalidad de obtención de promedio. El promedio obtenido por Cerda Méndez en toda su carrera fue de 9.58. Francisco Alfonso Alba Cadena Obtuvo el título profesional de Ingeniero Electrónico el 7 de enero del 2000, mediante la modalidad de obtención de promedio. El promedio obtenido por Alba Cadena en toda su carrera fue de 9.77. José Fernando Medina Jaramillo Obtuvo el título profesional de Ingeniero Electrónico el 18 de enero del 2000, mediante la modalidad de obtención de promedio. El promedio obtenido por Medina Jaramillo en toda su carrera fue de 9.27. 658 El Hijo de El Cronopio No. 62 Aldo Mirabal Esparza Obtuvo su título profesional de Ingeniero Electrónico el 19 de enero del 2000, mediante la alternativa de realización de un semestre de maestría con obtención de un promedio superior al ocho. Mirabal Esparza realizó su semestre de maestría en el INAOE de Puebla. La Ciencia desde el Macuiltépetl/ Perfil ideológico de la tecnocracia Por Manuel Martínez Morales En las últimas semanas se levantó algo de polvo debido a varias declaraciones en torno al surgimiento de cierta “nueva clase política”. El presente artículo es la reproducción de otro que con igual título publiqué en los números 3-4 de la revista Márgenes de la facultad de sociología de la Universidad Veracruzana. Por considerarlo de interés y actualidad procedo a su presentación en Diario de Xalapa. He aquí el texto: El sugimiento de la visión tecnocrática de la sociedad corresponde a un momento determinado del desarrollo social. Coincide con un crecimiento acelerado de un país, fincado fundamentalmente en la aplicación de tecnología avanzada a diversas ramas de la producción y a la organización del trabajo. Este crecimiento, en el marco de una sociedad capitalista, conduce a una agudización de los conflictos entre clases sociales. La modernización –en el sentido antes expuestocuando tiene como objetivo primordial incrementar la tasa de acumulación de capital, conlleva al detrimento generalizado de las condiciones de vida de los asalariados. Este proceso conjunto de tecnificación en la producción y agudización de los conflictos sociales implica una complejidad creciente en el manejo de la economía y el gobierno del país; hace necesario, entonces, buscar alguna nueva forma de ejercer la dominación, pues los moldes usuales son ya insuficientes. Así, el político tradicional, práctico, es desplazado por el administrador de alta escuela, el experto en planificación, quien sin embargo comparte con aquél la misma ambición de poder. Deja de ser determinante la experiencia adquirida en puestos de elección popular; cuenta ahora más tener formación “teórica” sobre el Estado, la economía, la planificación. Poco a poco va surgiendo el grupo de los tenócratas para hacerse cargo del mando del país. El surgimiento de esta nueva “clase” gobernante se acompaña de una cierta concepción sobre el funcionamiento social, de cierta ideología propia que le ayuda a consolidarse como grupo privilegiado, y a la vez el sirve de justificación de las medidas que toma para lograr los objetivos buscados. Umberto Cerroni (Técnica y libertad, Fontanella, 1973) nos proporciona un excelente acercamiento a la caracterización de la tecnocracia. Al analizar diversas actitudes frente al proceso de desarrollo técnico-científico y los correspondientes problemas éticosociales, resume así la visión tecnocrática de la sociedad: 659 El Hijo de El Cronopio No. 62 En la actualidad el predominio de la ciencia y la técnica ha llegado a ser tal que invoca la eliminación de todos los controles que no sean de naturaleza técnico-científica y particularmente del control político que es propio de la democracia [...] En el supuesto de que se aceptase reducir la problemática social moderna a mera problemática técnicocientífica habría que deducir que el problema central de nuestra época consiste en una pura cuestión de incremento cuantitativo de la riqueza [...] Sin embargo, la realidad demuestra que el aumento de la riqueza y del bienestar económico global no representa io ipso un aumento del bienestar humano: no se da ni bienestar económico para todos ni satisfacción de las aspiraciones del hombre. A lo anterior hay que agregar que la ideología tecnocrática se asienta en última instancia en una concepción mecanicista y cientificista del mundo, según la cual toda realidad física, biológica, humana o social, se expresa o puede llegar a expresarse como un sistema de unidades elementales y bajo formas matematizables; concepción que oscurece de manera absoluta la realidad de las clases sociales, sus conflictos, la base de sus contradicciones y con ello reduce la mayoría de los problemas sociales a meros problemas de eficacia. El énfasis en objetivos parciales y vagamente definidos encubre la ausencia de objetivos sociales globales y precisos. La preocupación por las estadísticas, aunque sólo algunas, sustituye al estudio de la realidad social. El eclecticismo pragmático es el prototipo de los métodos empleados por la tecnocracia; se toma de todo un poco, desdeñando la profundización teórica y conceptual con tal de obtener alguna solución. Ciertas ciencias son suplantadas por técnicas ajenas, por ejemplo, la ingeniería de sistemas sustituye a las teorías pedagógicas, la cibernética a la sociología, la economía política es desplazada por la econometría, etcétera. La objetividad del tecnócrata se basa en la aplicación sui generis del método matemático a cualquier problema: identificar las variables dependientes e independientes, formular matemáticamente las funciones que la relacionan, usar la investigación de operaciones, la estadística, el cálculo, y lo que no sea medible se excluye. No existen, en el discurso tecnocrático, explotados y explotadores, sino factores de la producción; los mecanismos de coerción y sujeción de los trabajadores son medidas para lograr el equilibrio de dichos factores. El eufemismo y el sofisma sustituyen a la auténtica reflexión científica. Como en toda ideología enajenante se pierde la visión de la totalidad; lo histórico es cercenado de lo lógico, la filosofía es degradada a un simple ejercicio especulativo, la especialización técnica es sobrevaluada respecto a la concentización social. Hasta aquí, gran parte de lo expuesto corresponde a la descripción de rasgos generales de aspectos diversos de la ideología capitalista; mas en el actual ámbito político no se reducen a un nuevo ropaje verbal de la ideología de la dominación, sino que se hacen acompañar de medidas prácticas en diversos campos del quehacer social, la puesta en marcha de ambiciosos programas en los ámbitos de la educación, la agricultura, la producción industrial, la legislación política; acciones que eventualmente desembocarán en una acentuación de la pobreza de las mayorías y una mayor regulación de la vida social, en fin, en una nueva fase, más dura aún, de la tiranía del capital sobre el trabajo. 17 de febrero de 1984 660 El Hijo de El Cronopio No. 62 El Cabuche (crónicas de la Facultad de Ciencias)/ Cambalache, siglo XX Aquél que nunca haya armado un tango, que tire la primera nota; por que es de humanos el escándalo y más perversa es la simulación. Los tangos, los benditos tangos, llevados a su plenitud por Carlos Gardel, representan toda una gama de vicisitudes, nostalgias, engaños, desengaños, enfados, ... en fin. Acompañados de bandoneón, piano y guitarra, la vida es un tango. Y hablando de tangos, Santos Dicépolo, que al menos sé es argentino, escribió Cambalache. Viene a cuento, pues en esta transición de siglo y milenio, que estamos viviendo no se vislumbra un cambio para bien en nuestra sociedad. El año dos mil, año de esta transición, siempre se veía como la esperanza y la referencia a un futuro mejor, una transición a una sociedad mexicana mejor; viendo a nuestro alrededor, en pleno año dos mil, nada es nuevo bajo el sol. Nuestra sociedad dista mucho del modelo de sociedad que aspirábamos para el tercer milenio. Los políticos y doctores cuentachiles que rigen nuestro destino, así lo demuestran. Coincido con Germán Dehesa, que en su columna del Reforma La Gaceta del Ángel, critica las menciones de que el dos mil llegó acompañado de una nueva sociedad con un mejor desarrollo y un futuro promisorio. Por lo pronto basta mencionar el aumento a la tortilla, parte de la dieta básica del mexicano, al menos del mexicano pobre; cada vez serán menos familias las que puedan hoy disfrutar de un taco. Qué pasará con la reacción de la clase política mexicana, lo anticipa el mismo Dehesa “nuestros macrochamanes, con la sensibilidad social que todos les reconocemos, han decidido aumentar el precio de la tortilla. Supongo que aparecerán en la televisión y nos ofrecerán un ramillete de explicaciones a cual más plausibles, a cual más ininteligibles de los patrióticos motivos que tuvieron para proceder así. Me temo que no nos van a explicar nada de la siniestra historia de Conasupo, los fraudes, las trapacerías, los inexplicables apoyos a Maseca y las bestiales cantidades de dinero nuestro que en todos estos oscuros contubernios se dilapidaron. Nosotros estamos para callar y obedecer”. Y a seguir con el tango que es nuestra vida, con el jugoso aumento al salario mínimo (10%) que a decir de los que dicen que saben, es más que suficiente y ayuda a mantener al país en la estabilidad económica que requiere (aunque no alcance para comprar un kilo de tortillas para el pipirín). Estos económicos casos nos anticipan que no hay nada nuevo bajo el sol, seguiremos jodidos por obra y gracia de farsantes, pseudopolíticos, vividores del presupuesto del pueblo mexicano, presupuesto con el que ellos ¡vaya que si pueden comer! Este ejemplo, representa una medida de toda la compleja situación social, entre cuyos parámetros se encuentra la educación y por lo tanto la situación de la Escuela-Facultad en toda esta problemática, pues cumpliendo satisfactoriamente con su cometido (creo que tiene alguno) participará con su granito de arena en el ansiado desarrollo de nuestra sociedad. La reflexión del papel de la EscuelaFacultad nos sigue correspondiendo y realizando nuestro trabajo negaremos lo que en nuestro siglo XX empeñamos en demostrar: que es lo mismo el que labora noche día como un buey que el que vive de los otros o está fuera de la ley. Las mejoras administrativas y de servicio de la Facultad no son suficientes, sigue postergado el desarrollo académico al que siempre hemos aspirado, llegó el dos mil y en este terreno, tampoco hay nada nuevo bajo el sol. Por lo pronto debemos seguir con nuestro empeño de lograr el ansiado desarrollo. Hay que seguir trabajando con ahínco, aunque sigan existiendo, quienes no lo quieren y evitan que los demás trabajen. La pregunta queda en 661 El Hijo de El Cronopio No. 62 el aire ¿podremos en un futuro cambiar el tango hecho canción, de Santos Dicépolo? No lo pueden oír, tendrán que imaginarlo (o tocarlo virtualmente) acompañado magistralmente por bandoneón, piano y guitarra este tango de la vida, que interpretado por Eugenia León, adquiere dimensiones superiores. Haciendo una excepción, he aquí toda la letra, y ¡Hasta el próximo tango! Que el mundo fue y será una porquería, ya lo sé, en el quinientos seis y en el dos mil también, que siempre ha habido chorros maquiavelos y estafaos, contentos y amargaos, valores y duble; pero que el siglo veinte es un despliegue de maldad insolente, ya no hay quien lo niegue, vivimos revolcados en un merengue y en un mismo lodo, todos manoseaos. Hoy resulta que es lo mismo ser derecho que traidor, ignorante, sabio, chorro, generoso, estafador; todo es igual, nada es mejor, lo mismo un burro que un gran profesor, no hay aplazaos ni escalafón, los inmorales nos han igualao. Si uno vive en la impostura y otro roba en su ambición, da lo mismo que si es cura, colchonero, rey de bastos, caradura o polizón. Qué falta de respeto, qué atropello a la razón, cualquiera es un señor, cualquiera es un ladrón mezclao con Stavinsky va Don Bosco y la Mignon, Don Chicho y Napoleón, Carnera y San Martín, igual que en la vidriera irrespetuosa de los cambalaches se ha mezclao la vida y herida por un sable sin remaches ves llorar la Biblia contra un calefón. Siglo veinte cambalache problemático y febril, el que no llora no mama y el que no afana es un gil, dale nomás, dale que va, que allá en el horno nos vamos a encontrar. No pienses más, sentate a un lao que a nadie importa si naciste honrao, es lo mismo el que labora noche y día como un buey que el que vive de los otros, que el que mata, que el que cura o está fuera de la ley. 662 Boletín El Hijo de El Cronopio Facultad de Ciencias Universidad Autónoma de San Luis Potosí No.63, 31 de enero de 2000 Boletín de información científica y tecnológica de la Facultad de Ciencias Publicación semanal Edición y textos Fís. J. Refugio Martínez Mendoza Cualquier información, artículo o anuncio deberá enviarse al editor e-mail: flash@galia.fc.uaslp.mx Este boletín y números anteriores, pueden consultarse por Internet en la página de la UASLP: http://phobos.dtc.uaslp.mx/publi.html El Cronopio No. 10 en preparación En estos momentos se prepara la edición del número diez de la revista de divulgación, educación y cultura científica El Cronopio. El número tendrá un énfasis en artículos de enseñanza, lo que no obsta para aceptar contribuciones de divulgación y cultura científica. Los interesados en participar con artículos favor de hacerlos llegar lo más pronto posible, para su revisión y posible aceptación, a fin de terminar de diseñar el contenido del mismo. Interesados, favor de enviar su contribución por correo electrónico a la siguiente dirección: flash@galia.fc.uaslp.mx Facultad de Ciencias, UASLP Zona Universitaria Tel. (4) 8 26 23 16 al 20 Fax (4) 8 26 23 18 El Hijo de El Cronopio No. 63 Noticias de la Ciencia y la Tecnología Los precursores de las moléculas orgánicas La síntesis química de los elementos más básicos que dan forma a la vida podría estar produciéndose cerca de las estrellas. El origen de la vida es un tema fascinante. Estamos aún muy lejos de comprender completamente cómo ocurrió, pero los científicos tienen cada vez más pistas sobre ello. Por ejemplo, las moléculas orgánicas complejas, que no pueden considerarse de ninguna manera entes "vivos" al examinarlos de forma individual, han sido identificadas a menudo como los más básicos "ladrillos" del edificio que es la vida. Averiguar cómo y dónde surgen ayudará a avanzar en nuestra búsqueda de una teoría razonable sobre el origen de esta última. Si bien la vida es un fenómeno complejo y que precisó seguramente de la convergencia de una gran cantidad de circunstancias ambientales para hacerse realidad, no ocurre lo mismo con las moléculas orgánicas. Recientes investigaciones realizadas con el telescopio espacial europeo ISO, un observatorio infrarrojo orbital, han puesto de manifiesto que dichas moléculas pueden ser sintetizadas químicamente en medios estelares. Sun Kwok y Kevin Wolk, de la University of Calgary, y Bruce Hrivnak, de la Valparaiso University, han analizado la composición de los envoltorios que rodean a las estrellas viejas. Para ello han elegido tres tipos de soles que representan diferentes estados de evolución. En concreto, las gigantes rojas muy desarrolladas, las nebulosas protoplanetarias, y las nebulosas planetarias. El análisis de sus espectros infrarrojos, que permite identificar los diferentes tipos de moléculas que se encuentran en ellas, ha revelado que presentan procesos químicos de síntesis de compuestos orgánicos en marcha. Son suficientes unos pocos miles de años para que se formen grandes moléculas orgánicas complejas. Por ejemplo, el acetileno que puede ser detectado en el envoltorio exterior de las estrellas gigantes rojas sirve como punto de partida para la aparición de benceno e hidrocarburos aromáticos más complejos (como los presentes en una nebulosa planetaria). Aún no sabemos cómo se pueden llevar a cabo reacciones químicas tan eficientes en un medio ambiente de tan baja densidad, pero el descubrimiento permite asegurar que las estrellas son verdaderas fábricas de este tipo de moléculas. Esto es interesante, porque podemos imaginar que algunas de ellas puedan acabar alcanzando las superficies de planetas cercanos. Se sospecha incluso que las estrellas pueden sintetizar aminoácidos, otro aspecto fundamental para el desarrollo de la vida. Esto último quizá podrá confirmarse en el 2007, cuando se lleve a cabo el lanzamiento del nuevo telescopio espacial infrarrojo FIRST. Información adicional en: http://sci.esa.int/newsitem.cfm?TypeID=1&ContentID=8891&Storytype=18 http://sci.esa.int/newsitem.cfm?TypeID=1&ContentID=8831&Storytype=18 Imagen: http://www.iso.vilspa.esa.es/images/cam/helix_lw2c.gif (Nebulosa planetaria de la Hélice, vista por el satélite ISO.) (Foto: ESA) 664 El Hijo de El Cronopio No. 63 No estamos solos, ¿o si? Dos científicos de la University of Washington argumentan su escepticismo sobre la posibilidad de que haya otras civilizaciones avanzadas en el Universo. El paleontólogo Peter Ward y el astrónomo Donald Brownlee, a diferencia de otros colegas del mundo científico, no son tan optimistas a la hora de valorar las posibilidades de que existan otros seres en el Universo, lo que reduciría a la Tierra y sus habitantes a un ente único y aún más valioso. Basan sus argumentos en la gran cantidad de condiciones especiales que parecen haberse dado en la Tierra y que al mismo tiempo han resultado ser esenciales para el desarrollo de la vida. Condiciones en cierta manera casuales y que, al no existir y coincidir en otros lugares, dificultan una repetición del mismo proceso que nos ha traído hasta aquí. Los dos científicos no niegan que pueda haber vida en otros planetas (quizá distinta a la que conocemos), pero sí que afirman que la evolución necesita un período muy largo para dar paso a la aparición de seres complejos como los animales o nosotros mismos, algo que quizá muy pocos planetas pueden llegar a experimentar. Especialmente crucial es mantener el equilibrio durante mucho tiempo en ingredientes tales como la temperatura o la disponibilidad de agua líquida. Si bien los microbios pueden vivir en circunstancias extremas, esto no es cierto para seres más evolucionados como las plantas y los animales, los cuales requieren una gran estabilidad en las condiciones ambientales. Nuestros estudios indican que durante el 90 por ciento de la edad de nuestro planeta, la vida se circunscribió al fondo de los océanos. Por tanto, tuvo muy pocas oportunidades de prosperar en dirección a la complejidad de la que ahora disfruta. Algunos factores que hay que tener en cuenta para justificar la aparición y el desarrollo de la vida son: la distancia adecuada entre el Sol y la Tierra, que permite la disponibilidad de un hábitat apropiado para la vida compleja y asegura que el agua se mantenga líquida (y no como vapor o hielo); la Tierra posee una masa di eal para retener una atmósfera y los océanos en su forma actual, así como un sistema de placas tectónicas que actúan como una especie de termostato atmosférico, dando lugar a masas sólidas y a la mejora de la diversidad biótica; nuestro planeta disfruta asimismo de la presencia cercana de un gran planeta como Júpiter, ni muy próximo ni muy lejano, cuya gravedad ayuda a reducir el riesgo de llegada de cometas y asteroides que puedan impactar contra él; la Tierra posee además una órbita estable, no perturbada por planetas mucho mayores, y una Luna grande a la distancia precisa para estabilizar su inclinación orbital, asegurando que las fluctuaciones climáticas estacionales no sean demasiado severas; y por último, dispone de suficiente carbono como para facilitar el desarrollo de la vida, pero no demasiado como para provocar una condición de "efecto invernadero". La propia posición del Sistema Solar en la galaxia Vía Láctea es clave. Muy al borde de su disco, las estrellas carecen de los metales útiles para la formación de planetas, y muy cerca del núcleo galáctico se desarrollan procesos energéticos demasiado peligrosos para la vida. Por supuesto, el "paraíso" en el que nos encontramos no durará siempre. Un día, el Sol se hará viejo, crecerá y la Tierra verá evaporados sus océanos. Todo rastro de vida habrá desaparecido. 665 El Hijo de El Cronopio No. 63 La nueva Atlantis Nueva Orleans podría desaparecer bajo las aguas del mar hacia el año 2100. La ciudad norteamericana de Nueva Orleans se encuentra en el camino que llevará a su total destrucción. Dentro de un siglo, la combinación del ritmo de incremento del nivel del mar previsto, la pérdida de tierra firme y el proceso natural de hundimiento del suelo, convertirán a esta ciudad en una ruina submarina. El Delta del río Mississippi y la evolución de las costas conspiran para que ello ocurra. Chip Groat, Director del United States Geological Survey (USGS), Shea Penland (de la University of New Orleans) y Denise Reed, han dedicado buena parte de sus carreras a averiguar qué está pasando. Y lo que han encontrado es que la costa de Nueva Orleans está cercana al colapso. Según los cálculos, la ciudad se hunde 1 metro cada siglo, ocho veces más rápido que el ritmo medio mundial. De hecho, la ciudad se encuentra en estos momentos a unos 2,5 metros por debajo del nivel del mar, casi 4 metros en algunos puntos. Se espera que algunas de las islas próximas desaparezcan en el 2050. A pesar de todo, Penland, Reed y otros investigadores creen que el ecosistema costero, aunque dañado, se encuentra lo bastante ni tacto como para que un urgente esfuerzo de restauración pueda llegar a tener éxito. Esta iniciativa costaría unos 14.000 millones de dólares hasta el 2050, el precio de evitar que Nueva Orleans se convierta en una moderna Atlantis. La estrategia incluiría restaurar las islas que actúan como barrera, estudiar la bioquímica de los canales, medir y detectar la estratificación del agua, etc. Uno de los puntos más importantes sería el adiestrar a la próxima generación de estudiantes, los cuales deberán afrontar el futuro de su ciudad. Información adicional en: http://www.uno.edu/ A la captura de meteoritos La búsqueda de meteoritos en lugares remotos como la Antártida se agilizará mucho gracias a la participación de robots autónomos especiales. La Antártida es uno de los puntos en los que es más fácil descubrir meteoritos. El contraste con el suelo helado y blanco los hace mucho más visibles. Pero la zona es, naturalmente, inhóspita, de manera que investigadores de la Carnegie Mellon han preparado un robot llamado Nomad que puede realizar esta tarea de búsqueda y recolección de forma automática. El Nomad tiene cuatro ruedas y un brazo manipulador. Con él puede localizar, mover y clasificar los fragmentos meteóricos, que pueden ser examinados mediante instrumentos científicos. De hecho, el Nomad es un prototipo de un vehículo que podría ser enviado a Marte o a la Luna para hacer un trabajo semejante. La expedición es el resultado de una colaboración entre el personal de la Carnegie Mellon y el del programa Antarctic Search for Meteorites (ANSMET) de la National Science Foundation. El ANSMET fue organizado en 1976 y desde entonces sus miembros han recogido más de 10.000 meteoritos durante sus expediciones anuales al continente helado. 666 El Hijo de El Cronopio No. 63 El Nomad ya está operando en una zona remota del este de la Antártida, en Elephant Moraine, no muy lejos de la estación científica de McMurdo. Su actividad, como ya se ha dicho, será autónoma. Se ocupará de buscar y clasificar muestras de rocas, intentando identificar las que son meteoritos. A bordo se encuentra una cámara de alta resolución y un sistema de espectroscopia para medir su composición. Los instrumentos son colocados sobre las piedras gracias al brazo robótico. La expedición, que es experimental, durará unas tres semanas. Se espera tener éxito, ya que en la zona se han encontrado ya casi 2.000 especimenes durante las siete visitas previas, incluyendo el primer meteorito identificado como procedente de Marte. Si el Nomad hace bien su trabajo, y ya lo está haciendo, estará preparado para empresas más ambiciosas, en dirección a Marte y otros cuerpos del Sistema Solar. Habrá demostrado sus capacidades de navegación autónoma (gracias a su visión artificial) y su alta maniobrabilidad. Un equipo de expertos sigue constantemente al vehículo para recoger las muestras y para evitar que deba afrontar accidentes geográficos insalvables. Información adicional en: http://www.ri.cmu.edu/~meteorobot2000 http://www.bigsignal.net Imagen: http://www.frc.ri.cmu.edu/projects/meteorobot/exp2k/pics_20000121/search_2.jpg (El Nomad, con el brazo extendido.) (Foto: Carnegie Mellon) http://www.frc.ri.cmu.edu/projects/meteorobot2000//rams2k/images/hires/eet0001-hires.jpg (Meteorito encontrado por el Nomad.) (Foto: Carnegie Mellon) Poder eólico El aprovechamiento de la fuerza del viento para producir energía eléctrica de forma cada vez más óptima depende del desarrollo de tecnologías avanzadas. El crecimiento de las energías alternativas, y en especial de la generación de electricidad por medios eólicos, ha supuesto una reducción de los costes y una mayor inversión en tecnología que permita obtener el máximo aprovechamiento posible de la fuerza del viento. Uno de los puntos clave de esta tecnología es el diseño de las palas de las turbinas. Es necesaria una experimentación continuada para medir las cargas puntuales producidas por las turbulencias, así como para construir mejores y más efectivas hélices. Científicos de los Sandia National Laboratories han instalado tres turbinas de 16 metros de diámetro sobre torres de 22 metros de alto, en Bushland, Texas, para efectuar dichos experimentos. Su presencia posibilitará realizar mediciones continuadas sobre las hélices (durante más de 1 año), para lograr una base de datos completa sobre su propio comportamiento y el del viento a lo largo de todo este tiempo. Hasta ahora, las mediciones se habían hecho durante períodos de pocas horas. Su prolongación permitirá desarrollar herramientas de diseño y componentes que incrementen la eficiencia de las turbinas y su habilidad de producir energía eléctrica fiable. Sandia ya ha probado con anterioridad turbinas de varios tipos, incluyendo unas de eje vertical de unos 34 metros de diámetro, cuya tecnología perdió el favor de la industria hace algunos años. 667 El Hijo de El Cronopio No. 63 Las turbinas que se emplearán para los experimentos son menores de lo habitual, pero serán también menos costosas y más aptas para la fase científica del programa. El proyecto LIST, como se le denomina, utilizará instrumentos automáticos que tomarán medidas de la velocidad y la dirección del viento, y la carga que soportarán las hélices, unas 30 veces por segundo durante al menos un año. Esta información será almacenada en discos compactos y enviada al laboratorio de Sandia, donde será analizada. Su principal interés se halla en la comprensión de cómo afectan las cargas sobre las palas, sobre todo durante episodios de un aumento súbito de la velocidad del viento. Algunos de estos episodios pueden por sí solos reducir a la mitad la vida útil de la hélice. Otro resultado esperado es la definición de una hélice construida con materiales avanzados, con procesos de fabricación mejores y diseños más eficientes de las palas. Se desea así obtener turbinas más ligeras, fiables y menos caras. El objetivo es que no se rompan ante vientos muy fuertes, y que duren entre 20 y 30 años. Información adicional en: http://www.sandia.gov/media/NewsRel/NR2000/wind.htm Imagen: http://www.sandia.gov/media/NewsRel/NR2000/images/jpg/turbine.jpg (Las tres turbinas experimentales.) (Foto Sandia N.L.) Gran protuberancia El satélite SOHO ha detectado una enorme protuberancia en la superficie de nuestro Sol. Nuestra estrella se dirige con paso firme hacia su punto de máxima actividad dentro del presente ciclo solar. No es pues de extrañar que nos esté ya ofreciendo un gran espectáculo en forma de expulsiones de materia coronaria y protuberancias. Una de estas últimas ha sido observada y fotografiada por el potente observatorio solar que denominamos SOHO. El Solar and Heliospheric Observatory, propiedad de la Agencia Espacial Europea y de la NASA, pone a nuestra disposición lo que, por otro lado, no resulta visible a ojo desnudo. El satélite se encuentra en un punto de libración de Lagrange (L1), a unos 1,5 millones de kilómetros de la Tierra. Desde allí tiene una visión ininterrumpida de lo que sucede en el Sol. Así, el 18 de enero, el vehículo detectó una espectacular prominencia cuyo alcance máximo fue de 100 veces el diámetro de nuestro planeta. Estas prominencias son bucles de campos magnéticos que presentan gases calientes atrapados en su interior. Cuando los campos se convierten en inestables, provocan una erupción y se levantan sobre la superficie del Sol durante unos minutos u horas. Si se encuentran orientadas hacia la Tierra, pueden provocar auroras y otros tipos de actividad geomagnética. Las protuberancias son más frecuentes cerca del punto de máxima actividad solar, marcado por la presencia de un mayor número de manchas solares, algo que probablemente ocurra a partir de mediados de este año. Información adicional en: http://spaceweather.com/; http://sohowww.nascom.nasa.gov/ http://spacescience.com/headlines/y2000/ast20jan_1.htm Imagen: http://spaceweather.com/images/18jan00/prominence_anim.gif (Animación de la protuberancia captada por el SOHO.) (Foto: NASA/ESA) 668 El Hijo de El Cronopio No. 63 Noticias del Espacio ♦ La estadounidense Mars Society trabaja intensamente para facilitar la futura colonización del Planeta Rojo. El 30 de diciembre de 1999, contrató a la empresa Infrastructure Composites International (Infracomp) para la construcción de la estructura primaria de la llamada Mars Arctic Research Station (MARS). Dicha estructura será fabricada mediante tecnología de fibra de vidrio en forma de panel de abeja. Estará lista, incluyendo puertas y ventanas, en mayo de este año, tras lo cual le serán instalados los equipos interiores, hasta que sea trasladada entre junio y julio a la isla de Devon, en el Ártico. Se espera una campaña de ocupación de tres meses durante el verano del 2001, en cooperación con el Haughton Mars Project de la NASA. MARS ayudará a los científicos a desenvolverse en un ambiente de aislamiento y temperaturas no demasiado diferente del que podríamos encontrar en Marte. ♦ La Agencia Espacial Europea prepara el lanzamiento de los cuatro satélites Cluster-II que reemplazarán a los que se perdieron durante la primera misión del cohete Ariane-5. El cuarto de ellos, en todo caso, tiene una historia curiosa, ya que se trata del ClusterFM5, un vehículo denominado más comúnmente como Phoenix y que ha sido construido mediante diversos elementos sobrantes que quedaron del ensamblaje de sus cuatro antecesores. Su coste, por tanto, ha sido inferior, añadiéndose a los otros tres Cluster-II totalmente nuevos que también ya están listos. Durante el mes de enero, el Phoenix está siendo sometido a las últimas pruebas pre-vuelo, incluyendo ensayos térmicos y de vibración. Su estructura es, en realidad, la que se construyó en primer lugar (1992), y la que, dado que no debía ser colocada en órbita, sufrió todas las pruebas para poner a punto a sus hermanos, los cuatro Cluster-I. Los instrumentos que transporta también debían ser unidades de reserva ya disponibles, pero como se han tenido que construir otras nuevas para los Cluster-II, también el Phoenix está equipado con ellas. Se han añadido algunas mejoras, como un grabador de estado sólido con más memoria, dos nuevos ordenadores, un mejor amplificador de alta energía y un transpondedor digital. Las pértigas extensibles se han acortado un poco para encajar dentro del carenado del cohete Soyuz-U. Otros elementos que ya no se fabrican han debido ser reemplazados. Más información en: http://sci.esa.int/cluster http://esapub.esrin.esa.it/bulletin/bullet91/b91cred.htm http://sci.esa.int/newsitem.cfm?TypeID=1&ContentID=8591&Storytype=8 ♦ Los análisis de la trayectoria obtenida tras la corrección realizada el 28 de diciembre (TCM-A) por la sonda Stardust indican que ésta se llevó a cabo de forma casi perfecta. Sólo se ha detectado un pequeño desplazamiento de 3 cm en la posición del centro de masas del vehículo respecto a los cálculos pre-lanzamiento, lo cual se está estudiando en estos momentos. Se ha decidido que la próxima gran maniobra (DSM-1, Deep Space Maneuver-1), se realizará en tres partes, los días 18, 20 y 22 de enero. Más información en: http://stardust.jpl.nasa.gov 669 El Hijo de El Cronopio No. 63 ♦ En cuanto a la sonda NEAR, se encuentra ya a menos de 52.000 km del asteroide Eros. Mañana 11 de enero se iniciará la fase científica, con transmisiones diarias de información mediante la antena de alta ganancia. Tres días después comenzarán las observaciones de navegación en preparación para el encuentro. La primera maniobra para este último se efectuará el 2 de febrero, con otra de ajuste el 8 del mismo mes. La entrada en órbita alrededor del asteroide está prevista para el 14 de febrero. Más información en: http://near.jhuapl.edu ♦ El equipo formado por las empresas Lockheed Martin y Orbital Sciences ha recibido el contrato definitivo para la construcción del nuevo satélite japonés de comunicaciones móviles de la compañía DoCoMo. La firma del contrato se produjo el 6 de enero e incluye el satélite, el segmento terrestre y el lanzamiento. El N-STAR-c estará listo en el 2002 y trabajará en las bandas C y S. Información adicional en: http://www.lmcommercialspace.com Noticias de la Facultad Acuerdos del H. Consejo Técnico Consultivo En la sesión correspondiente al mes de enero el H. Consejo Técnico Consultivo de la Facultad de Ciencias llegó a los siguientes acuerdos: Con respecto a la solicitud del joven Claudio Davet Gutiérrez Lazos de inscripción a la Facultad para concluir la carrera de físico-matemático, después de haber solicitado un permiso no refrendado, para realizar estudios de maestría en el CINVESTAV, mismos que concluyó. Se turnó el análisis de su solicitud a la Comisión de Rescate Académico para alumnos que por cuestiones de reglamento están impedidos de obtener su título, a fin de que presenten una propuesta al Consejo Técnico en su oportunidad. El joven Armando Gómez Lárraga solicitó autorización para inscripción a la Facultad y continuar sus estudio. Debido a impedimentos de reglamento y a su desarrollo académico pobre, se le negó la solicitud. Respecto a la solicitud del Fís. Joaquín Sada Anaya, Jefe del Departamento de Física de que las materias de Biología I y Termodinámica y Mecánica Estadística I del plan anterior sean acreditadas como Biología y Termodinámica del nuevo plan, se turnó a su análisis y a un análisis global de los planes de los otros departamentos de la Facultad a una comisión formada por los jefes de departamento, secretarías académica y escolar, y personal académico de apoyo para que presenten una propuesta global, en lo académico y administrativo. La Ciencia desde el Macuiltépetl/ El método bibliométrico Por Manuel Martínez Morales Uno de los síntomas más agudos de nuestra dependencia, en lo que se refiere a ciencia y tecnología, es el seguimiento de las modas y pautas vigentes en los países desarrollados. 670 El Hijo de El Cronopio No. 63 En esos países está establecido que uno de los parámetros más importantes para “medir” la excelencia académica o científica es el número de trabajos publicados por un investigador; el prestigio de un científico crece en proporción al número de artículos que logra publicar en revistas especializadas. Se ha llegado al extremo, incluso de “descubrir” un nuevo método de evaluación de la productividad científica al que se ha llamado pomposamente el método bibliométrico. En realidad, este sistema de evaluación elevado a rango de método puede conducir a falsas apreciaciones sobre la productividad científica. Ya, en 1939, John D. Bernal señalaba que Posiblemente cerca de tres cuartas partes de los artículos publicados (en revistas científicas) no merecían ser publicadas en absoluto; han sido publicadas por consideraciones económicas que nada tienen que ver con la ciencia. La posición de todo trabajador científico depende demasiado del número, más que de la calidad de lo publicado. Las publicaciones frecuentemente son prematuras [...] y son una indicación de lucha necesaria del investigador por sobrevivir en el mundo científico” (The Social Function of Science; MIT, 1973). En 1966, se publicó un trabajo que corrobora la apreciación de Bernal: en una muestra de 149 artículos seleccionados de 10 revistas médicas de reconocido prestigio, se encontró que 72%, esto es, alrededor de 107 trabajos presentaban conclusiones que no estaban suficientemente fundamentadas. ( S. Schor, I. Karten, Statistical Evaluation of Medical Journal Manuscripts, J. Am. Med. Ass., 1966.) La fiabilidad de este “método” es cuestionable. El hecho de que este análisis sea favorecido por algunos autores, no garantiza su validez metodológica; además, admitamos que es práctica común de muchos investigadores publicar el mismo trabajo con algunas modificaciones de forma, en diferentes revistas (refritos). También un científico que domine una técnica de uso extendido (microscopía electrónica, digamos), aparecerá como coautor de numeroso artículos en los cuales poco tendrá que ver con su contenido esencial. Hay que señalar, asimismo, que la probabilidad de publicar un trabajo no es la misma para todas las áreas; por ejemplo, es mucho más difícil publicar, por la complejidad del tema, un trabajo de biología teórica que los resultados de un trabajo experimental; entonces, el número de publicaciones por sí mismo no refleja el esfuerzo y la verdadera productividad científica. Aún el recuento de citas bibliográficas es un mal indicador de productividad, pues al escogerlas se da preferencia a aquellas que provienen de reconocida autoridad, es decir, que grupos o instituciones de reciente formación y/o recursos modestos tienen menos posibilidades de aparecer citados en la literatura. Por otra parte, es un hecho confirmado que pueden transcurrir muchos años antes de que se reconozca un trabajo. Por citar tan sólo un ejemplo, en uno de los trabajos de Ronald Fisher, quien ha sido pilar de la estadística moderna, se deduce la distribución del coeficiente de correlación para muestras pequeñas. Fue rechazado durante años por los editores de Biometrika y 671 El Hijo de El Cronopio No. 63 finalmente apareció en una publicación de segundo orden editada en Italia. Este trabajo fue ignorado durante años por matemáticos y científicos experimentales por igual. Como éste, podría citarse muchos otros casos. Al no tener en cuenta estos elementos, el simple recuento de citas pierde sentido como indicador de productividad. Los que utilizan y creen en este “método” confunden un medio con un fin. La comunicación científica es indudablemente un elemento fundamental de la práctica científica, pero es sólo un medio para intercambiar información y someterla al juicio de la comunidad científica y no un fin en sí mismo, ni mucho menos un “indicador objetivo” para evaluar la productividad científica. Un trabajo científico debe valorarse en cuanto a su correspondencia con los objetivos (teóricos y/o prácticos) que tal trabajo persigue. Ya no es tan importante, decía Norbert Wiener, el saber hacer (know how), sino el saber qué hacer (know what). El cómo resulta del qué, no del objeto específico, sino de un conjunto de objetivos. La discusión sobre los objetivos de la ciencia en nuestro país apenas comienza; sería de suma importancia conocer en qué medida una investigación ha cumplido con los objetivos propuestos y, más aún, determinada relevancia de tales objetivos. Recurrir a la “bibliometría” para evaluar la productividad científica soslaya los verdaderos y urgentes problemas a que las ciencias deben dar una respuesta. El aumento en el número de publicaciones ¿está asociado con la disminución de la mortalidad infantil en el país?, ¿ha aumentado la esperanza de vida de la población?, ¿ha mejorado la calidad de nuestra alimentación? A estos índices deben recurrirse para evaluar la importancia del trabajo científico. Seguir considerando el número de publicaciones como un indicador “de eminencia” repercute negativamente en la práctica científica. Esta tendencia ha sido calificada en otros países como la carrera de la rata: publicar o morir (The rat race: publish or perish). Asumir que el objetivo de la investigación es publicar influye nocivamente en la formación de nuevos científicos. Aquí resulta inevitable volver a citar a Bernal: el joven graduado que acaba de escapar de las presiones del sistema de exámenes se encuentra con que ha cambiado un tipo de servilismo por otro, ya que ahora su futuro depende de sus publicaciones. Los años que sería más provechoso pasarlos –como los grandes científicos lo hicieron– en el estudio, la meditación y la experimentación aparentemente sin sentido, le son negados a los jóvenes investigadores. El resultado es paralizar la originalidad en la época que ésta es más fructífera y cuando se está libre de responsabilidades administrativas y sociales. Otra consecuencia de esto es cargar la literatura científica con grandes volúmenes de artículos inútiles. El “método biblimétrico”, en síntesis, no es sino una expresión más de alineación de los científicos, refleja la opacidad con la que el hombre de ciencia percibe su propia práctica y la vinculación de ésta con la realidad. Esta alineación sólo puede superarse mediante el análisis y la autocrítica constante sobre los objetivos de nuestro trabajo y la confrontación de éstos con la realidad. 13 de enero de 1984 672 El Hijo de El Cronopio No. 63 El Cabuche (crónicas de la Facultad de Ciencias)/ Todo un best seller Los cursos de ciencias que a lo largo de nuestra preparación, esté en proceso o no, tuvimos que cursar y que los actuales estudiantes de nuestra escuela-facultad seguirán cursando, espero que no indefinidamente, se caracterizan, entre otras cosas, por los libros en los cuales se basan, a tal grado que aunado al trabajo del maestro y del propio alumno, los libros constituyen esa guía indispensable para comprender los intrincados misterios de la ciencia. En ciertos casos, los libros se convierten en el principal ingrediente en nuestra formación. En el caso de la escuela-facultad, a principios de los setenta comenzó a utilizarse para los cursos de física general el libro en tres volúmenes de Marcelo Alonso y Edward J. Finn, mejor conocido como el Alonso y Finn. Por más de una década estos libros acompañaron el devenir histórico de nuestra facultad; mientras en ingeniería llevaban el Resnick en la escuela-facultad, se llevaban los tres Alonso y Finn en lo que eran los dos primeros años de la carrera de física y posteriormente las carreras que se fueron incorporando en la estructura de la facultad. ¡Vaya que tenían su complejidad! Recuerdo que en vacaciones de verano seguía repasándolos, pues su contenido y principalmente el formalismo utilizado, sería de gran utilidad en los cursos intermedios que se cursaban a partir del cuarto semestre y tercer año. Después, ya como profesor en la escuela-facultad, al regresar de realizar estudios de maestría en la universidad poblana, me tocó el turno de discutir su contenido con alumnos de las carreras de física y electrónica. Posteriormente apareció una versión simplificada (más “digerible”) que Marcelo Alonso trabajó con Onofre Rojo profesor venezolano que por un tiempo impartió clase en el IPN de México, inmediatamente fueron incorporados en los cursos de introducción a la física que se añadieron a la curricula de la facultad para tratar de nivelar a los alumnos de nuevo ingreso. Publicados en 1967 con el título Fundamental University Physics por Addison-Wesley, y en 1970 en su versión en español por el Fondo Educativo Interamericano, los tres volúmenes del Alonso y Finn marcaron un hito en la enseñanza de la física teniendo una gran aceptación en todo el mundo y por supuesto en nuestra entonces escuela; a través de sus páginas la mayoría de los físicos e ingenieros de los cinco continentes completaron su formación profesional. El enfoque de los libros era algo novedoso pues no concebía, como el resto de los libros, a la física como si fuera un conglomerado de varias ciencias más o menos relacionadas, pero sin un punto de vista realmente unitario. En su lugar Alonso y Finn seguían una presentación lógica unificada, haciendo énfasis en las leyes de conservación, en los conceptos de campos y de ondas y en el punto de vista atómico de la materia. El mismo Alonso indicaba en el prólogo “esperamos que este texto ayude a los educadores progresistas, quienes constantemente se preocupan por mejorar los cursos que dictan; esperamos, también, que estimule a los estudiantes, quienes merecen una presentación de la física más madura que la de los cursos tradicionales”. Lo que sabíamos de Alonso en la década de los setenta, es que era un profesor de origen latino, posiblemente cubano, que trabajaba en el Departamento de Física de la Universidad de Georgetown, Washington, DC. Quién iba a pensar que veinticinco años después, tendría la oportunidad de conocerlo y convivir durante una semana con él. No sólo eso, sino que asistiría a su reencuentro con su tierra natal que dejó, por asuntos que no tengo muy claros, hace casi cuarenta años. Abandonó Cuba y en particular la Facultad de Física de la Universidad de La Habana, un 29 de febrero de 1960. Pilar en el desarrollo de la universidad cubana en 673 El Hijo de El Cronopio No. 63 sus inicios, misma en la que estudio, para después incorporarse como profesor. Alonso, en los años cincuenta se dio a la tarea de promover los estudios de Física Atómica y Nuclear en Cuba (de los cuales también tiene un par de libros, que no se usaron en nuestra facultad) impartiendo cursillos, publicando un texto, y echando las bases de un laboratorio dedicado a aquella materia en la cátedra de Física Teórica de la Universidad de La Habana. Marcelo Alonso persona alegre y jovial con más de ochenta años a cuestas, para terminar pronto, es una gran personalidad en la enseñanza e investigación de la física, aunque, por problemas de salud, tiene tiempo de no dedicarse a ello, sigue dictando cursillos, talleres y conferencias en los cinco continentes. De una lucidez y alegría envidiables está preparando un libro sobre sistemas complejos, lo más nuevo en investigación no sólo en física, digamos ciencias. Por mi parte fui uno de los diez afortunados que durante el Taller Iberoamericano celebrado en la Universidad de La Habana me obsequiaron uno de sus libros que la Universidad de Las Palmas de Gran Canaria de España, le publicó con el título ¿Somos muy conservadores en la enseñanza de la física? Mismo en el que al pie de su título se lee Marcelo Alonso “Principal Research Scientist (Retired), Florida Institute of Technology”. Sobra decir que el libro es por demás excelente y encierra un enfoque muy poco usado para la enseñanza de la física. En la cuarta de forros del libro (contraportada) como presentación del libro y del autor puede leerse “el Dr. Marcelo Alonso, físico estadounidense de origen cubano, es conocido en el ámbito de la física, fundamentalmente debido a sus libros de texto sobre física general, física atómica y mecánica cuántica. El más internacional de ellos, el curso de física en tres volúmenes escrito en colaboración con el Dr. E. Finn, ha sido traducido a 12 lenguas diferentes, es usado como libro de texto en varias universidades de todo el mundo y, como si de un best seller se tratase, se han vendido más de un millón trescientas mil copias del mismo. El Dr. Marcelo Alonso ha recorrido los cinco continentes para impartir conferencias en diversas universidades, ha publicado alrededor de un centenar de trabajos sobre enseñanza de la física, desarrollo científico y tecnológico, energía en general y energía nuclear. También ha sido solicitado como asesor por diversos organismos internacionales sobre todo en temas relacionados con educación científica, planificación energética y política científica y tecnológica. En la actualidad, desde su residencia en Florida, mantiene una intensa actividad impartiendo conferencias y publicando trabajos, que como este, dan fe tanto de su preocupación por el mundo de la enseñanza de la física, como del profundo conocimiento que de esta disciplina posee”. Me congratulo de haber asistido a su reencuentro y a mi encuentro con tan grato personaje que le da sentido al estudio amplio y no reducido, como se acostumbra, de la física como disciplina universal. Por lo pronto, después de más de veinte años, seguiremos haciendo historia con su libro. Cuando salí de La Habana ¡válgame Dios!/Nadie me ha visto salir si no fui yo/Si a tu ventana llega una paloma/trátala con cariño que es mi persona/ cuéntale tus amores bien de mi vida/ corónala de flores que es cosa mía/¡ay chinita que si!/¡ay que dame tu amor! ¡ay! que vente conmigo chinita/a donde vivo yo 674 Boletín El Hijo de El Cronopio Facultad de Ciencias Universidad Autónoma de San Luis Potosí No.64, 7 de febrero de 2000 Boletín de información científica y tecnológica de la Facultad de Ciencias Publicación semanal Edición y textos Fís. J. Refugio Martínez Mendoza Cualquier información, artículo o anuncio deberá enviarse al editor e-mail: flash@galia.fc.uaslp.mx Este boletín y números anteriores, pueden consultarse por Internet en la página de la UASLP: http://phobos.dtc.uaslp.mx/publi.html TOP TEN 1999 La revista Science repasa los 10 avances científicos más importantes del año que finalizó. Cuando acabó el año 1999, es hora de repasar cuáles han sido los avances científicos más importantes que se han llevado a cabo durante los últimos 12 meses. La lista sitúa en lo más alto los progresos realizados en el control de las llamadas células embrión, las que son capaces de dar lugar a cualquier tipo de tejido y que en el futuro podrían ayudar a resolver innumerables enfermedades. Sin embargo, no están aún resueltos los diferentes aspectos éticos y sociales que ello sin duda comportará. La Genómica es probablemente una de las áreas científicas que más ha progresado este año. Se han mostrado genomas completos de diversos microbios, e incluso la primera secuencia de un cromosoma humano. Otros campos de similar interés los tenemos en: la creación del primer mapa molecular del ribosoma, la fábrica de proteínas esencial de la célula; la definición de un nuevo gas cuyos átomos residen en la categoría de los fermiones, uno de los dos tipos de partículas elementales de la naturaleza, y que podría servir para avanzar en la investigación de la estructura básica de la materia o para construir la próxima generación de relojes atómicos y láseres; el descubrimiento de signos de células eucariotas (con núcleo) en rocas australianas de 2.700 millones de años de antigüedad, lo que retrasa en 1.000 millones de años la aparición de vida compleja; el hallazgo de la relación existente entre las formidables explosiones de rayos gamma del Universo y el colapso de estrellas masivas (supernovas); la teoría de que cuando el Universo nació en una gran explosión, el espacio se aplanó; una serie de estudios que facilitan la comprensión de cómo las memorias, la más El Hijo de El Cronopio No. 64 intangible de las experiencias humanas, se forman debido a actividades moleculares concretas en el cerebro; el hallazgo de una gran cantidad de nuevos planetas extrasolares, que alcanzan una cifra cercana a 30, incluyendo la primera visión directa de uno de ellos; y avances en el desarrollo de cristales fotónicos que atrapan y direccionan longitudes de onda específicas de la luz. Science también ha pronosticado que en este año 2000 habrá sustanciales progresos en el área de los enzimas para resolver la enfermedad de Alzheimer, proyectos de restauración de ríos, astronomía de rayos-X, epigenética, nanocomputadoras, y erradicación de la polio. Noticias de la Ciencia y la Tecnología El primer planeta visible Un equipo de astrónomos británicos, utilizando el telescopio William Herschel y técnicas de computación avanzadas, ha observado por primera vez de forma directa un planeta fuera del Sistema Solar. El descubrimiento de nuevos planetas fuera de nuestro Sistema Solar ya ha dejado de ser noticia, pero en esta ocasión lo es, ya que, por vez primera, los astrónomos han logrado detectar directamente la luz reflejada por uno de ellos. Hasta la fecha y desde el año 1995 se han detectado no menos de 28 planetas extrasolares, todos ellos por la influencia gravitatoria que ejercen y que perturba el movimiento de sus estrellas o por el oscurecimiento del brillo de éstas al pasar por delante. En esta ocasión, sin embargo, "Milenio", como así lo han bautizado sus descubridores, se ha convertido en el primer planeta extrasolar del cual hemos medido la luz que refleja su superficie. Se trata, sin duda, de un gran avance para la Astronomía. El hallazgo ha sido anunciado en la revista Nature. Los astrónomos británicos que han participado utilizaron para ello el espectrógrafo de alta resolución Utrecht Echelle Spectrograph del telescopio William Herschel y avanzados programas de ordenador para extraer la luz producida por la estrella (alrededor de la cual gira) y reflejada por el planeta. Este proceso fue muy tedioso debido a que la luz reflejada por el planeta es más de 10,000 veces más débil que la producida por la estrella. El ministro de ciencia británico Lord Sainsbury ha declarado: "Es emocionante poder ver, por primera vez, la luz procedente de un planeta fuera de nuestro Sistema Solar. Es un nuevo paso en la búsqueda de vida en el Universo". El planeta del "Milenio" tiene ocho veces la masa de Júpiter y dos veces su diámetro. La distancia que nos separa de él es de 55 años luz ó 520 billones de kilómetros. Debido a que se encuentra veinte veces más cerca de su estrella que la Tierra respecto al Sol, su superficie está a muy altas temperaturas. Se estima que alcanza los 1,700 grados centígrados. Lo observado por los astrónomos es un espectro de la luz procedente del planeta, copia del espectro de la estrella, que se desplaza en longitud de onda, debido al efecto Doppler, a medida que el planeta gira. El efecto Doppler produce un corrimiento al rojo cuando el objeto se aleja y al azul cuando se acerca. Es el mismo efecto que nos hace escuchar la sirena de una ambulancia más aguda cuando se acerca y más grave cuando se aleja. El telescopio de 4,2 metros William Herschel forma parte del Grupo de Telescopios Isaac Newton (ING), instalados en el complejo del Instituto de Astrofísica de Canarias. 676 El Hijo de El Cronopio No. 64 También forman parte del ING los telescopios de 2,5 metros Isaac Newton y de 1 metro Jacobus Kapteyn. El ING es el responsable de la operación de estos telescopios en La Palma y está financiado por el Particle Physics and Astronomy Research Council (PPARC) del Reino Unido y la Nederlandse Organisatie voor Wetenschappelijk Onderzoek (NWO) de Holanda. (IAC) Información adicional en: http://www.ing.iac.es/PR/Nota_de_Prensa_ING499.html Imagen: http://www.ing.iac.es/PR/tauboomd.jpg (Impresión artística del planeta.) (Foto: IAC) Cuando los telómeros se acortan Investigadores de la Universidad Autónoma de Barcelona han descubierto nuevos factores involucrados en el acortamiento de los telómeros. El ADN de los organismos superiores está organizado en cromosomas individuales, el extremo de los cuales está protegido por unas estructuras denominadas telómeros. Los telómeros tienen funciones muy importantes en el mantenimiento de la integridad genética de las células (evitan que los cromosomas se unan entre ellos, protegen sus extremos de la degradación y participan en la segregación correcta de los cromosomas durante la división celular), pero además juegan un papel decisivo en dos aspectos de gran trascendencia biológica y social: el cáncer y el envejecimiento. Los telómeros de la mayor parte de las células se acortan a medida que éstas se van dividiendo y envejecen hasta llegar a un punto a partir del cual no pueden realizar su función, propiciando su muerte. De esta forma, los telómeros actúan como un reloj que mide el envejecimiento, indicando el momento en el que debe morir la célula y controlando la proliferación correcta de los tejidos. La gran mayoría de las células tumorales, sin embargo, utilizan mecanismos para evitar el acortamiento telomérico, como la acción del enzima telomerasa, de manera que evitan el envejecimiento, se hacen inmortales y el tumor prolifera de manera indefinida. Debido a esta relevancia biológica de los telómeros, investigadores en genética de todo el mundo están realizando numerosos estudios dirigidos a entender cuáles son los factores que determinan y modulan la longitud telomérica en diversas especies. Un grupo de investigadores del Departamento de Genética y de Microbiología de la Universitat Autònoma de Barcelona, dirigido por el doctor Jordi Surrallés, ha obtenido evidencias experimentales de un nuevo factor involucrado en el mantenimiento y la dinámica de los telómeros humanos. En concreto, los científicos han observado, por primera vez, un acortamiento acelerado de los telómeros del cromosoma X genéticamente inactivo de las mujeres (uno de los dos cromosomas X de las mujeres siempre permanece genéticamente inactivo) en comparación con el ritmo de acortamiento de los telómeros del resto de cromosomas humanos. Se trata de la primera evidencia directa de acortamiento diferencial de telómeros entre cromosomas de una misma especie. Además, como la diferencia entre el cromosoma X activo y los demás cromosomas radica únicamente en su actividad genética y en la manera en que se estructura el ADN en ellos, los resultados demuestran que estos factores -la estructuración del ADN y la actividad genética- modulan la longitud y el ritmo de acortamiento de los telómeros con el envejecimiento. Con el descubrimiento de estos nuevos factores involucrados en el acortamiento de telómeros humanos, hecho publicado en la edición de diciembre de la revista American Journal of Human Genetics, los investigadores de la UAB han abierto nuevas 677 El Hijo de El Cronopio No. 64 posibilidades en el estudio para evitar la proliferación de los tumores y han mejorado la comprensión de la biología de los telómeros, esencial para el progreso de diversas disciplinas científicas y aplicaciones biomédicas, como son el mantenimiento de la estabilidad genética, la generación de tejidos para trasplantes, la clonación, y los mecanismos del envejecimiento. Esta investigación, dirigida por el Dr. Jordi Surrallés, se ha realizado en el seno del Grupo de Mutagénesis del Departamento de Genética y de Microbiología de la UAB, coordinado por el Dr. Ricard Marcos, en cooperación con los doctores M. Prakash Hande y Peter M. Lansdorp del Terry Fox Laboratory for Haematology/Oncology, British Columbia Cancer Agency Centre de Vancouver (Canadá). Información adicional en: http://www2.uwindsor.ca/~badyal/ http://www.genlink.wustl.edu/teldb/tel.html Un mástil que sabe lo que hace Los yates más modernos utilizarán mástiles que alertarán a los navegantes sobre la tensión que soportan en cada momento. Muchas embarcaciones de recreo o de competición han quedado fuera de servicio debido a la rotura inesperada de su mástil. Los mástiles que los equiparán en el futuro no permitirán que ello ocurra, ya que avisarán a los navegantes sobre su condición física, alertándoles en cada momento sobre si se encuentran sometidos a una tensión excesiva. Dichos mástiles serán construidos mediante un compuesto de carbono, en el cual se situarán múltiples sensores de fibra óptica. Los sensores se encargarán de informar sobre la tensión soportada, advirtiendo a los usuarios cuando se acerquen demasiado al punto de fallo estructural. Esta tecnología se está desarrollando en estos momentos para ser aplicada en otros campos, como por ejemplo en puentes o en aviones. Los trabajos de investigación están siendo llevados a cabo por un equipo liderado por Ian Bennion, de la Aston University, en colaboración con las empresas British Aerospace, Carbospars y Pendennis Shipyard. La clave del sistema está en crear pequeñas perturbaciones convenientemente espaciadas en el centro de la fibra óptica. Estas perturbaciones son "grabadas" en ella mediante un láser ultravioleta de gran intensidad. Cada una actúa como un obstáculo para la luz de una longitud de onda determinada. En condiciones normales la luz pasa a través de toda la fibra óptica y emerge intacta en el otro extremo. Pero cuando el mástil es sometido a tensión, la luz choca contra los obstáculos y es reflejada al punto de origen en una longitud de onda distinta. El cambio de longitud de onda permite una medición precisa de la tensión aplicada sobre el mástil. Un simple monitor informará a los navegantes sobre el estado del mástil. En base a estos datos, deberán determinar la forma más apropiada de conducir su embarcación, una circunstancia de máxima importancia en los barcos de altas prestaciones, sobre todo en competición. Información adicional en: http//www.aerorig.com Imagen: http://www.smartfibers.com/Smartpixs/Smartsail1.jpg (Yate equipado con un mástil inteligente.) (Foto: Aerorig) 678 El Hijo de El Cronopio No. 64 Paleobarómetros Millones de años antes de que los humanos inventáramos el barómetro para medir la presión atmosférica, un primitivo insecto alado ya era capaz de responder a la densidad del aire. Muchos de los grandes inventos de la Humanidad han tenido interesantes precedentes en el mundo animal y vegetal, es decir, en la propia naturaleza. Mientras que nosotros empleamos los barómetros para medir la presión atmosférica desde hace relativamente poco, hace millones de años un insecto alado muy común ya tuvo que tener en cuenta este parámetro para poder sobrevivir. Su actividad, además, nos dejó una valiosa información en el registro fósil, que ahora nos sirve para conocer cuál era la densidad del aire en el remoto pasado. El citado insecto, similar a la actual libélula, apareció hace unos 300 millones de años y ha pervivido hasta nuestros días con pocos cambios. Gracias a esto, el estudio de algunos de sus más viejos congéneres, hallados como fósiles, nos permite estimar la masa y composición de la atmósfera que respiraron. Destacan en la estructura de estos insectos dos segmentos de alas unidas al tórax. La fuerza con la que su músculo principal acciona las alas se ve reflejada en la longitud del pterotórax. A su vez, la fuerza que las alas ejercen sobre al aire circundante queda registrada en la longitud del par delantero. Para que un ejemplar pueda llegar a "danzar" como un helicóptero durante su apareamiento, la longitud de este par de alas delantero en relación al pterotórax debe ser consecuente con la densidad del aire. Por eso, el estudio minucioso de la estructura de los diferentes ejemplares fósiles de este insecto que poseemos (pertenecientes al orden Ephemeroptera y de los que hay unas 2.000 especies) nos da pistas sobre la presión atmosférica que existía en el momento de su muerte. Dichos estudios sugieren que la masa atmosférica terrestre ha sido básicamente la misma durante los últimos 250 millones de años. Este tipo de insectos suele vivir sólo unos días como adultos, pero algunos de ellos consiguen escapar de los depredadores y a veces caen en sedimentos húmedos en los que pueden quedar atrapados, quedando bien protegidos y convirtiéndose en valiosos fósiles. Hasta ahora, la única forma que teníamos de conocer cómo era la presión atmosférica primitiva era medir el tamaño de las burbujas de gas atrapadas en la lava mientras ésta se solidificó. Información adicional en: http://www.geo.cornell.edu/ http://www.geo.cornell.edu/geology/faculty/Cisne.html http://www.entm.purdue.edu/entomology/research/mayfly/mayfly.html Imagen: http://www.geo.cornell.edu/geology/faculty/Cisne.gif Dos pájaros de un tiro Una nueva teoría podría servir para resolver a un tiempo dos antiguas paradojas climáticas. Un meteorólogo de la Penn State University ha ideado una teoría que podría resolver simultáneamente dos paradojas sobre el clima de la Tierra primitiva. Las investigaciones sugieren que hace entre 3.800 y 2.500 millones de años el medio ambiente terrestre era muy cálido. Sin embargo, parece que el Sol, más joven, iluminaba menos que ahora. Posteriormente, nuestro planeta sufrió uno o más episodios de 679 El Hijo de El Cronopio No. 64 glaciación durante los cuales quedó absolutamente cubierto por hielo, justamente cuando se supone que el Sol ya había empezado a brillar con mayor intensidad. Gregory S. Jenkins propone una única explicación a todo ello. Para este científico, la clave reside en la inclinación del eje terrestre. Algunos investigadores creen que una colisión de un gran planetoide contra la Tierra creó la Luna, alterando también la inclinación de su eje, de modo que no estaríamos ante un fenómeno nuevo. Según Jenkins, si la Tierra se vio inclinada hasta los 70 grados respecto a la vertical por uno de estos gigantescos impactos, las dos paradojas quedarían resueltas a un tiempo. No sería necesario contar con un gran incremento de gases invernadero para explicar una situación de altas temperaturas superficiales cuando el Sol brillaba un 20 a un 30 por ciento menos que ahora. La razón es que la Tierra poseía entonces un océano que cubría un 95 por ciento de la superficie. Gracias a la gran capacidad de almacenamiento de calor del agua y a la inclinación del eje, la Tierra podía permanecer caliente. Grandes porciones de cada hemisferio recibirían iluminación constante (24 horas) durante períodos de tres meses. Durante la fase nocturna, el agua no se calentaba tanto, pero no llegaba a congelarse. Hace entre 2.500 y 544 millones de años, la Tierra sufrió una glaciación que alcanzó el ecuador. Esto habría provocado diversas extinciones masivas, pero si el planeta hubiera estado inclinado 70 grados, los polos habrían permanecido libres de hielo, permitiendo que muchas especies emigraran y sobrevivieran a las glaciaciones ecuatoriales. Otra cuestión es por qué hoy en día la inclinación del eje terrestre es de únicamente 23 grados. Varios científicos proponen que si se acumuló una gran masa en el polo, dicha inclinación puede llegar a disminuir por sí sola. Los estudios indican que en el Precámbrico, la mayor parte de la tierra firme se encontraba alrededor del polo sur. Con la suficiente masa, habrían bastado 100 millones de años para situar el eje del planeta hasta los 23 grados actuales. Información adicional en: http://www.psu.edu/ur/NEWS/news/climateparadox.html Energía solar más viable La tecnología actual no permite obtener energía de los rayos solares de la forma más eficiente. Las nuevas investigaciones cambiarán esto y harán del Sol una clara alternativa. Un equipo de investigadores del Department of Energy del Oak Ridge National Laboratory (ORNL) están desarrollando tecnología avanzada que podría multiplicar por tres la cantidad de energía que obtenemos del Sol en la actualidad. Los sistemas de energía solar tradicionales no explotan en su totalidad el potencial de esta fuente energética. Convierten de forma poco eficiente la luz visible en electricidad, parte de la cual vuelve a ser transformada después para permitir la iluminación de interiores. La nueva tecnología desarrollada en el ONRL abandona esta táctica para centrarse en la recolección de la luz sin transformarla, distribuyéndola directamente. La luz visible podrá así ser empleada como sistema de iluminación, mientras que el resto, las otras porciones del espectro, podrán usarse para generar electricidad. 680 El Hijo de El Cronopio No. 64 De hecho, la iluminación de interiores es el principal consumidor de energía eléctrica en edificios comerciales, siendo un tercio de toda la electricidad consumida por un país desarrollado como los Estados Unidos. La tecnología que se está diseñando se centra en varios concentradores que, montados en los tejados, se mueven sobre dos ejes, siguiendo constantemente el Sol y separando las porciones visible e infrarroja de los rayos solares. Utilizando fibras ópticas de gran diámetro, es posible distribuir y dirigir la luz visible hacia el interior de los edificios. El sistema también convierte la luz infrarroja (no visible) en electricidad. Las actuales células fotovoltaicas son más eficientes en el infrarrojo, de modo que producirán más. La iluminación interior de los edificios mediante este sistema, variable debido a la distinta intensidad proporcionada por el Sol a lo largo del día, será compensada con luz artificial. La iluminación híbrida supondrá un gran ahorro energético. Información adicional en: http://www.ornl.gov/Press_Releases/archive/mr19991217-00.html Como combatir la radiación Un experimento a bordo de un globo sonda permitirá averiguar cómo proteger a los astronautas que viajen hacia Marte. Si llueve, utilizamos paraguas. Si nos encontráramos con una lluvia de meteoritos, deberíamos fabricar un escudo lo bastante resistente que protegiese a nuestra nave espacial. El problema de la radiación cósmica, sin embargo, es mucho más complejo. Después de cuatro décadas de vuelos tripulados al espacio, aún no sabemos muy bien cómo evitar que la radiación solar afecte a los astronautas, situación que paliamos mediante estancias cortas o durante períodos en los que la actividad de nuestra estrella es mínima. Pero los rayos cósmicos proceden de más lejos y caen continuamente, siendo tanto o más peligrosos. Una parte de la solución reside en entender mejor su composición y las energías que presentan. Para conseguirlo, varios científicos han elegido dos instrumentos de medida que instalarán a bordo de un globo sonda. Este permanecerá suspendido durante diez días sobre el polo sur, almacenando y enviando información. Los citados instrumentos contienen dosímetros y medirán las diferentes energías y partículas de rayos cósmicos que se encuentren durante el vuelo. El globo partirá desde la estación científica de McMurdo, en la Antártida, ya que las regiones polares son donde la atmósfera terrestre se encuentra directamente expuesta al medio ambiente espacial, incluyendo los rayos cósmicos. Ascendiendo hasta los 38 km de altitud, el globo sonda permanecerá por encima de la mayor parte de la atmósfera. Los rayos cósmicos, a pesar de su nombre, no son radiación electromagnética como los rayos-X o gamma. En realidad, son átomos a los que se les ha arrancado sus electrones y que han sido acelerados por explosiones de estrellas supernova u otros fenómenos de parecida violencia. Los rayos cósmicos conocidos como HZE son los más peligrosos, por su alta masa y energía. Son núcleos atómicos que viajan a una velocidad cercana a la de la luz. Al penetrar en materia densa, como la pared de una nave espacial o el cuerpo humano, pueden destruirla y provocar una cascada de partículas secundarias. Afortunadamente, se trata de partículas cargadas y por tanto son desviadas por el campo magnético de la Tierra. Las que consiguen atravesarlo, son absorbidas por la atmósfera 681 El Hijo de El Cronopio No. 64 superior. No obstante, como las líneas magnéticas en los polos son verticales, no pueden impedir su llegada. El globo sonda transportará también diversas muestras de posibles escudos, incluyendo una placa de aluminio de 7,6 cm de espesor. Los instrumentos medirán la influencia de los rayos cósmicos y si dicho escudo es apto o no para ser aplicado en la práctica. Las pruebas se realizarán de inmediato. Tras la recuperación, los paquetes de instrumentos serán llevados en enero a Alabama para su análisis. Información adicional en: http://www.spacescience.com/newhome/headlines/ast17dec99_1.htm Imagen: http://www.spacescience.com/newhome/headlines/images/spole/cyl_ref1.JPG (Detectores de rayos cósmicos.) (Foto: Marshall SFC) La Ciencia desde el Macuiltépetl/ Ideología y ciencia Por Manuel Martínez Morales Hay una escena de la película La hora de los hornos que comienza con la frase: “Latinoamérica es un continente en guerra, una guerra que se libra esencialmente en la mente del hombre”, en seguida aparece una calle profusamente iluminada por anuncios de gas neón; lo mismo podría ser el centro de la ciudad de México, el de Caracas o Buenos Aires. Solanas y Betino, realizadores de la película, llaman nuestra atención hacia lo que comúnmente se ha denominado guerra psicológica o guerra ideológica, mediante el empleo de los recursos audiovisuales como radio, televisión, anuncios luminosos en la calle, periódicos y revistas, el sistema social imperante nos introyecta una visión deformada del mundo y de nuestra sociedad. Una visión que no refleja la totalidad de la que formamos parte, sino una realidad parcial fabricada por quienes se interesan en inducirnos a consumir, comportarnos y pensar según ciertos moldes. En sus orígenes la expresión “ideología” designaba la teoría genética de las ideas. Esto es, la historia de la formación de las ideas. Marx retomó el término para darle un sentido muy distinto. La ideología, para Marx y Engels, es el sistema de ideas, de representaciones, que domina el espíritu de un hombre o grupo social. En una sociedad dividida en clases sociales, agrega Marx, es la clase dominante la que impone a las demás su propia concepción del mundo y de la sociedad. La ideología es, sustancialmente, una concepción deformada, es decir, falsa de la realidad; su función primordial no es proporcionar un conocimiento objetivo del mundo, sino garantizar la reproducción de las condiciones que posibilitan el predominio de determinada clase social. No sólo la reproducción física de los hombres, sino además las condiciones que hacen posible su inserción en una clase social. En el caso de la clase trabajadora, su reproducción física se asegura esencialmente mediante el salario; empero, no basta con proporcionar a la fuerza de trabajo las condiciones materiales de su reproducción para que sobreviva como tal, la fuerza de trabajo disponible debe ser “competente”, es decir, apta para ser utilizada en el complejo sistema del proceso de producción y, más aún, debe aceptar el lugar que la clase en el poder le asigna. Junto con los conocimientos técnicos necesarios para desempeñarse en su trabajo, el obrero también “aprende” reglas 682 El Hijo de El Cronopio No. 64 de moral y de conciencia cívica y profesional, lo que significa en realidad reglas del respeto a la división social-técnica del trabajo y, en definitiva, reglas de orden establecido por la dominación de clase. Se aprende también a obedecer. La sumisión ideológica se alcanza mediante los aparatos ideológicos de estado, así llamados por Althusser. La escuela, la iglesia y los medios de comunicación masiva constituyen precisamente esos aparatos de control ideológico. Vance Packard, en su famosa obra Los persuasores ocultos y Marshal Mc Luhan en La novia mecánica develaron los sutiles mecanismos mediante los cuales la propaganda actúa sobre nuestro inconsciente para inducirnos a comprar, vestir, hablar, caminar, reír y pensar de acuerdo con los esquemas convenientes a los dueños del poder. Althusser describe metafóricamente la estructura social como un edificio en el cual los cimientos corresponden a la economía, esto es, al modo como los hombres producen las condiciones materiales de su existencia; la construcción sobre estos cimientos está constituida por la superestructura jurídica y política del estado y, la ideología sería la argamasa que mantiene unido al edificio y evita que éste se desplome. Entonces, la ideología está definida, más que como conocimiento del mundo, como una imagen deformada de la realidad con una función social específica: garantizar el consenso y la reproducción de la estructura social vigente. Ahora bien, mientras estamos inmersos en la ideología no podemos darnos cuenta de nuestra ideologización. Dice Althusser: Pero reconocer que somos sujetos y que funcionamos en los rituales prácticos de la vida cotidiana más elemental (el apretón de manos, el hecho de llamarlo a Ud. Por su nombre, etc.), tal reconocimiento nos da solamente la “conciencia” de nuestra práctica incesante (eterna) del reconocimiento ideológico, pero no nos da en absoluto el conocimiento. Ahora bien, en este conocimiento hay que ir a parar si se quiere, mientras se hable en la ideología y desde la ideología, esbozar un discurso que intente romper con la ideología para atreverse a ser el comienzo de un discurso científico (sin sujeto) sobre la ideología. (Ideología y aparatos ideológicos del Estado, Ed. Quinto Sol) Es únicamente a través del conocimiento científico, es decir, objetivo, despersonalizado, que podemos entender y, por lo tanto, desarmar, a la ideología. El conocimiento científico, sin embargo, no es un conocimiento “puro” sino que también está permeado por la ideología y sólo puede realizarse y desarrollarse a condición de confrontarse de modo permanente con las nociones ideológicas. El desarrollo de las teorías y métodos científicos ha sido la historia de una enconada lucha contra la ideología. Recuérdense la muerte de Sócrates, el juicio a Galileo, la ejecución en la hoguera de Giordano Bruno, la persecución de los nazis contra Einstein y, en la actualidad, las prohibiciones y ataques contra las teorías marxistas de la historia y el conocimiento. Las ciencias de mayor antigüedad, como las matemáticas y la física, están casi despojadas de todo vestigio ideológico. Sin embargo, todavía es posible encontrar en algunas teorías, métodos e interpretaciones con matices ideológicos bastante pronunciados. En cambio, las ciencias más cercanas al hombre y a la lucha de clases son 683 El Hijo de El Cronopio No. 64 las más fuertemente impregnadas por la ideología; son los casos de la sociología, la historia, la antropología, la psicología e, incluso, la biología. El razonamiento científico no es algo complicado, o algo que requiera para su ejercicio de una tecnología costosa es, ante todo, un modo de abordar la realidad para tratar de conocerla como es, para tratar de conocer “la esencia del fenómeno” (Marx), “la cosa en sí” (Kant, Kosik). Afirma Marx que si el conocimiento de la realidad nos fuera dado en forma inmediata, toda ciencia sería superflua. El método científico exige, sí rigor, disciplina y honestidad intelectual. El conocimiento científico no puede adquirirse en forma de recetas o únicamente a través de la lectura; es ante todo una práctica, una manera de abordar el mundo y la vida propia. Un campesino iletrado que sabe, exactamente, en qué día debe sembrar, está haciendo uso de un conocimiento objetivo elemental adquirido por la experiencia de muchas generaciones. En una sociedad tan devastada como la nuestra, se hace indispensable el ejercicio de la razón científica, la razón crítica y dialéctica para desembarazarnos de esa cruel ideología que insiste, pesada e insistentemente, en mantenernos en un estado de sujeción y atarantamiento intelectual; cuando eso se logre “será la hora de los hornos y no habrá de verse más la luz” (José Martí). 25 de noviembre de 1983 El Cabuche (crónicas de la Facultad de Ciencias)/ Ciudad en llamas Hasta no verte Jesús mío, es el título de una conocida novela de Elena Poniatowska que hace referencia a un famoso dicho mexicano. Y muy cierto, hasta no ver y apreciar en su justa dimensión las cosas o los eventos tenemos un verdadero enfoque. Justo sucedió cuando en 1976, nos trasladamos, un grupo de estudiantes de la entonces escuela de física, a la UNAM. David Terrel un egresado de la escuela que siguió la especialización en Geofísica, se desempeñaba profesionalmente en la UNAM. De sus gestiones consiguió que un buen número de revistas especializadas en geofísica y algunos libros fueran donados a la escuela; Terrel se comunicó con el Consejo Estudiantil de la escuela y se formó una comisión para ir a echarle un ojo a las revistas y ver la posibilidad de traerlas a nuestra biblioteca, aunque la condición de la biblioteca no estaba como para ponerse los moños. Formé parte de la comisión y con las pocas indicaciones que dio Terrel nos enfilamos a la ciudad del smog a cumplir nuestra papelera función. Resulta que lo único que sabíamos era que teníamos que ir al Pozo Sísmico, que según decía Terrel se encontraba cerca de la Facultad de Ciencias. En principio nos contentamos con esas indicaciones y no esperamos a tener mayores detalles de Terrel, total al llegar a CU no teníamos más que buscar el llamado Pozo Sísmico en las inmediaciones de la Facultad de Ciencias. ¡Oh cruel realidad! Resulta que CU sí era en realidad una ciudad; como viles provincianos y con la bocota abierta caminábamos y caminábamos, sin dar crédito a que nos encontrábamos en la Ciudad Universitaria de la UNAM, las dimensiones sobrepasaban por muchísimo lo imaginado. -¡Debimos esperar más datos del Terrel!, nos recriminábamos mutuamente, pero ya nos encontrábamos en ese monstruo con una misión que se convertía en imposible. Para variar, como en toda gran ciudad, nadie sabía, o al menos esa impresión tuvimos, de la existencia del famoso Pozo Sísmico así que al preguntar nos mandaban en una dirección y al llegar y volver a preguntar nos regresaban; lo único bueno es que, después de más de seis horas de 684 El Hijo de El Cronopio No. 64 deambular, acabamos de conocer la ciudad universitaria. Cuando estábamos a punto de claudicar, como una dulce aparición entre la bruma, en este caso entre el smog, apareció un pequeño domo sobre la superficie de no más de cuatro metros de diámetro, con la sospechosa forma de un pozo, preguntamos por no dejar y resulta que allí estaba el mentado Pozo Sísmico; en realidad era un pozo, pequeño edificio invertido que a través de pisos se desempeñaban funciones de monitoreo geofísico. En uno de dichos pisos se encontraba una especie de biblioteca, en la cual en cajas, esperando su desalojo se encontraban principalmente revistas. Contactamos a Terrel a quien no conocíamos más que de oídas y de pláticas con la raza de la escuela; tiempo después llegaron a la biblioteca de la escuela las cajas sabias. Ahora, esa ciudad se encuentra sitiada por las fuerzas policiales, como única solución dada por las autoridades para “terminar” con un conflicto que la mantiene paralizada por cerca de diez meses. Las posiciones de los ultras (gobierno y estudiantes) han impedido la realización de un necesario dialogo que conduzca, no sólo a una solución al conflicto, sino a una transformación de las anquilosadas estructuras universitarias. Esa ciudad donde se aloja, al decir de unos, la máxima representación cultural del país; está en llamas. Tomada por las fuerzas del estado, sopretexto de la cerrazón de los ultras estudiantes, los ultras del gobierno pisotean la libertad de pensamiento de la universidad y con inauditas acusaciones de terrorismo y motín, encierran a cerca de mil estudiantes, pseudoestudiantes según ellos, y a todo aquél que se encontraba en ciudad universitaria (en esos momentos en los institutos se encontraban investigadores y técnicos trabajando). Ese atentado a la razón que perpetuó el gobierno no puede, al igual que las acciones de los estudiantes que mantenían tomadas algunas de las instalaciones de la UNAM, quedar como una gran acción patriótica, como lo han estado haciendo aparecer los medios de comunicación electrónicos que mantienen secuestradas las mentes de millones de ciudadanos. Las coberturas noticiosas de TV Azteca y Televisa se han caracterizado por una campaña de linchamiento a las posiciones estudiantiles, tengan éstas razón o no, se quiere evitar que la universidad piense, y se avalan proyectos educativos que tienden a maniatar esta virtud. A fin de cuentas, el problema de la universidad es un reflejo de los problemas que la sociedad mexicana tarde o temprano debe de afrontar, los modelos de sojuzgamiento económico y cultural que ha propiciado un nivel de vida que mantiene en la extrema pobreza a millones de mexicanos, a una clase media constantemente golpeada y una pequeñísima (este si es grupúsculo) clase política beneficiada con el sudor y sangre de los mexicanos, entre ellos los llamados ultras, unos jóvenes otros no tanto, que tienen mucho que decir para fincar su futuro; aunque los medios que utilizaron se volvieron en su contra por errores existenciales. Resulta que ahora tenemos que ser testigos y avalar los gritos de irritación de los pobrecitos reporteros de TV Azteca que son “agredidos” en todo momento y no les permiten cumplir su “magnifica y apostolada” tarea de “comunicación”. ¡Basta de impunidad!, sí, pero de la impunidad que usan los medios de comunicación. Afortunadamente existen algunos programas (i.e. paradójicamente las noticias de CNI canal 40, que compró TV Azteca) inteligentes que no atentan contra el intelecto de los televidentes y que llaman a la reflexión; explicación: son producciones de lo que quedó de CNI. ¡Basta de los manejos a ultranza de los medios de comunicación! ¡Fuera policías de ciudad universitaria! ¡Solución al conflicto universitario! ¡Apertura de las posiciones estudiantiles, ultras, para un apropiado 685 El Hijo de El Cronopio No. 64 dialogo! Y esperando que vuelva a vivir ciudad universitaria, recordemos otra ciudad a la que le canta Amaury Pérez Para las angustias pasadas, La Habana/Para los desvaríos del día, La Habana/Para reinventarse los grises,/y encontrar el agua en las ganas/como un curandero revive, La Habana/Para completarse los sueños, La Habana/Para replantearse la vida, La Habana/Para que la luz cauterice,/para remontar esperanzas/para hacerlas casi visibles, La Habana/Para los descuidos del alma, La Habana/Para el vendaval que se arrima, La Habana/Para no pasar de infelices,/cuando se despeñe la calma,/para los olvidos gentiles, La Habana/La Habana, Habana mía/La Habana; Habana nuestra/Habana que no tendrías/Habana que no tuvieras 4º Foro de Educación en la UASLP problemas y escenarios en educación superior: retos en el nuevo milenio Objetivos: buscar estrategias que permitan encontrar soluciones a los desafíos educativos de atención a la demanda del alumno tradicional y del profesional en activo con pertinencia y calidad, que sean aplicables en nuestra universidad. Propiciar un espacio educativo de análisis y reflexión para la comunidad universitaria en relación a su práctica educativa Fechas de su realización: 17 y 18 de febrero: talleres para la elaboración de ponencias 16 y 17 de marzo: 4º Foro de Educación en la UASLP Programa Conferencias en los temas: situación actual de la problemática y escenarios en educación superior; el impacto de la globalización en la educación superior y la transformación de programas académicos a partir del rápido avance de la ciencia y la tecnología. Presentación de ponencias en Mesas de trabajo en los temas: el proceso enseñanzaaprendizaje; los nuevos elementos del análisis y diseño curricular y el reto de la universidad ante la demanda de los nuevos conocimientos y habilidades del profesional en activo Comisión Institucional de Apoyo a la Docencia 686 Boletín El Hijo de El Cronopio Facultad de Ciencias Universidad Autónoma de San Luis Potosí No.65, 14 de febrero de 2000 Boletín de información científica y tecnológica de la Facultad de Ciencias Publicación semanal Edición y textos Fís. J. Refugio Martínez Mendoza Cualquier información, artículo o anuncio deberá enviarse al editor e-mail: flash@galia.fc.uaslp.mx Este boletín y números anteriores, pueden consultarse por Internet en la página de la UASLP: http://phobos.dtc.uaslp.mx/publi.html Contrastes Mientras la Academia de Profesores de la Facultad de Filosofía y Letras de la UNAM discutía hacer público un reconocimiento al Dr. De la Fuente (y de la UNAM) por su valentía al permitir el uso de la fuerza pública para desalojar a los estudiantes paristas, el ex rector Pablo González Casanova renunciaba a la dirección de investigación científica de la UNAM como protesta por la incursión de la Policía Federal Preventiva a las instalaciones de la UNAM. Mientras una obesa profesora de la Facultad de Economía de la UNAM declaraba a los medios de “comunicación” electrónicos que pedirían se le aplique la ley al “delincuente” Mario Benítez, profesor de la misma facultad, el director de la citada facultad declaraba que era una pena que una persona como Mario Benítez estuviera preso, solamente por defender sus ideas. La jerarquía católica a través de algunos de sus obispos, entre ellos el de San Luis Potosí, aprueban el uso de la fuerza pública contra los “revoltosos y delincuentes” estudiantes, contradiciéndose así, con lo que “humildemente” predican. Mientras Gurría (el rico jubilado) anuncia que se apoyará económicamente a la UNAM con apoyos extraordinarios, (la UNAM además cobrará un millonario seguro por las pérdidas sufridas en este movimiento) las universidades públicas estatales seguirán padeciendo las penurias económicas emprendidas por el estado (¿La huelga es rentable para aumentar presupuestos?) Labastida y Silva Hersog, pintarrajeando paredes en edificios públicos y el exdirector de la Facultad de Derecho aventando un quinientón a la juez. Ya lo dice Julio Hernández López en su columna Astillero: mientras tantos se ríen de la ley, unos cuantos, por sus ideas, están en la cárcel El Hijo de El Cronopio No. 65 Aleph Cero/ Un Siglo de Física Por Shahen Hacyan para el periódico Reforma Independientemente de que se haya acabado o no el siglo, el desarrollo de la ciencia en el siglo XX ha sido tan espectacular que bien vale hacer una breve reflexión al respecto. Si nos fijamos únicamente en las ciencias de la materia y la energía (las ciencias de la vida merecen otra mención de igual importancia), podemos constatar que los grandes avances tecnológicos de la primera mitad del siglo XX estuvieron asociados al aprovechamiento masivo de la energía eléctrica. Estos avances fueron frutos de los trabajos experimentales que realizaron físicos como Michael Faraday, en la primera mitad del siglo XIX, y de la teoría del electromagnetismo que desarrolló J. C. Maxwell a mediados de ese mismo siglo. En una época dominada por las máquinas de vapor, estas investigaciones no parecían tener más objetivo que satisfacer la curiosidad de los científicos, pero las aplicaciones prácticas se hicieron evidentes antes de que empezará el siglo XX. La teoría electromagnética fue un puente entre la física clásica y la moderna. Sirvió de preludio a las dos grandes teorías que transformaron por completo nuestra visión del mundo: la relatividad y la mecánica cuántica. La primera fue obra principalmente de Einstein; la segunda fue desarrollada inicialmente por Max Planck, el mismo Einstein y Niels Bohr, seguidos de muchos otros notables fundadores de esta nueva ciencia. La física de Newton es perfectamente válida para un gran número de usos prácticos, pero falla cuando se trata de fenómenos que implican movimientos con velocidades cercanas a la de la luz. Con la teoría de la relatividad especial, Einstein mostró, en 1905, que, para esas velocidades, nuestros conceptos comunes de espacio y tiempo dejan de tener el sentido que les damos y dependen del movimiento de un observador. Diez años después, Einstein presentó una versión más general de su teoría para explicar también la gravitación: en la teoría general, el espacio y el tiempo no son simples escenarios de los fenómenos físicos y se vuelven causas dinámicas de la atracción gravitacional. La teoría especial de la relatividad ha sido confirmada más allá de toda duda, tanto con experimentos directos, como por su perfecta consistencia interna que permite estudiar y comprender numerosos fenómenos físicos que ocurren a grandes velocidades o altas energías. En cuanto a la teoría general, sus principales campos de aplicación han sido la astrofísica y la cosmología. La física newtoniana pierde también su validez cuando se trata de fenómenos físicos que ocurren sobre distancias atómicas. El electrón, partícula constituyente del átomo, fue descubierto en 1897 por J. J. Thomson, y la estructura del átomo fue elucidada por Ernest Rutherford en 1911. A fines del año 1900, Max Planck publicó un artículo en el que mostraba que cierta forma de radiación luminosa podía explicarse si uno suponía que la luz existe en paquetes de energía, que se pueden contar de uno en uno. Para Planck, su método era sólo una curiosidad matemática, pero, cuatro años después, Einstein mostró que los paquetes de energía debían ser reales. Esto permitió a Niels Bohr desarrollar su teoría atómica, en la que el átomo es parecido a un sistema solar, con el núcleo en el centro y los electrones girando alrededor como planetas; la diferencia fundamental, sin embargo, es que los electrones sólo pueden estar en órbitas bien definidas y efectúan “saltos cuánticos” de una órbita a otra en forma totalmente impredecible. Con esto terminaba el determinismo implícito en la mecánica clásica. De hecho, Bohr insistió 688 El Hijo de El Cronopio No. 65 siempre en que, con la mecánica cuántica, debíamos renunciar a la pretensión de entender el mundo atómico con conceptos propios de nuestro mundo macroscópico. La mecánica cuántica alcanzó su consolidación en los años veinte y treinta gracias a los trabajos teóricos de Werner Heisenberg, Erwin Schrödinger, Paul Dirac y muchos más. La nueva teoría no sólo modificó los conceptos de espacio y tiempo, sino que llegó a replantear el problema filosófico de la existencia de una realidad objetiva. En la interpretación de Bohr y Heisenberg de la mecánica cuántica, el sujeto que observa al mundo no puede abstraerse de lo que observa, y el mundo que ve y estudia es producto, en parte, de lo que él mismo contribuyó por medio de sus aparatos de observación. Así, la primera mitad del siglo XX presenció una profunda revolución de nuestros conceptos fundamentales sobre el espacio, el tiempo, la causalidad y la realidad objetiva. Los primeros frutos prácticos de esa revolución habrían de aparecer durante la Segunda Guerra, desgraciadamente en la forma trágica que todos conocemos. A partir de Hiroshima, el mundo empezó a tomar en serio lo que parecían curiosidades científicas. Por fortuna, las importantes aplicaciones que vinieron después no cayeron directamente en las garras de los políticos y militares, y pudieron utilizarse para provecho de la humanidad, incluyendo la misma energía nuclear que tan trágico inicio tuvo. El transistor y el láser son los ejemplos más conocidos de las aplicaciones tecnológicas que surgieron gracias a la física cuántica. Si bien podemos esperar notables adelantos tecnológicos en el siglo XXI, por ahora es imposible imaginar una revolución equivalente al del siglo XX en cuanto a su impacto en conceptos fundamentales. Noticias de la Ciencia y la Tecnología ¿Una limpia? Pruebe con café Sobran razones para ingerir café: despertar del todo, ponerse alerta, agarrar de plano la onda..., ¡ah!, y descontaminar el agua que uno bebe. Resulta que el agua del grifo, que puede adquirir metales pesados a su paso por depósitos, tuberías de cobre y plastas de soldadura, pierde hasta 98 por ciento de estas moléculas indeseables con sólo hacerla pasar por un volumen de café molido. Incluso si se trata de uno de esos insípidos y agüitados cafés preparados por goteo, el agua saldrá del filtro notablemente más pura que como entró. "El proceso de preparación del café retira de 78 a 90 por ciento del cobre y plomo del agua que entra", escriben los autores de un estudio por publicar en la revista Human and Ecological Risk Assessment. "Proponemos que el factor principal es el tiempo de contacto" entre el café molido y el agua, precisan. Las moléculas de café molido, con carga eléctrica negativa, atraen a los iones metálicos positivos, explican los autores (el australiano Mike McLaughlin, el estadounidense Herbert Allen y el chileno Gustavo Lagos). Descontaminar las galletitas es otro cuento, desde luego. Contra los relámpagos Un académico de la Staffordshire University está trabajando para proteger del impacto de los relámpagos a las vulnerables líneas eléctricas. 689 El Hijo de El Cronopio No. 65 Parece un sistema ideado para una película de James Bond, pero sólo pretende ayudar a evitar los efectos de la caídas de relámpagos sobre las líneas eléctricas. El doctor Moofik Al-Tai, de la Staffordshire University, en cooperación con la japonesa Osaka University, está desarrollando este sistema que consiste en un rayo láser y varios espejos que desvían el relámpago hacia un lugar más seguro. Cuando las ílneas eléctricas son alcanzadas por un rayo, éstas pueden sufrir un pico de energía que, viajando a la velocidad de la luz, podría llegar a tener efectos explosivos e incluso letales. A diferencia de los pararrayos, cuya presencia es poco activa, el invento de Al-Tai implica dirigir un rayo láser hacia las nubes de tormenta. Este rayo se encargará entonces de guiar el relámpago hacia tierra, lejos de las líneas eléctricas. El equipo podría instalarse para proteger hospitales y escuelas, por ejemplo, donde una subida de tensión puede acabar con caros instrumentos, interrumpir una clase o poner en peligro a muchas personas. El principal problema, sin embargo, es que el sistema sólo puede encargarse de un relámpago sencillo a la vez. Una tormenta puede lanzar centenares y miles de ellos en poco tiempo, y también provocar algunos con numerosas ramificaciones. El grupo de investigadores está estudiando esta cuestión para intentar resolverla lo antes posible. Meteoro sobre Yukon Los habitantes de una remota región del Canadá han tenido la fortuna de contemplar la caída de un meteoro realmente espectacular, uno de los más notables acaecidos durante los pasados diez años. No se trata de un fenómeno inhabitual, pero la caída de grandes meteoros sobre la Tierra siempre se convierte en una curiosidad científica que vale la pena investigar. El 18 de enero, hacia las 16:45 UTC, una enorme bola de fuego iluminó los cielos del territorio canadiense del Yukon. Numerosos testigos situados en tierra manifestaron haber oído, al mismo tiempo, dos estallidos sónicos y una especie de silbido, acompañados por un extraño olor en el aire. El acontecimiento tuvo también testigos electrónicos, satélites artificiales y estaciones sísmicas. Basándose en sus observaciones, los científicos creen que el meteoro que penetró en la atmósfera detonó en ella con una energía de entre 2 y 3 kilotones de TNT. No es gran cosa, en términos cósmicos, pero el meteoro se ha convertido en uno de los más espectaculares ocurridos durante la última década. Tras el "flash" inicial, el objeto dejó una cola de vapor rojizo que tardó al menos media hora en disiparse. Estamos sin duda ante un meteoro esporádico, alejado de cualquier de las periódicas lluvias de estrellas fugaces conocidas. De hecho, el Sistema Solar está lleno de partículas de polvo errantes. Caen sobre la Tierra, como media, unas 2 ó 3 veces cada noche. Normalmente son poco activas, pero en ocasiones, como la presente, son partículas de cierta masa, capaces del despliegue luminoso descrito. Tres días después del suceso, la NASA envió un avión científico ER-2 que atravesó repetidamente la cada vez menos densa nube de residuos dejados en la atmósfera por el meteoro, intentando capturar algunas muestras. También se han organizado búsquedas de restos que puedan haber alcanzado el suelo, con la esperanza de que nos proporcionen más pistas sobre su origen y composición. No es fácil, ya que la región está casi deshabitada. 690 El Hijo de El Cronopio No. 65 El avión ER-2 tomó muestras mediante un instrumento especial llamado Aerosol Particulate Sampler (APS). También transportó cámaras de alta resolución para intentar fotografiar la superficie en busca de signos de destrucción en los bosques o de la presencia de pequeños cráteres. Información adicional en: http://spacescience.com/headlines/y2000/ast25jan_1.htm Imagen (Animación): http://spacescience.com/headlines/images/yukon/smoketrail.gif (Cola de gases dejada por el meteoro.)(Foto: Ewald Lemke) Aún hay esperanzas para la Mars Polar Lander Justo cuando la NASA había anunciado que abandonaba la búsqueda de señales de la sonda Mars Polar Lander, el análisis de las que se registraron hace algunas semanas sugiere que la nave podría haber contestado, aunque débilmente, a la llamada de los científicos. En ocasiones, tirar la toalla es un signo inequívoco de que ya no hay nada que hacer. Pero entonces, puede surgir la sorpresa. El 18 de diciembre y el 4 de enero, los controladores de la misión Mars Polar Lander enviaron diversas órdenes a la sonda marciana, instruyéndola para que enviara señales, si era posible, en dirección a la antena de 45 metros de diámetro de la Stanford University. Un análisis preliminar no reveló nada destacable, pero un procesamiento de la información más profundo ha puesto de manifiesto una muy débil señal de clara procedencia artificial. Los técnicos creen que podría ser de la MPL. Paralelamente, la NASA había declarado ya que abandonaba todo intento de establecer el contacto. Todo parecía indicar que la nave se estrelló tras completar su fase descenso en dirección a las cercanías de uno de los polos marcianos, o quizá algún problema técnico definitivo había impedido su operación normal. Las noticias procedentes de la Stanford University, por supuesto, han cambiado las cosas. Si las débiles señales captadas son de la sonda, eso significaría que la antena de transmisión de la MPL está dañada, o quizá que el vehículo ha volcado, lo que le impide dirigirla con precisión. Algo parecido ya ocurrió hace muchos años durante una misión soviética hacia la superficie de Venus. Por si acaso, la Stanford University envió otra serie de órdenes hacia Marte el 25 de enero, intentando comprobar si la señal era realmente de la MPL o no. Dichas órdenes debían hacer que la sonda contestase el 26 de enero. La confirmación de esta respuesta, sin embargo, necesitaría de varios días de análisis y procesamiento. La señal detectada por la antena de Stanford es artificial, pero también podría haber sido generada en la Tierra o cerca de ella. Si la MPL es la responsable de dicha señal, implicaría que el sistema de transmisión en banda X de la sonda no funciona bien, pero también que el sistema secundario que permite un contacto a través de la Mars Global Surveyor, en órbita alrededor del planeta, tampoco está actuando como debe. Problemas ambos de difícil solución, pero que al menos podrían ayudar a confirmar que la nave sí aterrizó de una pieza. El principal interés del personal técnico es saber qué ha ocurrido exactamente, para tomar las medidas oportunas que eviten que vuelva a suceder en una futura misión. No es lo mismo saber que la MPL ha tenido mala suerte al encontrar un territorio inhóspito, que tener la certeza de que el diseño de la nave es 691 El Hijo de El Cronopio No. 65 erróneo. Recordemos que de momento se ha suspendido el lanzamiento de un vehículo casi idéntico en el 2001. La señal de UHF detectada por la Stanford es muy débil, de tan sólo 1 vatio, algo así como ver la luz de una bombilla de un árbol de Navidad a la distancia de Marte. Este tipo de señales deberían ser captadas por la Mars Global Surveyor y no directamente por las antenas de la Tierra. Si fuera posible confirmar su procedencia, los ingenieros tratarían de conseguir información de los sistemas de la nave, pero se descarta casi totalmente que ésta pueda utilizarse de forma científica. En unas semanas más, las temperaturas en la zona de aterrizaje habrán bajado tanto que sus sistemas fallarán definitivamente. La NASA ha solicitado la ayuda de observatorios radioastronómicos de Italia, Holanda y Gran Bretaña, para la localización de la señal. Por el momento no se ha anunciado ningún tipo de detección, y los ingenieros siguen trabajando en ello. Por ejemplo, el 1 y 2 de febrero se han enviado nuevas órdenes en dirección a Marte, órdenes que le dicen a la MPL, básicamente, que reinicialice su reloj interno y que comunique con la Tierra. Se han previsto otros intentos a partir del 4 de febrero, gracias a la participación de las antenas italianas, británicas y holandesas. Información adicional en: http://spacescience.com/headlines/y2000/ast27jan_1.htm http://nova.stanford.edu/~joe/dish.html http://mars.jpl.nasa.gov/msp98/news/mpl000125.html Imagen: http://nova.stanford.edu/~joe/images/su-tour-dish.jpg (La antena de Stanford.) (Stanford University) La historia del coral Personal bien entrenado puede obtener valiosa información climatológica a partir del estudio de los arrecifes de coral. Julia Cole es una geocientífico de la University of Arizona con una rara habilidad. Ella y algunos de sus colegas procedentes de Kenia y de la misma California han sido capaces de reconstruir los últimos 194 años de historia de las temperaturas de una región oceánica en particular, gracias al cuidadoso estudio de los anillos anuales de crecimiento de los arrecifes de coral de esta zona, en Kenia. El examen de este registro les ha permitido establecer una relación entre el famoso fenómeno meteorológico de El Niño y los cambios climatológicos cíclicos que se experimentan en esta región. El Niño trae más lluvia hasta Africa Oriental, pero también calienta las aguas oceánicas en este punto. Esto influye en el crecimiento del coral, lo que sirve como registro de las condiciones del momento. Esto es interesante, ya que las mediciones de la temperatura oceánica con instrumental fiable datan de tan sólo unas pocas décadas atrás, mientras que el coral ofrece un espectro de casi dos siglos. Esto ayudará mucho a los científicos que están estudiando El Niño, ya que podrán comprobar su influencia a más largo plazo. El nivel actual de salida de gases invernadero hacia la atmósfera podría estar enmascarando esta influencia, este ciclo anual de temperaturas. El coral estudiado por Cole y sus colegas se encuentra en Malindi. Dichos trabajos sugieren que desde 1901 hasta ahora la temperatura del agua se ha visto aumentada en unos 2 grados F, siendo las dos últimas décadas las más cálidas hasta el momento. 692 El Hijo de El Cronopio No. 65 Cuando las temperaturas aumentan, el coral responde incorporando oxígeno menos pesado a su esqueleto. La proporción entre el oxígeno pesado y el oxígeno ligero presente en los esqueletos del coral puede ser medido con una precisión de 1 entre 10.000. Así, los anillos de crecimiento del coral sirven como calendario y como termómetro naturales. Información adicional en: http://uanews.opi.arizona.edu/cgibin/WebObjects/ScienceResearch.woa/wa/StoryDetails?ArticleID=1000 Imagen: http://graucho.opi.arizona.edu/images/julia1p.jpg (Los científicos estudian el coral.) (Foto: Julia Cole) El origen de las esmeraldas Las bonitas esmeraldas de los tesoros de la antigüedad tienen una procedencia un tanto misteriosa. Los expertos no saben a ciencia cierta de dónde proceden muchas de las esmeraldas pertenecientes a los magnos tesoros de la antigüedad. Esto es especialmente cierto para un tipo de gemas con las que los mercaderes indios comerciaron en todo el mundo a partir del siglo XVII. Las esmeraldas antiguas, de importancia histórica, necesitan un método de autenticación fiable. Centros como el Institut de Recherche Pour le Développement o el Centre de Recherches Pétrographiques et Géochimiques de Nancy han conseguido recientemente realizar un seguimiento de las rutas de comercio seguidas por las esmeraldas a través de los siglos. Algunas de ellas, curiosamente, pertenecen a minas que se creía habían sido descubiertas sólo en el siglo XX. Como símbolo de inmortalidad y poder, las esmeraldas han tenido una gran demanda desde hace mucho tiempo. A pesar de los análisis gemológicos, el origen de las que pertenecen a los tesoros de la antigüedad sigue siendo incierto, casi misterioso. Muchas se acumularon a partir del siglo XVI, lo que hace sospechar que surgieron de minas del sudeste de Asia, ahora desaparecidas. Las minas del medio y lejano Oriente serían más recientes, del siglo XX. Para aclararlo, los especialistas han empezado a usar un método de catalogación moderno. Mediante espectrometría, se mide la proporción entre los isótopos de oxígeno 160 y 180 en las moléculas de oxígeno emitidas durante una reacción química provocada en una muestra de la gema. La composición isotópica depende de la roca en la que cristalizó, identificando claramente el depósito de procedencia. Utilizando esta propiedad, se han catalogado los contenidos de las minas más importantes conocidas (62 depósitos en 19 países), lo que permite hacer comparaciones con las esmeraldas que deseemos. Hasta ahora se creía que las minas de Egipto, explotadas por los faraones entre el 3000 y el 1500 antes de nuestra era, y las de Habachtal, en Austria, descubiertas por los celtas, eran las únicas fuentes de esmeraldas en el mundo antiguo hasta 1545, momento en que los Conquistadores Españoles tomaron posesión de las minas Colombianas. Esto se ha confirmado tras el análisis de varios ejemplares procedentes de un tesoro galoromano, pero en él se encuentran también otras esmeraldas que han resultado proceder de una mina de Pakistán, la cual se creía descubierta sólo desde los años 1950. Los 693 El Hijo de El Cronopio No. 65 especialistas piensan que conforme se vayan analizando otras gemas de este tipo, se comprobará que muchas esmeraldas tenían procedencias distintas a las esperadas. Información adicional en: http://www.aaas.org/ Armada robótica Multitud de robots sin mente podrán realizar tareas complejas sin llegar a comunicarse entre ellos. Algunas propuestas visionarias contemplan la utilización de ejércitos de robots inteligentes, los cuales, comunicándose entre sí, podrán realizar tareas muy sofisticadas, como construir una colonia marciana. Sin embargo, un experto canadiense en robótica cree que no es necesario esperar a desarrollar robots inteligentes para conseguirlo. Otros, mucho más baratos, sin capacidad de entablar contacto entre ellos, pueden realizar también trabajos de cierta complejidad. Su inspiración, como ocurre a menudo, se encuentra en la naturaleza: las hormigas. Las hormigas muestran un comportamiento no comunicativo cuando combinan sus esfuerzos para transportar grandes fragmentos de comida, como hojas. Si observamos una hormiga en particular, parece comportarse de forma caótica e incluso improductiva. En cambio, el grupo de hormigas como un todo muestra una forma de inteligencia a pesar de la ausencia de un control central. Ronald Kube, del Edmonton Research Park, de Alberta, ha intentado reproducir esto con un pequeño grupo experimental de robots. Como son baratos de construir, no importa si algunos de ellos se pierden durante el trabajo. En cambio, un control central es un punto débil que si falla dejará a todo el equipo inoperativo. Kube ha preparado pues seis robots intrínsecamente estúpidos, cuyo único objetivo es buscar un lugar donde obtener comida, en este caso un punto luminoso en una caja. La caja es demasiado pesada para que un solo robot la empuje. Una vez localizada, el robot debe establecer si se encuentra orientado hacia una segunda luz en el techo, en el otro extremo del campo, la cual representa el nido. Si lo está, intentará empujar la caja, en caso contrario, girará en círculos hasta que la encuentre de nuevo, momento que aprovechará para volver a evaluar si puede o no empujarla. El comportamiento de los robots, como el de las hormigas, parece caótico, pero éstos, sin necesidad de comunicarse con sus compañeros, se benefician del trabajo mutuo para conseguir el objetivo. (New Scientist) Indicadores del cambio planetario Los lagos y las corrientes de alta montaña son un buen síntoma de lo que le está ocurriendo a nuestro planeta a nivel climático. Del 4 al 8 de septiembre de 2000 se celebrará en Innsbruck (Austria) una conferencia científica internacional abierta sobre "Lagos y corrientes de alta montaña: indicadores del cambio planetario". La conferencia se centrará en los trabajos financiados a través del programa específico de investigación en los ámbitos de la energía, el medio ambiente y el desarrollo sostenible de la Comisión Europea. La quinta parte del planeta son montañas, en las que viven el 10 por ciento de la población mundial. Los ecosistemas montañosos remotos, en particular lagos y ríos, van 694 El Hijo de El Cronopio No. 65 cobrando creciente interés, tanto para los investigadores como para el público en general, por ser ol s únicos vestigios de ecosistemas naturales en un mundo densamente poblado. Los lagos y ríos de alta montaña brindan a los investigadores valiosos instrumentos de representación de condiciones remotas y extremas de temperatura, radiación y biología, por ejemplo. La sensibilidad de estas zonas a las fluctuaciones del medio ambiente ha contribuido a que los científicos conozcan mejor las fuerzas y respuestas, así como la acción y reacción en los ecosistemas acuáticos en general. Esta sensibilidad, sin embargo, hace gravitar una verdadera amenaza sobre los organismos, hábitats y ecosistemas que se deriva, de forma esencialmente indirecta, de la actividad antrópica (tales como el calentamiento del planeta y la contaminación atmosférica). El simposio tratará seis temas genéricos: Fuerzas físicas: efectos climatológicos (retirada de los glaciares, radiación solar, temperatura, nieve y hielo como fuerzas dominantes en los entornos montañosos); estabilidad de los hábitats: inundaciones y sequías (factores de conformación de la morfología y comunidades bióticas). Aportaciones y flujos: nutrientes y contaminantes (¿remotos?); ácidos y polvo (competencia en grandes alturas, acumulación de metales y sustancias organocloradas); definición de modelos y presupuestos; Modelos y procesos bióticos; estructura y dinámica (desde los virus hasta los invertebrados); sucesión y comunidades (su impacto en los flujos y ciclos de elementos y contaminantes; supervivencia de especies raras y amenazadas). Vida bajo estrés: ¿qué respuesta anteponen los organismos a los altos niveles de estrés (combinación de factores de presión) en los entornos de alta montaña? Indicadores de estrés, desde el productor primario hasta el usuario final, incluida la fisiología del pez. Perspectiva histórica: de estaciones y siglos (extracción de muestras y datación); inferir el pasado (evolución natural versus efectos humanos). Hiatos y perspectivas: conectar las cuencas hidrológicas a cada lago y río, y lo que se olvidó en el pasado. En el curso del simposio se presentarán los resultados de largos años de proyectos interdisciplinarios a gran escala dedicados a lagos y ríos lejanos de montaña, y financiados en el marco de los programas de medio ambiente y clima de la Unión Europea. Asimismo se brindará un foro de intercambio de experiencias de investigadores de todo el mundo, tras lo cual se transmitirán las correspondientes enseñanzas a autoridades decisorias y responsables políticos, así como a gestores medioambientales. Moléculas en 3d Los científicos nos muestran por primera vez, y en tres dimensiones, cómo se rompen las moléculas al ser expuestas a los rayos-X. Se dice a menudo que ver es creer. Conscientes de ello, los científicos del Weizmann Institute han logrado obtener imágenes tridimensionales de un proceso normalmente invisible para nuestros ojos. Durante el estudio de uno de los enzimas más intrigantes de la naturaleza, la acetilcolinasterasa (AchE), que tiene un papel crucial en la memoria y otras funciones del cerebro, el equipo decidió examinar su reacción enzimática a "tiempo real", utilizando 695 El Hijo de El Cronopio No. 65 para ello cristalografía de rayos-X. Esta consiste en exponer cristales del enzima a chorros de rayos-X de alta intensidad. Tras el primer intento, los investigadores han constatado la obtención de la primera visualización tridimensional de la rotura (inducida por radiación) de los enlaces químicos en la proteína. Dichas imágenes pueden tener implicaciones a la hora de mejorar nuestro conocimiento del daño que las radiaciones pueden provocar a los seres vivos. Dado que somos expuestos a menudo a todo tipo de radiaciones que pueden ocasionar cáncer y otras enfermedades, la citada información ayudará a desarrollar medios farmacológicos para protegernos de tales daños, incluso en casos extremos como el accidente de la planta nuclear de Chernobil. Información adicional en: http://www.weizmann.ac.il/~cskryger/Radiation_Damage/ http://wiswander.weizmann.ac.il/weizmann/doa_iis.dll/Serve/item/English/1.200.6.3.html Imagen: http://wis-wander.weizmann.ac.il/english/img/press_release/S_zusman.jpg (La radiación de rayos-X procedente de un sincrotrón puede dañar rápidamente la estructura de la proteína.) Noticias de la Facultad Exámenes profesionales En el periodo comprendido del 4 de febrero a la fecha se han realizado 7 exámenes profesionales de los estudiantes que se mencionan a continuación: Martín de la Cruz Martínez Presentó su examen el 4 de febrero para obtener el título de Profesor de Matemáticas, con la presentación de la tesis: Relatos de vida docente. La tesis fue asesorada por M. en C. Edith Miriam Soto Pérez. J. Carmelo Flores Gutiérrez Presentó su examen el 4 de febrero para obtener el título de Licenciado en Matemáticas mediante la alternativa de realización de un semestre de maestría con promedio superior o igual al ocho. Santos Hernández Hernández Presentó su examen el 11 de febrero para obtener el título de Licenciado en Matemáticas mediante la alternativa de realización de un semestre de maestría con promedio superior o igual al ocho. María del Carmen Franco Grimaldo Presentó su examen el 11 de febrero para obtener el mediante la alternativa de realización de un semestre de o igual al ocho. Nelly Martínez Méndez Presentó su examen el 11 de febrero para obtener el mediante la alternativa de realización de un semestre de o igual al ocho. 696 título de Ingeniero Electrónico maestría con promedio superior título de Ingeniero Electrónico maestría con promedio superior El Hijo de El Cronopio No. 65 Roberto Castañeda Moreno Presentó su examen el 11 de febrero para obtener el título de Profesor en Matemáticas mediante la presentación de la tesis: Relato de vida: una perspectiva de la formación del profesor de matemáticas. La tesis fue asesorada por el Mat. Froylán Marín Sánchez. María Luisa Vázquez Nieves Presentó su examen el 11 de febrero para obtener el título de Profesor en Matemáticas mediante la presentación de la tesis: Experiencias docentes de egresados de la carrera de profesor de matemáticas. La tesis fue asesorada por la Mat. Silvia E. Sermeño Lima. La Ciencia desde el Macuiltépetl/ El valor de la ciencia Por Manuel Martínez Morales En 1905, el célebre físico matemático Henri Poincaré publicó El valor de la ciencia, obra en la cual se propuso defender la actividad científica frente a la oleada de creciente negativismo y escepticismo sobre la ciencia y sus logros. Algunos, impresionados por la inestabilidad de las teorías científicas en esa época, proclamaban estridentemente la bancarrota de la ciencia; otros, llegaron a expresar que la ciencia era una creación artificial del hombre sin conexión alguna con el mundo físico. Hoy, casi 80 años después de la apasionada y lúcida defensa de la ciencia y su valor por Poincaré, son pocos de los que se atreverían a hacer tales cuestionamientos. Se reconoce la correspondencia entre las teorías científicas y la realidad, y también se admiten las limitaciones del conocimiento científico. Sabemos que no existe un conocimiento absoluto e inmutable del universo y del hombre; toda teoría es provisional y está sujeta a constantes confrontaciones con la realidad. La ciencia está en continua transformación, las teorías cambian, los métodos se renuevan, se estudian nuevos fenómenos. El avance científico y tecnológico alcanzado en lo que va del siglo, supera a todo lo realizado anteriormente por el hombre. Cosas cuya existencia era considerada imposible, en el siglo pasado, hoy forman parte de nuestra vida cotidiana: el automóvil, la televisión, las computadoras, los fármacos, etc. Desafortunadamente, la investigación científica también ha contribuido a la producción de artefactos con gran poder destructivo que van desde sofisticadas armas convencionales hasta la temible bomba atómica, pasando por toda una variedad de armamento no convencional como las llamadas armas químicas, biológicas y psicológicas. En la actualidad, los críticos más tenaces de la ciencia parten precisamente de este aspecto negativo del quehacer científico: la aplicación de la ciencia para producir artefactos que causen la mayor destrucción posible. Es ya factible la aniquilación total de la especie humana y la degradación absoluta de la biosfera terrestre. De ahí que surja la equivocada conclusión de que la ciencia sólo traerá males a la humanidad y que, por tanto, se hace necesario prescindir de ella. En Estados Unidos de Norteamérica y en Europa Occidental se han organizado numerosos grupos y asociaciones políticas que avalan esa postura. Su posición no es del todo injustificada, pues una gran parte de la investigación científica se orienta precisamente hacia aplicaciones militares. Según el científico argentino Amílcar O. Herrera. 697 El Hijo de El Cronopio No. 65 Se estima que desde la Segunda Guerra Mundial, al menos 40% de los recursos de ciencia y tecnología mundiales ha sido dedicado a la investigación militar. E.U., URSS, China, Francia, Alemania Federal y Gran Bretaña, son responsables del 96-97% del gasto. El número total de científicos e ingenieros que trabajan en la tarea de ciencia y tecnología mundial es de alrededor de 3 millones; 25% de ellos –cerca de 750 000- están comprometidos en investigación militar. (La larga jornada: La crisis nuclear y el destino biológico del hombre, Siglo XXI, 1981). Si bien estos datos acrecientan el temor de un destino trágico para la humanidad, no por ello debe restarse importancia al efecto positivo que la aplicación de la ciencia ha tenido en muchos terrenos tales como: mayor producción y calidad de alimentos, desarrollo de fuentes de energía, fabricación de medicamentos, educación, planificación económica. En fin, la orientación adecuada de la investigación científica y tecnológica ha contribuido enormemente a posibilitar la elevación de la calidad de vida humana. Este aspecto positivo de la ciencia es particularmente importante para un país como el nuestro donde, en el presente, tenemos que importar desde el maíz y fríjol, alimentos básicos del pueblo, hasta los ingredientes para elaborar pasta de dientes. México cuenta con suficientes recursos naturales y humanos como para iniciar un proceso de grandes transformaciones económicas y sociales que se traduzcan en mejores niveles de vida para todos sus habitantes. En la base de este proceso, la ciencia y la tecnología deben ocupar un lugar preponderante. Está demostrado que pueden lograrse resultados impresionantes de utilidad inmediata. Por ejemplo, según información del Consejo Nacional de Ciencia y Tecnología, a partir de 1960, se han realizado experimentos con nuevas variedades de maíz más resistentes a las plagas y a las variaciones climáticas, lográndose, en 1980, un rendimiento de hasta 1770 kilogramos por hectárea. Así como en la agricultura pueden lograrse avances en poco tiempo, lo mismo puede decirse respecto a la industria, a la educación y a la salud. Sin embargo, el desarrollo científico en México es todavía incipiente; según datos de CONACyT, en 1979, había en el país 2.4 investigadores por cada 10 000 habitantes, mientras que en Argentina, esa cifra era de 5.6, y en Estados Unidos de Norteamérica, 26.0. El gasto en Investigaciones y Desarrollo, con relación al Producto Nacional Bruto, alcanzó, en 1982, sólo 0.6%, cuando la meta propuesta era de 1%. En países con alto grado de desarrollo (Japón, ex URSS, Estados Unidos de Norteamérica, Gran Bretaña, Francia), la inversión en ciencia y tecnología está por arriba de 2% del PNB. Estimaciones del propio CONACyT indican que, en 1980, México invirtió más de 6 mil millones de pesos en la compra de bienes de capital y, en 1982, gastó más de 10 mil millones de pesos por concepto de transferencia de tecnología, marcas, patentes, regalías y asesoría técnica. Estas cifras indican que la atención dada a la ciencia en nuestro país no es suficiente. Entiéndase que no se trata sólo de incrementar la cantidad de recursos asignados a ciencia y tecnología, ni de competir con otros países, sino de articular un proyecto de desarrollo acorde con las necesidades más urgentes del país El ideograma chino que representa crisis, está formado por dos ideogramas: uno que significa “riesgo” y el otro “oportunidad”. El riesgo de la crisis actual consiste en dejar inertes las enormes fuerzas productivas de que el país dispone y caer en una pendiente de creciente dependencia económica y, por consiguiente, política, que, en términos llanos, significará más pobreza para la mayoría de los mexicanos. La paradoja de padecer 698 El Hijo de El Cronopio No. 65 hambre en medio de abundantes recursos queda ilustrada perfectamente en la siguiente metáfora de Herrera: Si Dios hubiera tenido la misma imaginación o los mismos intereses creados de las clases dirigentes, Adán y Eva en el paraíso habrían muerto de hambre; tenían a su disposición un sistema productivo que no requería de ningún esfuerzo humano, pero eran desempleados y, por lo tanto, no tenían un salario para comprar sus productos. La oportunidad que la crisis ofrece es la opción de un desarrollo transformador, en el cual la vida y la dignidad humana recuperen su valor. La ciencia y la tecnología son, en este sentido, instrumentos imprescindibles en el proceso de recuperación de los nuestro. No estamos ya en los tiempos en que Poincaré tenía que defender la ciencia ante sus detractores. El valor de la ciencia como elemento de conocimiento y transformación de la realidad es ahora incuestionable; está ausente la voluntad para desarrollarla plenamente y ponerla al servicio del hombre. Se hace necesario, en este tiempo y lugar, revalorar la ciencia y su función para darle la importancia que debe tener como factor primordial de desarrollo social. La ciencia no sólo contribuye a mejorar el aprovechamiento de los recursos materiales, sino además, un elemento central en la cultura de una sociedad. La ciencia no es sólo un conjunto de teorías y métodos para hacer ciertas cosas, es también una concepción del mundo y de nosotros mismos. Entendida en el más amplio sentido, la ciencia complementa y vigoriza las concepciones estéticas y éticas del hombre. Decía Poincaré: “Si queremos liberar, cada vez más al hombre de sus preocupaciones materiales, es para que pueda emplear su libertad reconquistada en el estudio y la contemplación de la verdad”. Debemos convencernos de que la ciencia no es un lujo ni una actividad superflua. Es, como ya se dijo, un elemento de primera importancia para el desarrollo social. Nada mejor para concluir que una brillante reflexión de Amílcar Herrera en la cual expresa, con toda claridad, la importancia que la ciencia debe tener para nosotros, aquí y ahora: Por primera vez en la historia la humanidad posee el conocimiento necesario para resolver todos los problemas conectados con las bases materiales de la vida. En otras palabras, el conocimiento científico y tecnológico a disposición de la humanidad, si se usa racionalmente, puede asegurar que cada ser humano, ahora y en un futuro previsible, pueda tener un nivel de vida, que no sólo lo provea en sus necesidades básicas materiales, sino que también le asegure la plena y activa incorporación a su cultura. La miseria y privación de gran parte de la humanidad no son el resultado inevitable de un incompleto control de nuestro medio físico, sino del uso irracional de los instrumentos científicos y tecnológicos a nuestra disposición. Esta verdad elemental es bien conocida por todos los científicos que se ocupan de los problemas de subsistencia a nivel mundial; si no ha alcanzado todavía la conciencia de toda humanidad es sólo porque es una verdad que puede poner en peligro el mantenimiento de un orden internacional y social básicamente injusto. El Cabuche (crónicas de la Facultad de Ciencias)/ Trovadicción Comenzamos un día, en los tiempos de siempre y todavía. Comenzamos felices a juntar cicatrices, como buenas señales de los años. Dice poéticamente Silvio Rodríguez. Y en ese proceso: la canción, entre drama y comedia. La canción compañera, virginal y 699 El Hijo de El Cronopio No. 65 ramera, la canción. La canción representa no sólo sentimientos y vivencias, suele representar toda una forma de vida; sobre todo la canción que dice y sabe decir las estructuras de pensamiento; la hay también simple y vana, para pasar el rato. Pero la canción que trasciende es por que tiene muchas cosas que comunicar y cultivar, de esta manera la poesía se vuelve canción. Este es el caso de la canción de la llamada Nueva Trova Cubana, que en la década de los setenta marco un hito, como representante de la lucha social; de aquella época a la actual esa tendencia ha evolucionado transformando el tema de la canción cubana representada por la Nueva Trova, eso sí, conservando su estructura poética y reflexiva. En una escuela como la de Física que se caracterizaba por su papel crítico ante los acontecimientos sociales y por otro lado la postura rebelde como respuesta a las acciones represoras que el estado mexicano emprendió en contra del estudiantado nacional, en crueles actos criminales perpetrados en el 68 y el 71, la canción de la Nueva Trova se convirtió en himno y en representante de inconformidades, así como remedio espiritual, para crecer y transformarse. En 1974 cuando ingresé a la entonces Escuela de Física, la Nueva Trova era totalmente desconocida para mí, me costaba trabajo acostumbrarme al tema común de ese tipo de canción; el rock no era de mi total gusto y disfrutaba de la música, en ese tiempo considerada vieja, mexicana, el bolero de Gonzalo Curiel y muchos otros. Pero las notas de las canciones de Silvio Rodríguez, Pablo Milanés, Noé Nicola, entre otros, se imponían en el ambiente de la escuela a tal grado que acabó siendo de mi gusto, a partir de entonces caí en el vicio de la trovadicción. El gusto se lo debo a la Escuela-Facultad; ¿quién dice que no puede formar voluntades? De esta forma el papel de la escuela fue, no sólo formativo, también jugó un papel catalizador en el sentido social y humano. Para la Escuela-Facultad la década de los setenta estuvo, sin lugar a dudas, influenciada y representada por la música de la Nueva Trova Cubana, trova que lideró el auge de las trovas latinoamericanas. A principios de los ochenta, estando realizando mi maestría en la Universidad Autónoma de Puebla, ahora Benemérita, tuve la fortuna de asistir a los conciertos universitarios que año tras año organizaba la universidad poblana; conciertos gratuitos abiertos al público en general en donde se presentaban grupos artísticos de alto nivel de todo el mundo; uno de los conciertos realizado en el Auditorio de la Reforma, tuvo como protagonistas a los máximos representantes de la Nueva Trova Cubana; ahí estaban construyendo y reconstruyendo acordes y notas con sus inseparables guitarras, Silvio Rodríguez, Noé Nicola y Pablo Milanés; exquisito concierto que cautivo mi sentimiento y pensamiento, transportándome ligero a aquellos días pasados en los pasillos, salones y en fin, rincones de la añorada escuela de física. Marcial Alejandro, trovador mexicano, canta Yo no sé si soy del rock and roll/Si ando “speed” o ya ni chuto a gol/Pero la garra que hay en la guitarra/ahorita me salió/Es muy dura mi trovadicción/Lo que importa es que haya canción/No hay tal abismo mientras uno mismo/se surte la emoción/Ocasiones de bailar la rumba/y olvidar la represión/Ocasiones de alegrar la turba/con la banda de la población/¡Es trovar!/Lo que cuenta no es reír ni llorar/para mí lo cuenta es trovar 700 Boletín El Hijo de El Cronopio Facultad de Ciencias Universidad Autónoma de San Luis Potosí No.66, 21 de febrero de 2000 Boletín de información científica y tecnológica de la Facultad de Ciencias Adiós a Benítez Publicación semanal Edición y textos Fís. J. Refugio Martínez Mendoza Cualquier información, artículo o anuncio deberá enviarse al editor e-mail: flash@galia.fc.uaslp.mx Este boletín y números anteriores, pueden consultarse por Internet en la página de la UASLP: http://phobos.dtc.uaslp.mx/publi.html Periódico Reforma El llamado "hermano mayor" de los escritores, falleció ayer a causa de un paro respiratorio. Creador de suplementos culturales que hicieron historia en el periodismo y de obras ya clásicas como "El rey viejo" y los cuatro tomos de reportajes "Los indios de México", Fernando Benítez recibe el homenaje de sus amigos. Fuentes "Hizo un periodismo vital y enérgico". Poniatowska "Veía el lado bueno de las cosas, todo lo convertía en alegría". Descanse en Paz Fernando Benítez Krauze "Era un animador dinámico, no un cacique cultural". Zaid "Suscitaba el ánimo creador y el espíritu crítico". El Hijo de El Cronopio No. 66 ¿Nuevo estado de la materia? Anuncia el CERN el plasma quark-gluón Científicos de 20 países parecen haber conseguido un nuevo estado de la materia: un plasma cuya sola existencia refuerza la compleja teoría que lo predijo décadas atrás Por Javier Crúz para el periódico Reforma El Centro Europeo de Investigaciones Científicas -CERN, basado en Suiza- ha anunciado "evidencia convincente de la existencia de un nuevo estado de la materia en el cual los quarks, en vez de estar confinados dentro de partículas más complejas como protones o neutrones, se pasean libremente". Se trata de un estado que la teoría cosmológica de consenso -la del Big Bang, o Gran Explosión- postula que debe haber existido fugazmente sólo alrededor de los primeros 10 microsegundos del universo, antes de que se formara la materia como la conocemos en la vida diaria. El hallazgo tendría repercusiones también desde el punto de vista del entendimiento sobre cómo interactúan las fuerzas elementales de la naturaleza. "Todas nuestras teorías acerca de la materia descansan en la suposición de que partículas como los protones y neutrones están hechos de quarks", explica un comunicado de prensa del CERN. "Pero nadie ha conseguido aislar un quark". Los quarks están entre los componentes más elementales de la materia. Su entorno es el núcleo atómico, donde están confinados por la acción de otras partículas llamadas gluones. La interacción entre ambas recuerda a un collar de cuentas atravesadas por una banda elástica: si la banda está en reposo, las cuentas permanecen juntas; pero apenas se intenta separarlas, el esfuerzo induce una reacción elástica contraria. A mayor separación, mayor resistencia. Es necesario alcanzar grandes cantidades de energía en el espacio del núcleo para liberar a los quarks de su confinamiento. El resultado sería el nuevo estado de la materia: el plasma quark-gluón. "En este estado, los quarks podrían vagar libremente, en vez de estar 'confinados' en bolsas del tamaño del núcleo, como lo están en la materia nuclear usual", precisa el documento. La Pequeña (Gran) Explosión La teoría postula que el universo fue creado a partir de una Gran Explosión. Apenas unos tres minutos después de ésta, los núcleos atómicos debieron ser formados. Pero los precedieron otras formas de materia, y, antes incluso, tan sólo energía. Se especula que, alrededor de los primeros 10 microsegundos después de la Gran Explosión, lo que había era justamente un plasma quark-gluón. Juan Carlos D'Olivo, del Centro de Ciencias Nucleares de la UNAM, ofrece este contexto: "En los primeros instantes del universo se dan condiciones extremas de densidad y temperatura. Hay un consenso, más o menos general, respecto de la existencia de ese plasma en dicha etapa del Big Bang". Con objeto de reproducir esas condiciones extremas, el CERN puso en marcha un proyecto experimental juguetonamente conocido como "Little Bang". Su estrategia, en explicación de D'Olivo, se basa en lo siguiente: "Con una pequeña cantidad de energía es posible sacar los átomos de las moléculas y los electrones de los átomos. Con una mayor ener gía se consigue extraer los protones y 702 El Hijo de El Cronopio No. 66 neutrones de los núcleos atómicos". Podría haber, entonces, valores críticos de densidad energética y temperatura por encima de los cuales se forma una fase desconfinada que D'Olivo identifica como el plasma de quarks y gluones. Es esta fase, precisamente, la que CERN cree haber manufacturado. ¿Cómo Ver los Quarks? Los aceleradores de partículas permiten colisiones entre núcleos pesados a velocidades enormes. El resultado puede compararse con un gas muy caliente. Conforme se expande, la materia se enfría y podría llegar a condensarse. En esta analogía, el gas sería el plasma quark-gluón, y la condensación de los quarks daría lugar a la formación de protones y neutrones. Nada de esto ocurre sin dejar huellas en los detectores del experimento. Los físicos miden, entonces, distintas señales (como las trayectorias de la fotografía). Según el CERN, una de las más importantes señales de los quarks libres involucra a la partícula llamada J-psi. Uno de los componentes de esta partícula debe formarse en las primeras etapas de la colisión. Pero la teoría predice que la formación de J-psi sería suprimida por la presencia del plasma. "Una reducción suficientemente fuerte en el número de J-psis sugeriría que algo de plasma quark-gluón fue formado. "Eso es exactamente lo que los físicos observaron", celebra el CERN. Pero no todo mundo está igual de contento. Consultado por REFORMA, William Zajc, físico de altas energías en la Universidad de Columbia, protesta: "Estas estimaciones están basadas en extrapolaciones de nuestras teorías a regímenes de altas temperaturas y energías, donde esperaríamos que (las teorías) fallasen". El alega que hay simulaciones por computadora que siguen la evolución de cientos de partículas en una colisión virtual. Estas simulaciones predicen la supresión de partículas J-psi sin necesidad de recurrir a la existencia del plasma. Para horror de Zajc, CERN recurre a modelos más "caricaturescos", que "son una forma útil de hacer física, pero inadecuados para sostener anuncios de nuevos estados de la materia". Por su parte, Neil Calder, vocero del CERN y físico él mismo, concedió a la revista Science que "aunque todas las piezas del rompecabezas parecen encajar, hace falta una confirmación definitiva". Noticias de la Ciencia y la Tecnología Energía de residuos El aprovechamiento de los residuos para generar energía no es una técnica nueva. Sin embargo, sí lo es un proceso que permite obtener el doble de energía a partir de la misma cantidad de basura. Los hogares son cada vez más conscientes de que es necesario reciclar para reducir la cantidad de basura que de otra manera acabaría alcanzando el medio ambiente. No obstante, siempre permanecen una cierta cantidad de residuos con los cuales no podemos hacer gran cosa. Estos residuos pueden llegar a contaminar las aguas subterráneas, emitir gases peligrosos, e incluso oler mal. Para solucionar este problema, se intenta tratarlos o reducirlos, por ejemplo, mediante combustión o gracias a sistemas biológicos. 703 El Hijo de El Cronopio No. 66 Estos últimos son cada vez más apreciados, ya que además de disminuir el volumen de los residuos, los bio-gases producidos durante la "digestión" biológica pueden ser empleados para generar energía. Investigadores del Fraunhofer Institute for Interfacial Engineering and Biotechnology IGB de Stuttgart, y la empresa Schwarting-Uhde han desarrollado tecnologías apropiadas para maximizar la efectividad de estos procesos. Su método ha conseguido reducir la materia orgánica no húmeda, que supone alrededor del 60 por ciento de la basura, en casi un 90 por ciento, doblando al mismo tiempo la producción de bio-gas. El resultado final es una serie de productos sólidos inodoros, que pueden ser depositados en zonas abiertas para ser enterrados. El sistema puede acoplarse a cualquier planta de fermentación convencional, aunque resulta un poco caro. En todo caso, se trata de una inversión pensando en el futuro, ya que los gobiernos tienen la intención de poner en práctica leyes cada vez más severas en cuanto al tratamiento de los residuos, quizá a partir del 2005. El medio ambiente, además, nos lo agradecerá. Información adicional en: http://www.igb.fhg.de/Presse/dt/PI_Restmuell.dt.html Imagen: http://www.igb.fhg.de/Presse/Bilder/Download/IGB_Restmuell.jpg (Sistema de tratamiento de residuos.) (Foto: Fraunhofer) Control aéreo a bordo Los expertos se preguntan si es conveniente proporcionar a los pilotos de aviones una mayor dosis de capacidad de control del tráfico aéreo. Cuando el profesor nos entrega deberes para hacer en casa, no permanece detrás nuestro vigilando si los hacemos. Eso sería una forma muy poco eficiente de enseñar. Esta analogía podría aplicarse, sin embargo, a los papeles que desempeñan los controladores aéreos y los pilotos de las líneas comerciales en el área de la gestión del tráfico. Los primeros controlan tanto a los segundos que a menudo el nivel de eficiencia no es la mejor. Esto hace que algunos expertos se pregunten si no sería conveniente que los pilotos dispusiesen de herramientas que les permitiesen tomar decisiones sin la colaboración de los controladores. Ingenieros del Georgia Institute of Technology han creado un sistema de presentación de información al piloto (Cockpit Display of Traffic Information) que permite a éste ver a otros aviones a su alrededor y las distancias entre ellos. Por el momento, nadie está preparado para quitar atribuciones a los controladores aéreos, entre otras cosas porque éstos realizan muchas otras funciones, pero el sistema ya ha empezado a ser instalado en algunos aviones para colaborar en las tareas de realización de maniobras para evitar obstáculos. Los inventores del CDTI creen, sin embargo, que con este sistema, los controladores podrían pasar a dar órdenes de mayor rango a los pilotos y comunicarse con ellos de forma más directa. Evitarían, por ejemplo, decirles a qué velocidad deben volar, para darles en cambio información sobre los aviones que les preceden en el aterrizaje o cuán lejos se encuentran de ellos. Hay una fina línea de separación entre dar a los pilotos la información adecuada y proporcionarles demasiados datos. Es por eso que el CDTI ha sido ensayado en simuladores de manera repetida y también en vuelo de forma experimental. En todo caso, la incorporación del CDTI es sólo un paso más hacia la inminente llegada de nuevas tecnologías y nuevos métodos de control del tráfico aéreo, cada vez más 704 El Hijo de El Cronopio No. 66 numeroso y complejo de gestionar. El CDTI dará nuevas oportunidades de descubrir los posibles errores que otros pilotos o los controladores puedan estar cometiendo, permitiendo apreciar con 10 a 20 minutos de antelación si existe un peligro de colisión aérea. Información adicional en: http://www.gtri.gatech.edu/res-news/AIRTRAF.html Imagen: http://www.gtri.gatech.edu/res-news/airtraf_b.jpg (EL CDTI, en pruebas.) (Foto: Georgia Institute of Technology) Europa fundamenta su candidatura Se prolonga la sucesión de descubrimientos que fundamentan la posibilidad de que la luna joviana Europa tenga vida bajo su costra helada. Últimamente parece que no puede transcurrir una semana sin que nuevos trabajos de investigación corroboren y apoyen la teoría de que el satélite de Júpiter que llamamos Europa podría tener vida primitiva bajo su corteza de hielo, allá donde se cree existe un océano líquido. Los nuevos descubrimientos aportan nuevos elementos que propician la verosimilitud del desarrollo de la vida en un ambiente no tan inhóspito para ella como podría suponerse. El agua líquida que se encuentra oculta por el manto helado y sólido que cubre Europa es un medio ideal para la proliferación de la vida. Vida que podría consistir en microorganismos similares en tamaño y complejidad a las bacterias que se hallan en la Tierra. Pero para que éstos existan, además de agua, el satélite debe ser capaz de producir la energía necesaria para las reacciones químicas básicas que necesita la vida. En este sentido van, precisamente, las últimas investigaciones realizadas. Según estos estudios, la superficie de Europa resulta bombardeada constantemente por billones de partículas cargadas procedentes de Júpiter. Esta radiación podría bastar para producir moléculas orgánicas y oxidantes que sirvan para alimentar una biosfera notable. En la Tierra, los organismos usan las moléculas de carbono como ladrillos básicos para la vida, para construir cualquier cosa, desde las células al ADN. Muchos organismos obtienen además su energía a partir de moléculas basadas en el carbono, como el azúcar. Las plantas y las algas usan la energía del Sol para producir sus propias moléculas orgánicas a partir del gas dióxido de carbono que obtienen del océano o la atmósfera (fotosíntesis). Ya que la corteza de Europa es demasiado gruesa para que la fotosíntesis sea viable, la energía para sustentar la vida de su océano debería proceder de otro sitio. Estamos hablando, por supuesto, de la radiación que procede de la atmósfera de Júpiter. La magnetosfera de este planeta es diez veces más potente que la de la Tierra, así que cuando los protones, electrones y otras partículas del espacio son atrapadas por ella, son aceleradas a altísimas velocidades. Dado que la órbita de Europa se encuentra dentro del campo magnético joviano, recibe un constante bombardeo de estas partículas o iones. Cuando los iones chocan contra el hielo de la superficie de Europa, se pueden producir reacciones químicas que transformen moléculas de agua congelada y dióxido de carbono en nuevos componentes orgánicos como el formaldehído. Curiosamente, la bacteria más común en la Tierra, el Hyphomicrobium, sobrevive gracias al formaldehído, que es su única fuente de carbono. Bacterias similares podrían vivir sin problemas en el océano de Europa. 705 El Hijo de El Cronopio No. 66 La radiación procedente de Júpiter también podría crear oxidantes, como oxígeno o peróxido de hidrógeno, que pueden ser empleados para quemar el formaldehído y otros combustibles basados en el carbono. Por supuesto, debe haber algún modo para que estos componentes orgánicos y oxidantes consigan atravesar la corteza de hielo, cuyo grosor es de entre 80 a 170 km. Las imágenes de la sonda Galileo han demostrado que hay zonas de hielo fundido sobre la superficie, de manera que puede haber pasos por los que los hipotéticos microbios puedan alimentarse. La superficie de Europa parece regenerarse de forma natural cada 10 millones de años. Esto implica que las moléculas que ayudan al mantenimiento de la vida pueden alcanzar su destino de una forma muy gradual. Cálculos conservadores estiman que podría haber un microbio por centímetro cúbico en el agua de Europa. Muy lejos de los cientos de miles que hay en el agua de la Tierra. La NASA ya está preparando una misión llamada Europa Orbiter, que será colocada en órbita alrededor de este satélite para comprobar si posee o no un océano subterráneo, a partir del 2008. Es de esperar pues que en una década o menos tengamos muchos más datos para confirmar o denegar las posibilidades de que exista vida en esta pequeña luna de Júpiter. Imagen: http://photojournal.jpl.nasa.gov/tiff/PIA01642.tif (Grietas y fallas sobre la superficie helada de Europa.) (Foto: JPL) Evitando las discusiones Ingenieros y otros profesionales pueden mostrarse a menudo en desacuerdo durante el diseño de instalaciones complejas. Un nuevo sistema automático resolverá las disputas, eliminando el poder del ego humano. En ambientes de alta tecnología y no menos elevada intelectualidad, ingenieros y otros profesionales pueden chocar entre sí debido a la toma de decisiones cruciales. El diseño de grandes instalaciones, como por ejemplo fábricas, implica un compromiso concertado entre todas las partes participantes. Ingenieros, arquitectos, expertos en construcción y otros cargos directivos hacen sus propuestas para que el proyecto salga lo mejor posible, pero en ocasiones surgen las discusiones y los egos mal entendidos, sobre todo si el personal se halla físicamente distanciado entre sí. Tales disputas pueden llegar a poner en peligro la puesta en marcha o la finalización del proyecto, así que Shimon Nof, de la Purdue University, ha desarrollado una pieza de software que es capaz de resolver automáticamente los conflictos sin que sea necesaria la intervención humana. La distribución interior de una fábrica suele ser un punto de grandes desacuerdos al iniciarse un proyecto, y ya no sólo entre los constructores, sino también entre los diseñadores y sus clientes. Nof utiliza una herramienta informática que incorpora "lógica neuro-difusa", programas que permiten a los ordenadores aprender sobre la marcha. Ya que los seres humanos no tenemos una especial habilidad a la hora de resolver conflictos, este software los identifica con antelación y describe los detalles acerca de su naturaleza, ayudando a señalar donde está la solución. El objetivo es reducir la dependencia en las decisiones humanas. Los programas son "agentes" que trabajan en paralelo respecto al avance del proyecto, y se encargan de liberarnos de ciertos trabajos complejos pero repetitivos. En este sentido, actúan como los agentes que sirven para hacerse cargo de la impresión de 706 El Hijo de El Cronopio No. 66 un documento en nuestro ordenador, es decir, nos liberan de preparar el archivo, formatearlo y enviar la información a la impresora, y lo hacen mientras dedicamos nuestro tiempo a otros quehaceres. El método de resolución de conflictos supone la ejecución racional de una serie preordenada de aproximaciones hacia este objetivo (negociación directa, mediación de una tercera parte, incorporación de otras partes, persuasión y arbitraje). El ordenador controla el avance del proyecto, pronostica la aparición de conflictos e intenta resolverlos antes de que sean un problema. El programa es capaz además de aprender de su experiencia, mejorando las oportunidades de éxito. La electricidad que procede del fondo marino Los microorganismos que viven en las profundidades oceánicas podrían ser una inagotable fuente de energía eléctrica para ciertas aplicaciones. Los microorganismos que viven en el agua del mar o en la capa superficial de los sedimentos del fondo marino, usan oxígeno para asimilar la materia orgánica, emitiendo energía en el proceso. Sin embargo, los que se encuentran más abajo, allí donde no hay oxígeno, se ven obligados a utilizar otras alternativas, como nitratos o sulfatos. Dichas reacciones químicas crean una diferencia de potencial eléctrico, algo así como el voltaje entre los electrodos opuestos de una batería. Clare Reimers, de la Oregon State University, y Leonard Tender, del Naval Research Laboratory, pretenden aprovechar esta circunstancia en beneficio de las gentes del mar, y han desarrollado una especie de célula de combustible natural. El prototipo de laboratorio utiliza un electrodo cargado negativamente y enterrado en unos 10 cm de sedimento, así como un electrodo cargado positivamente situado justo sobre la superficie del agua. Cuando ambos electrodos son conectados, generan unos 0,03 vatios por metro cuadrado, suficiente energía como para activar un pequeño diodo emisor de luz. Esta provisión energética es teóricamente inagotable, ya que los microbios continúan haciendo su trabajo sin detenerse ni por un instante. Si la célula de combustible puede incrementar su potencia de suministro, se diseñarán unidades operativas que serán instaladas en sedimentos oceánicos reales. Más adelante, podrán incluso enterrarse por sí solas y generar electricidad para la alimentación continuada de boyas luminosas o aparatos de sonar. (New Scientist) Abejas y tecnología militar Un estudio de cómo analizan visualmente las abejas sus objetivos supondrá la incorporación de esta técnica en sistemas de vigilancia. Las abejas emplean pistas basadas principalmente en movimientos de imagen para medir distancias de vuelo de cientos de metros en ambientes exteriores. Al pasar junto a flores o árboles, obtienen la sensación de haber recorrido poco o mucho espacio, de la misma manera que la velocidad en que transcurren los postes de teléfono tras la ventanilla de nuestro automóvil nos da una impresión razonable de la velocidad del vehículo. Según Srinivasan, de la Australian National University, esta técnica podría tener aplicaciones militares, en la forma de vehículos voladores autónomos desarrollados de 707 El Hijo de El Cronopio No. 66 manera que posean "visión de insecto" para evitar los obstáculos. Tales microvehículos aéreos podrían emplearse en tareas de vigilancia remota, y podrían tener un diámetro inferior a los 10 cm. Los científicos han experimentado con abejas de la especie Apis mellifera lingustica Spinola, introduciéndolas en un túnel de 6,4 metros de largo, 20 cm de alto y sólo 11 cm de ancho. Dicho túnel está decorado con diversos patrones en blanco y negro. En función de su configuración, las abejas tienen un comportamiento distinto, dependiendo de si creen que su objetivo (un punto en el que hay comida) está lejos o cerca. Bandas horizontales engañan su sistema de visión, que no puede medir bien las distancias, mientras que bandas verticales ayudan a determinarlas con mayor precisión. En función de la configuración, los 6 metros del túnel pueden equivaler para la abeja a unos 186 metros en un medio exterior. El estudio de los mecanismos visuales que en condiciones normales permiten a las abejas medir las distancias será pues una alternativa a considerar durante el desarrollo de las tecnologías de los futuros vehículos aéreos espía. Imagen: http://www.bccs.org/1d/bee_small.gif (Las abejas utilizan estímulos visuales para determinar distancias.) (Foto: BCCS) Meteorito marciano Aunque son una minoría, en algunas ocasiones es posible encontrar meteoritos que no proceden del espacio interplanetario, sino que salieron despedidos de la superficie de Marte y han acabado cayendo sobre la Tierra. A pesar de que es relativamente frecuente que un meteorito alcance la superficie terrestre y sea hallado por científicos o exploradores de salón, no lo es tanto que estas extrañas piedras procedan de nuestro vecino, el planeta Marte. Los estudios de las sondas Viking y Mars Pathfinder, así como los análisis químicos de miles de meteoritos hallados en la Tierra, han permitido distinguir perfectamente cuando uno de ellos procede de Marte o de un fragmento de asteroide situado alrededor del Sol. La conclusión a la que hemos llegado es que los meteoritos marcianos son muy escasos, lo que aumenta su valor científico. El último de ellos en ser identificado, distribuido en dos fragmentos de 452 y 254 granos, fue hallado hace 20 años por Bob Verish en el desierto de Mojave, en California. El espécimen ha sido bautizado como Meteorito de Los Angeles y sólo ahora ha sido analizado y aclarado su origen. Verish había olvidado que tenía las dos rocas, pero desde hace unos 5 años se ha aficionado a coleccionar meteoritos, de manera que ha ganado en experiencia a la hora de identificarlos. Le bastó con observarlos brevemente para darse cuenta de que no se trataba de meteoritos convencionales. El 17 de diciembre de 1999, el UCLA confirmó que eran meteoritos basálticos, muy parecidos al QUE 94201, un meteorito encontrado en la Antártida en 1994. Su origen, en efecto, es Marte. Es, además, el espécimen más evolucionado geoquímicamente hablando descubierto hasta ahora. El caso pone de manifiesto una interesante posibilidad, y es que muchas colecciones privadas podrían contener meteoritos lunares o marcianos sin que nadie haya sabido aún identificarlos. Entre los más 20.000 hallados en la Tierra, sólo 14 proceden de Marte, lo que los hace extremadamente valiosos para la ciencia, sobre todo si, como el famoso ALH 84001, pueden mostrar indicios (sujetos a controversia) de vida fósil. 708 El Hijo de El Cronopio No. 66 Información adicional en: http://www.jpl.nasa.gov/snc/la.html Imagen: http://www.jpl.nasa.gov/snc/la001.jpg (El meteorito Los Angeles-1.) (Foto: Ron Baalke) Invierno volcánico La británica Geological Society advierte de que una gran erupción volcánica podría llegar a ser el detonante de un cambio climático radical e inesperado. Los efectos de las acciones del Hombre sobre la atmósfera están propiciando ya un rápido cambio climático de difícil resolución. Pero los especialistas de la Geological Society, un organismo británico, creen que tales efectos no son nada ante lo que una super-erupción volcánica podría llegar a producir. Los estudios climáticos muestran que en el pasado la Tierra experimentó súbitos cambios de esta naturaleza debido a enormes erupciones que lanzaron grandes cantidades de ceniza y dióxido de azufre a la atmósfera. Si las explosiones son lo bastante potentes, el dióxido de azufre, rocas volcánicas y otros gases, pueden ser lanzados muy arriba en la atmósfera, donde el primero reacciona con el agua para formar microgotas de ácido sulfúrico. Este aerosol tiene la propiedad de reflejar la radiación solar con gran eficacia, permitiendo la reducción de la temperatura en la baja atmósfera durante el tiempo que se necesita para que la partícula química sea físicamente destruida por sí sola. En 1815, la erupción del volcán indonesio Tambora precedió a dos años de clima inusualmente frío en todo el mundo. En Europa, las temperaturas descendieron entre 1 y 2,5 grados Celsius por debajo de lo normal. Esto causó la pérdida de cosechas, aumentó el precio del grano y de desató un período de hambre. Las erupciones de 1783 del Laki, en Islandia, supusieron la llegada de una "niebla seca" en toda Europa occidental y buena parte de Norteamérica. Las temperaturas invernales bajaron 4,8 grados C más allá de la media. En 1991, el Pinatubo supuso un descenso de 0,4 grados Centígrados al año siguiente. Por tanto, las erupciones con capacidad de afectar al clima mundial son irregulares pero frecuentes, con seis de ellas sólo en el siglo XX. La del Tambora de hace 70.000 años pudo llegar a provocar descensos de hasta 10 grados C. Parece pues lógico investigar cuáles serían las consecuencias de una supererupción en tiempos modernos, y cómo afectaría a la economía, la agricultura y a la sociedad. Ellos también colaboran con la ciencia Focas y yates han empezado a ayudar a los oceanógrafos en su insaciable apetito de obtener datos sobre los mares. Nuestro conocimiento de los océanos pasa por situar estaciones de medición en todos los rincones imaginables. Parámetros básicos como la temperatura o el índice de salinidad nos ayudan a conocer y comprender mejor su dinámica. Sin embargo, no siempre es fácil situar sensores en lugares remotos, o no hay bastantes profesionales que puedan distribuirlos a lo largo y ancho de la masa líquida de nuestro planeta. Afortunadamente, la miniaturización de tales sensores y su bajo consumo, que aumenta su autonomía, está permitiendo aprovechar el concurso de terceros. Por ejemplo, los investigadores hace años que sitúan dichos mecanismos sobre animales, como focas, y 709 El Hijo de El Cronopio No. 66 dejan que éstos sean quienes, con sus movimientos, los lleven hasta los lugares más intrincados. Las focas, por ejemplo, son capaces de sumergirse hasta los 600 metros, aportando información muy difícil de obtener por otros medios. Pero las focas no son y serán los únicos participantes en esta actividad científica. Todo tipo de embarcaciones pueden ser ahora dotadas con sensores para el mismo objetivo. Los datos se recogen y se analizan en su conjunto, y pueden servir, por ejemplo, para estudiar los frentes oceánicos del Pacífico nordeste. Las focas han proporcionado en tres meses un total de 22.000 mediciones de temperatura en una región donde sistemas convencionales sólo han conseguido 52. Por su parte, los yates de lujo que participarán en la vuelta al mundo organizada por la Volvo Ocean Race serán equipados con sistemas de control, no sólo de la temperatura, sino también de los niveles de fitoplancton. (New Scientist) La ropa en la edad del hielo Las vestimentas que empleaban los hombres primitivos de la Edad del Hielo eran más sofisticadas de lo que se creía. Un grupo de arqueólogos ha descubierto indicios que nos indican cómo vestía una mujer de hace 25.000 años durante una ocasión ritual. Lo sorprendente es que sus ropas no tienen nada que ver con nuestra popular concepción de la moda prehistórica. Al contrario, el hallazgo ha permitido poner de manifiesto que la mujer utilizaba cinturón, brazaletes, gorra, falda e incluso una banda sobre el pecho. Todo ello construido mediante fibras de plantas en una gran variedad de tejidos. Tan sofisticado es el estilo empleado que éste no varió mucho al llegar el neolítico e incluso durante las edades del Bronce y del Hierro. El descubrimiento ha consistido en una serie de impresiones sobre fragmentos de barro en la república Checa, impresiones que muestran formas de cordajes y producción textil. Su textura es idéntica a la mostrada en las famosas figuras de Venus desnudas, pertenecientes al mismo período. Todo ello prueba que nuestros antepasados han usado vestidos relativamente sofisticados desde hace mucho tiempo, y que para ello han tenido que actuar de forma más avanzada que lo que la imagen tópica de su retrato, armados con lanzas a la caza del mamut, pueda hacernos suponer. La caza, por supuesto, fue el trabajo de una minoría de la población. Niños, mujeres y ancianos, como demuestran los signos de ricos vestidos hallados, debían hacer mucho más que admirar a su bravos héroes. Al mismo tiempo, algunas mujeres debieron tener un papel relevante en las sociedades del Pleistoceno tardío. El vestir brazaletes y otros ornamentos, de gran valor, implica un posición social elevada. Información adicional en: http://www.admin.uiuc.edu/NB/00.02/iceagetipL.html Astromineralogía El telescopio infrarrojo europeo ISO acaba de abrir un nuevo ámbito de investigación científica. Los cristales de silicatos, los minerales más abundantes en la Tierra, se encuentran también en grandes cantidades alrededor de viejas estrellas y en discos protoplanetarios, los discos de los que se forman los planetas. 710 El Hijo de El Cronopio No. 66 Este es uno de los más importantes descubrimientos del telescopio espacial ISO, un observatorio europeo infrarrojo que ya ha finalizado sus actividades. Se sabía que los silicatos amorfos son el principal componente del polvo espacial, pero su detección en estado cristalizado ha sido una sorpresa. El ISO inaugura así un futuro y prometedor campo: la astromineralogía. El silicato amorfo carece de una estructura interna bien ordenada. Por eso, no es posible hacer grandes diferenciaciones entre los distintos silicatos que existen. Pero los silicatos cristalinos son otra cuestión. Ahora podremos tratar de identificarlos y seguir su presencia a lo largo de diferentes regiones del universo. Los cristales proporcionan pistas claves sobre las condiciones físicas y la evolución histórica de los objetos que los contienen. Por ejemplo, se pueden crear cristales calentando material a temperaturas de más de 1.300 grados Celsius y después dejándolo enfriar lentamente. Los encontrados por el ISO se encuentran a –170ºC, en ambientes estelares y en discos protoplanetarios. En el caso de las estrellas gigantes rojas, es posible que las altas temperaturas cerca de ellas propiciaran la creación de los cristales hasta suponer el 20 por ciento del polvo que las rodea. En los discos protoplanetarios, el proceso se pudo desencadenar mediante choques eléctricos. Los cristales detectados por el ISO en tales discos tienen un tamaño de una milésima de milímetro. Pero las colisiones entre ellos formarán cuerpos más y más grandes, de manera que dentro de 10 a 100 millones de años habrán podido constituir planetas. Información adicional en: http://sci.esa.int/newsitem.cfm?TypeID=1&ContentID=9191&Storytype=18 http://www.esa.int Imagen: http://sci.esa.int/missions/iso/images/00016383.jpg (Tabla de silicatos en el espacio.) (Foto: ESA) El milagro de la hibernación Se han identificado dos enzimas que juegan un importante papel en la hibernación de las ardillas. Cada año, los animales que hibernan llevan a cabo una de las maravillas fisiológicas del mundo natural. Ocultos en sus madrigueras, son capaces de sobrevivir durante meses de bajas temperaturas, sin comer, gracias a la reducción del ritmo de los latidos del corazón, de su metabolismo y de las temperaturas de su cuerpo, todo ello a unos niveles que a los humanos y a otros animales que no hibernan nos causarían la muerte. Un equipo de investigadores de la North Carolina State University ha identificado dos enzimas que parecen tener un papel esencial en la hibernación de las pequeñas ardillas. El descubrimiento es particularmente interesante porque los genes afectados son casi idénticos a los encontrados en los mamíferos que no hibernan, lo cual podría tener implicaciones en áreas tales como los transplantes de órganos y la hipotermia. Los científicos conocen desde hace tiempo por qué los animales hibernan, pero, cómo se efectúa esta transformación, qué genes controlan su inicio en otoño y su recuperación en la primavera, ha sido un misterio hasta ahora. Los dos genes que el Dr. Matthew Andrews ha identificado como esenciales en esta operación abren las puertas a nuevas posibilidades más allá de la zoología. Si se pueden identificar los enzimas responsables de la preservación de los órganos, la reducción del 711 El Hijo de El Cronopio No. 66 consumo de glucosa y el mantenimiento del tono muscular durante un estado extremo como es la hibernación, los médicos podrán usar este conocimiento para desarrollar estrategias que sirvan para prolongar la vida de órganos dedicados a transplantes, o para ayudar a las personas que han sufrido hambre, atrofia muscular, hipotermia o hipoxia. Uno de los genes identificados (PL) se encarga de romper los triglicéridos (ácidos grasos acumulados) y de convertirlos en grasas utilizables por las ardillas en hibernación. El otro gen codifica la producción de un enzima (PDK-4) que es activado en períodos de hambre y que ayuda a conservar las reservas de glucosa del cuerpo. Ambos genes se manifiestan en las ardillas poco antes del inicio de la hibernación. Si la hibernación es controlada por la expresión diferencial de genes presentes en los mamíferos, su identificación nos ayudará a conocer cómo otros mamíferos pueden adaptarse (o cómo lo hacían sus ancestros) a los cambios medioambientales extremos. En el terreno de la ciencia-ficción, esta información será útil para inducir la hibernación a los astronautas que deban viajar durante mucho tiempo en el espacio. Información adicional en: http://www2.ncsu.edu/ncsu/univ_relations/news_services/press_releases/00_01/16.htm Imagen: http://www2.ncsu.edu/ncsu/univ_relations/news_services/press_releases/00_01/squirrel2 .jpg (El doctor Matthew Andrews y una ardilla hibernando.) (Foto: NC State University) La Ciencia desde el Macuiltépetl/ Ciencia y sociedad Por Manuel Martínez Morales Se presentan en este trabajo, aunque de manera un tanto esquemática, algunas consideraciones generales acerca de aspectos correspondientes a la interrelación entre ciencia, tecnología y otras instancias de la vida social. Aspectos que, a mi juicio, han sido poco atendidos en los documentos emitidos sobre el particular, tal como sucede en el Programa Nacional de Desarrollo Tecnológico y Científico 84-88. En ocasiones, se pasan por alto aspectos esenciales de la estructura económica del país y de las relaciones sociales que en ese contexto se establecen. Así, haciendo abstracción de esas condiciones, se sitúan a la ciencia y la técnica como factores potenciales de desarrollo. Haciendo uso y abuso del eufemismo subdesarrollo se afirma que, prácticamente, “la ciencia y la tecnología son en la actualidad la manifestación fundamental de dependencia de los países subdesarrollados con relación a los desarrollados. No esta por demás mencionar que lo que hoy simplificadamente llamamos ciencia y tecnología constituye un conjunto complejo de actividades y sus resultados. La ciencia y la tecnología, en su forma actual, aparecieron hace poco tiempo, aunque proceden de conocimientos y prácticas muy antiguas en la historia. Durante muchos siglos, la vinculación entre conocimientos teóricos y técnicos fue casi inexistente, siendo escaso el grado de sistematización de estos conocimientos. Fue con el advenimiento del capitalismo que la ciencia y la técnica se desarrollaron a partir de la creciente necesidad de desarrollar y perfeccionar los medios de producción que este sistema económico demanda. A mediados del siglo pasado, Carlos Marx señalaba en una de sus obras de este periodo: 712 El Hijo de El Cronopio No. 66 El modo capitalista de producción es el primero en poner las ciencias naturales al servicio directo del proceso de producción, en tanto que el desarrollo de la producción proporciona, en cambio, los instrumentos para la conquista teórica de la naturaleza. La cie ncia logra el reconocimiento de ser un medio para producir riqueza. Por esto, junto con la producción capitalista se desarrolla, por primera vez y de manera consciente, el factor científico a cierto nivel; se emplea y se constituye en dimensiones que no se podían concebir en épocas anteriores [...] Sólo la producción capitalista transforma el proceso productivo material en aplicación de la ciencia a la producción. En efecto, el desarrollo histórico de los países capitalistas y la posterior aparición de los países socialistas, permiten observar que la ciencia y la técnica adquieren un papel cada vez más relevante para sostener y hacer crecer el proceso de producción. Pero, a pesar de toda la importancia que la ciencia tiene para el crecimiento económico, es necesario asentar que constituye una actividad social muy compleja que posee, además, otras características. Según J. D. Bernal, la ciencia puede ser considerada como: 1. una institución social; 2. un método de conocimiento; 3. una forma de producir y acumular conocimientos; 4. un factor de primera importancia en el desarrollo de la producción; 5. una de las más poderosas fuerzas moldeadoras de las creencias y actitudes de los hombres hacia el universo y hacia sí mismos. Ahora bien, considerando que estos cinco aspectos forman una unidad, distinguir a uno entre ellos en detrimento de los demás, puede conducir a apreciaciones unilaterales que, en la práctica, signifiquen el establecimiento de políticas científicas que bien puedan no alcanzar los objetivos que se proponen. El Programa Nacional de Desarrollo Tecnológico y Científico deja ver este tipo de unilateralidad en algunos de sus planteamientos básicos. De los seis grandes objetivos que el programa se propone: 1. mayor conocimiento de la realidad física, biótica y social del país; 2. modernizar y hacer más competitivo el aparato productivo; 3. tener dominio sobre la tecnología importada; 4. reforzar la investigación científica y tecnológica y articularla con la solución de los problemas económicos y sociales del país; 5. alcanzar mayor capacidad de formación de especialistas en ciencia y tecnología; y 6. difundir más ampliamente información científica y tecnológica a los productores y la población en general; sólo uno, el último, parece no tener una relación directa con la producción. Esto refleja una disminución del valor de la ciencia en cuanto a método de conocimiento y como elemento de primera importancia en la cultura nacional. Así también, de los 11 programas de investigación y desarrollo para atender prioridades sociales, sólo el último (4.11 Investigación de excelencia en otros temas...) no se refiere a aplicaciones directas a corto y mediano plazo. No existe una referencia clara y explícita al desarrollo de la investigación básica, aquella que no se propone como objetivo inmediato la aplicación del conocimiento, sino que busca ampliarlo y sentar las bases metodológicas fuertes para el desarrollo de la investigación aplicada. Lo anterior no implica obviamente desatender el importante papel que la ciencia y la tecnología tienen en el crecimiento económico, sino más bien hacer ver que no es su única función. Desde luego que la división entre ciencias aplicadas y básicas es, hasta cierto punto, artificial, y existen problemas que pueden dar origen a la investigación aplicada e incluso dar lugar a la apertura de importantes líneas de investigación básica. 713 El Hijo de El Cronopio No. 66 Pero resulta importante no caer en el punto de vista instrumentalista, según el cual ciencia y técnica pueden producirse como cualquier otro instrumento de trabajo y luego proceder a su aplicación. No debe olvidarse la complejidad de la práctica científica, cuya realización es la resultante de la conjunción de numerosos factores de carácter económico y social, y que ciencia y tecnología no son variables independientes, cuya manipulación pueda darse a partir tan sólo de buena voluntad. En las graves condiciones de crisis económica por las que atraviesa el país, la puesta en marcha del Programa Nacional de Desarrollo Científico y Tecnológico implica también transformaciones en otros ámbitos, sobre todo en el plano económico; pues el intento de revalorizar y reencauzar las actividades científicas en el país no debe hacernos olvidar que vivimos una situación de graves injusticias como la gran desigualdad económica con todas sus implicaciones, cuya superación no es, ni puede ser, tan sólo fruto del desarrollo técnico. La superación de la crisis depende de la voluntad política que tengamos, como nación, para transitar hacia estructuras económicas y sociales que garanticen mayor igualdad y participación en las decisiones que a todos nos afectan. 22 de febrero de l985 El Cabuche (crónicas de la Facultad de Ciencias)/ Evaluaciones Evaluaciones. ¡Vaya que si vivimos en un mundo de constante evaluación! Como decían los santaneros (los de la sonora, que creo ya no existe como tal) Los estudiantes lo deben de saber, y los profesores lo saben lo saben, y los directores lo saben lo saben, los que están adentro lo saben lo saben y... ¡ya estuvo suave!. A propósito ¿cómo les va en sus exámenes? No se preocupen, hasta la Facultad, como tal tiene que pasar por esas vainas, por decirlo muy colombianamente. La semana pasada, como algunos de ustedes deben de saber, estuvieron por la Facultad un equipo, al menos venían uniformados de traje, muy propios, de evaluadores para revisar en vivo la documentación que la Facultad presentó ante las autoridades educativas, para lograr su acreditación en las carreras que se ofrecen (no las digo, pues se las deben saber). El equipo de evaluadores, por llamarles de alguna forma, el jueves 17 muy temprano, se personaron en nuestras instalaciones a cumplir con el guión que para tal efecto preparó el equipo de corbata. Revisaron instalaciones, entrevistaron a estudiantes y profesores, discutieron en vivo los documentos presentados con anterioridad, sin faltar por supuesto el mentado libro azul, orgullo de Benito. Al día siguiente continuaron con su itinerario, detalles no sé muchos, pues no tuve la oportunidad de seguir de cerca las acciones. Resultados de nuestra iniciación en estas vainas de la acreditación: al menos una de las carreras ingenieriles, la de ingeniería electrónica, se encuentra en vías de poder ser acreditada, para lo cual se tiene la tarea y recomendaciones dadas por los de corbata. Una cosa es segura ¡Hay que echarle ganas! Y como escribió Agustín Lara, mejor dicho María Teresa Lara y que a través de su voz hace suya Chavela Vargas, en un disco que el Chino trajo a respaldar a nuestros estudios Sol-Gel Records Escondí concha nácar mis penas en tí/Y encontré en tus senos calor de mujer/Eres tú, el espejo donde las sirenas se van a mirar,/y en su afán por llorar;/convertidas en perlas tus lágrimas brotan del mar 714 Boletín El Hijo de El Cronopio Facultad de Ciencias Universidad Autónoma de San Luis Potosí No.67, 28 de febrero de 2000 Boletín de información científica y tecnológica de la Facultad de Ciencias Publicación semanal Edición y textos Fís. J. Refugio Martínez Mendoza Cualquier información, artículo o anuncio deberá enviarse al editor e-mail: flash@galia.fc.uaslp.mx Este boletín y números anteriores, pueden consultarse por Internet en la página de la UASLP: http://phobos.dtc.uaslp.mx/publi.html El Boletín El Hijo del Cronopio Se une a las felicitaciones que con motivo de la obtención del PRIMER LUGAR en el concurso que convoca la Fundación Hertel, A.C., en donde participan los mejores estudiantes de física del país obtuvo el joven Joel Briones Hernández ¡EN HORA BUENA! El Hijo de El Cronopio No. 67 Computación molecular Mientras los tecnólogos siguen buscando cómo hacer más pequeños los chips de silicón, una corriente de investigación fortalece las computadoras moleculares, en que las operaciones corren por cuenta de fragmentos de ADN Por Javier Cruz para el periódico Reforma Un reciente avance en las ciencias de la computación puede parecer algo paradójico: en vez de miniaturizar más los chips y hacerlos de materiales más baratos, investigadores de la Universidad de Wisconsin presentan una computadora que realiza operaciones sobre superficies de vidrio y oro. Y otra cosa: es capaz de resolver problemas de la clase más difícil desde el punto de vista computacional en una cantidad sustancialmente menor de pasos que lo que puede conseguir la mejor computadora electrónica. Se trata de una computadora molecular, en que la información proporcionada a la "máquina", así como los resultados producidos por ésta, constan de segmentos de ADN, la molécula que porta toda la información genética necesaria para replicar y sostener la vida. Las operaciones y decisiones lógicas son efectuadas por estos fragmentos y por una serie de enzimas a las que quedan expuestos. "La computación con ADN fue propuesta como un medio para resolver problemas computacionales de una clase inmanejable, en que el tiempo de computación puede crecer exponencialmente con el tamaño del problema", escriben los autores del artículo publicado hoy en la revista Nature. Un problema prototípico --y, de hecho, el primero en ser resuelto con ADN-- es el del "vendedor viajante", en que hay que elaborar un itinerario de vuelos para un vendedor que ha de visitar N ciudades, pero cada una de ellas sólo una vez. Para un número pequeño de ciudades el asunto no aparece demasiado complejo y es susceptible de resolverse con lápiz y papel. Pero en cuanto crece el número de paradas, la complejidad computacional aumenta más allá de lo que pueden manejar las computadoras electrónicas más sofisticadas. "Hay casos de tamaño modesto (...) que requieren una cantidad impráctica de tiempo de computación", escribió Leonard Adleman en un artículo publicado en 1994 por la revista Science, en el que describió un método para hacer que unas cuantas fracciones de gramo de ADN hallasen la solución para el caso de 7 ciudades del problema del vendedor viajante. ¿Cómo "piensa" el ADN? Nadie propone que las computadoras moleculares estén por suplantar a las electrónicas. De entrada, la tecnología de éstas le lleva décadas de ventaja a la de aquéllas. Pero además, la enorme ventaja de las computadoras moleculares consiste en que tienen, por la naturaleza del ADN y de las técnicas bioquímicas de su manejo, una insospechada capacidad de computación en paralelo. "Ahí donde puedan organizarse búsquedas masivas en paralelo para sacar ventaja de las operaciones que actualmente ofrece la biología molecular, es concebible que la computación molecular pueda competir con la electrónica en el corto plazo", escribió Adleman en 1994. El artículo de hoy en Nature es relevante, desde el punto de vista de las ciencias de la computación, porque ofrece un algoritmo --es decir, una secuencia de instrucciones para hallar la solución de un problema-- que vuelve manejable un problema perteneciente a la clase llamada "NPcompletos", que son, en la jerga de los especialistas, las peores pesadillas con que es dable tropezar. En éstos, el número de soluciones posibles y el tiempo requerido para 716 El Hijo de El Cronopio No. 67 hallar la correcta crece de manera exponencial con el número de variables independientes. Puesto que hay pocas soluciones correctas y una enormidad de soluciones posibles --pero erróneas--, la esencia del método de solución está en la eliminación de aquéllas que son espurias. Ni la unidad central de procesamiento (CPU) de las computadoras electrónicas ni el ADN de las moleculares "piensan" en el sentido en que lo haría un cerebro humano afrontado con el problema del vendedor en una escala manejable. Lo que hacen es explorar el espacio de soluciones posibles y descartar las inadecuadas. Existen algoritmos que funcionan en computadoras electrónicas, pero lo hacen operando mayormente "en serie": examinando cada posibilidad, una por una. En cambio, en las computadoras moleculares cada fragmento de ADN funciona como si fuese un CPU, y caben millones de ellos en espacios pequeños: de aquí viene su enrome poder de computación en paralelo. Mitsunori Ogihara, de la Universidad de Rochester, explica así la ventaja del método inventado por Adleman: "Cambió espacio (la cantidad de ADN necesario) por tiempo (el número de pasos bioquímicos empleados)". El propio Adleman ya había echado las cuentas: "Una computadora de escritorio típica puede ejecutar, aproximadamente, 10 millones de operaciones por segundo. Las supercomputadoras más veloces llegan a 10 billones", escribió en Science. En cambio, en el primer paso de su algoritmo, la computadora molecular se aventó 100 billones de operaciones por segundo "y 100 trillones parece enteramente plausible". Sopa de Letras Los científicos de Wisconsin ofrecen, en el artículo de Nature, la solución a un problema NP-completo relativamente simple de visualizar. Es un caso del llamado "problema de satisfactibilidad", en que hay que buscar una solución que satisfaga, simultáneamente, una serie de condiciones expresadas mediante proposiciones lógicas. (Una proposición lógica es un enunciado que sólo puede ser cierto o falso. Por ejemplo, "este artículo fue publicado el jueves 13 de enero de 2000" es una proposición lógica, en tanto que "este artículo no hay quien lo entienda", por más cierto que resulte, no lo es.) El caso presentado por Lloyd Smith y coautores es un problema de satisfactibilidad con cuatro variables --es decir, cuatro proposiciones lógicas-- y cuatro cláusulas. Cada cláusula enlaza cierto número de variables mediante un operador lógico "o" --representado por el símbolo "V"--, que puede interpretarse tal como la conjunción "o" en gramática: "x V y" quiere decir, literalmente, que "o x es cierta, o y es cierta", siendo "x" y "y" dos proposiciones lógicas. Supóngase que las cuatro variables del problema fuesen las siguientes proposiciones lógicas, a propósito de la controversia sobre las fotos de los candidatos presidenciales en las boletas electorales: w: Se incluye la foto de Fox en el espacio correspondiente al PAN x: Se incluye la foto de Gloria Trevi en el espacio correspondiente al PRD y: Se incluye la foto de Labastida con Carlos Salinas y Roberto Madrazo en el espacio correspondiente al PRI z: Se incluye la foto de Muñoz Ledo, envuelto en la bandera nacional cual Niño Héroe de Chapultepec, en el espacio correspondiente al PAN Las cuatro cláusulas del problema de Smith y colegas son estas: C1: O "w" es cierta, o "x" es cierta, o "y" es cierta C2: O "w" es cierta, o "y" es falsa, o "z" es cierta C3: O "x" es falsa o "y" es cierta C4: O "w" es falsa o "y" es falsa 717 El Hijo de El Cronopio No. 67 Y el problema consiste en hallar las combinaciones de las cuatro variables que satisfagan simultáneamente estas cuatro cláusulas lógicas. La computadora molecular de Wisconsin halló las únicas cuatro soluciones posibles: 1. "w" y "x" son falsas, "y" y "z" son ciertas 2. "w" es falsa, "x", "y" y "z" son ciertas 3. "w" es cierta y "x", "y" y "z" son falsas 4. "w" es cierta, "x" y "y" son falsas, pero "z" es cierta De modo que las únicas posibilidades de que aparezca la foto de Fox es que no haya más fotos que la suya, o bien que tenga que compartir el espacio con Porfirio Muñoz Ledo envuelto en la bandera tricolor. Lo Positivo de lo Negativo Con cuatro variables, cada una de las cuales puede tomar el valor cero o uno exclusivamente, pueden formarse 16 combinaciones. En general, la mayoría de estas combinaciones no será una solución del problema: el chiste está en eliminar a esta mayoría. Adleman comprendió que las moléculas de ADN se prestan a este tipo de tarea. Todo fragmento de ADN es una sucesión de bases químicas formadas por una de sólo cuatro moléculas: timina (T), citosina (C), adenina (A) y guanina (G). Representándolos con letras, los fragmentos pueden ser descritos así, por ejemplo: TCTCAGAG. Pero hay una circunstancia especialmente feliz en este contexto. Colocadas frente a frente, estas bases químicas se adhieren siempre de igual manera: A con T y G con C, de modo que a cada fragmento le corresponde uno complementario, como el negativo de una fotografía. Entonces, si la hebra TCTCAGAG queda expuesta a la hebra AGAGTCTC, quedarán adheridas. Siendo así, el método inventado por Adleman, y empleado ahora por Smith y su equipo, consiste en asignar una secuencia arbitraria de letras a cada una de todas las soluciones posibles --es decir, traducir todas las combinaciones al "alfabeto" del ADN-y construir, en el laboratorio, las moléculas correspondientes (ver ilustraciones). Conociendo las cláusulas lógicas del problema, pueden construirse moléculas complementarias de las que cumplan con una de ellas, e introducirlas al recipiente donde están las soluciones ADN. Aquellas que queden sin adherirse será porque no cumplen con la cláusula en cuestión, y las que sí se adhieren es porque sí la cumplen. Eso ya es medio proceso de eliminación, pues las soluciones incorrectas quedan marcadas, como en la ronda infantil "a pares y nones", por quedar sin acompañante. Basta, entonces, con añadir enzimas seleccionadas para destruir los fragmentos de ADN que queden expuestos, y luego, calentando la preparación, despegar los fragmentos complementarios y removerlos. El procedimiento se repite para cada una de las cláusulas, de modo que las moléculas que quedan al final son las que las satisfacen a todas simultáneamente, como pide el problema. Cuestionado acerca de la importancia de poder llevar a cabo estas reacciones sobre una superficie sólida, en vez de flotando en un volumen, Smith explicó a REFORMA que "la razón por la cual creemos que es importante es que permite la purificación de las moléculas de ADN entre cada paso del proceso de cómputo, simplemente enjuagando el soporte". Esto robustece la posibilidad de atacar problemas como éste con mayor número de variables. "Un problema de satisfactibilidad con 30 cláusulas y 50 variables podría ser resuelto en aproximadamente 1.6 millones de pasos por una computadora ordinaria, pero en apenas 91 pasos" por la computadora de ADN de Wisconsin, escribió Ogihara. 718 El Hijo de El Cronopio No. 67 Un caso de aplicación como otro cualquiera Supóngase que las cuatro variables del problema fuesen las siguientes proposiciones lógicas, a propósito de la controversia sobre las fotos de los candidatos presidenciales en las boletas electorales: W: Se incluye la foto de Vicente Fox en el espacio correspondiente al PAN X: Se incluye la foto de Gloria Trevi en el espacio correspondiente al PRD Y: Se incluye la foto de Francisco Labastida con Carlos Salinas y Roberto Madrazo en el espacio correspondiente al PRI Z: Se incluye la foto de Porfirio Muñoz Ledo, envuelto en la bandera nacional cual Niño Héroe de Chapultepec, en el espacio correspondiente al PAN Las cuatro cláusulas del problema de Smith y colegas son: C 1 : O "W "es cierta, o "X "es cierta, o "Y "es cierta C 2 : O "W "es cierta, o "Y "es falsa, o "Z "es cierta C 3 : O "X "es falsa o "Y "es cierta C 4 : O "W "es falsa o "Y "es falsa Y el problema consiste en hallar las combinaciones de las cuatro variables que satisfagan simultáneamente estas cuatro cláusulas lógicas. La computadora molecular de Wisconsin halló las únicas cuatro soluciones posibles: 1)"W "y "X "son falsas, "Y "y "Z "son ciertas 2)"W "es falsa, "X ", "Y "y "Z "son ciertas 3)"W "es cierta y "X ", "Y "y "Z "son falsas 4)"W "es cierta, "X "y "Y "son falsas, pero "Z "es cierta De modo que las únicas posibilidades de que aparezca la foto de Fox es que no haya más fotos que la suya, o bien que tenga que compartir el espacio con Porfirio Muñoz Ledo envuelto en la bandera tricolor. Genética genial Todo un mundo ha sido abierto a la computación con la invención de métodos que permiten que moléculas de ADN efectúen operaciones propias de los chips de silicón de las máquinas digitales. La computación molecular promete ventajas en problemas que demanden procesamiento en paralelo. Esta es una versión simplificada del problema de "satisfactibilidad", en que hay que hallar soluciones que satisfagan una serie de cláusulas lógicas para cierto número de variables (tres en este caso) que pueden tomar los valores "0"ó "1" exclusivamente. Cada una de las ocho combinaciones posibles -soluciones potenciales- es codificada en términos de las cuatro letras del ADN (A, T, C y G), y se construyen fragmentos moleculares que representan a cada solución, como se muestra. Esquema del método de cómputo molecular. a) Se preparan tantos fragmentos de ADN como soluciones posibles haya. b) Esos fragmentos se fijan en un extremo a una superficie sólida. c) A cada fragmento, formado por combinaciones de las letras A, C, G y T, le corresponde un "negativo" complementario (ver texto)al cual se adhiere. Con este método se "marcan", dejándolos sin su complemento, los fragmentos que no satisfacen una cláusula dada del problema. d) Se incorporan enzimas que destruyen los fragmentos no protegidos por sus complementos. Este paso elimina soluciones erróneas. e) Calentando la mezcla se despegan los complementos y se repite el proceso para la siguiente cláusula del problema. 719 El Hijo de El Cronopio No. 67 f) Por último, con técnicas de biología molecular, se amplifican y "leen" los fragmentos sobrevivientes, que corresponden a las soluciones del problema. Esta vista alternativa del método ilustra cómo van siendo eliminados varios fragmentos de ADN del espacio de soluciones, según se detecta que vayan incumpliendo las cláusulas del problema. Al final de los cuatro ciclos sólo sobreviven los fragmentos numerados como 3, 7, 8 y 9, correspondientes a las soluciones reales. Así se ven los resultados ofrecidos por la computadora molecular. Cada barra de la gráfica representa el número de fragmentos de ADN de cada una de las 16 secuencias iniciales, luego de haber sido amplificados. Claramente, las soluciones son los fragmentos 9, 8, 3 y 7.Obsérvese que hay cantidades muy pequeñas de fragmentos que representan soluciones espurias: el método, evidentemente, no es perfecto, aunque la diferencia entre las soluciones reales y las falsas es clarísima. Noticias de la Ciencia y la Tecnología La molécula TMAO Su secreto ha sido por fin desvelado. La molécula TMAO es la principal responsable de que existan criaturas capaces de vivir en las profundidades de los océanos soportando presiones enormes. Los robots submarinos y los batiscafos nos han proporcionado una imagen del fondo oceánico muy alejada de lo que podría esperarse. En estas regiones también hay vida, y animales y plantas que consiguen vivir bajo presiones que a nosotros nos aplastarían de inmediato. Los científicos saben que las altas presiones pueden impedir que las proteínas formen enzimas necesarias para la vida. Es lícito pues preguntarse qué hace que la vida abisal haya resuelto este problema. Según Paul Yancey, del Whitman College, las proteínas están recubiertas por moléculas de agua antes de formar los enzimas. Para que este proceso sea posible, el agua debe desaparecer, pero las altas presiones submarinas tienden a atrapar dichas moléculas junto a las proteínas. Yancey ha estudiado diversas criaturas que normalmente viven en estas condiciones, desde peces hasta plantas y anémonas, y ha descubierto que contienen una mayor cantidad de lo habitual de un compuesto llamado TMAO. Por otro lado, cuanto mayor sea la presión en la que éstos deban desenvolverse, mayor es también la concentración de esta molécula en los tejidos. Al parecer, la TMAO incrementa la habilidad de los enzimas de soportar altas presiones, así como su resistencia al ataque de otros enzimas que pueden romper las proteínas. Su utilidad se extiende incluso a otros seres vivos si éstos son tratados con ella. Su poder estabilizante es tan elevado que los científicos creen que podría utilizarse en ciertas enfermedades humanas. (New Scientist) El genoma mínimo Científicos estadounidenses han encontrado el número de genes mínimo necesario para que un organismo sobreviva. 720 El Hijo de El Cronopio No. 67 El estudio del genoma humano no ha hecho sino poner de manifiesto su enorme complejidad, coherente con la estructura de un ser igualmente complicado como lo es el Hombre. Pero hay otros seres vivos sobre la faz de la Tierra, como los microorganismos, cuyo genoma es mucho más sencillo, y no por ello dejan de alimentarse y reproducirse con total normalidad. Clyde A. Hutchison III, profesor de microbiología de la School of Medicine, en la University of North Carolina, ha querido saber hasta qué punto un ser puede sobrevivir con el menor número de genes posible, y para ello ha experimentado con algunos de los más sencillos organismos unicelulares conocidos. Según sus investigaciones, el número mínimo de genes capaces de producir las proteínas que uno de estos organismos necesita para sobrevivir y reproducirse en un laboratorio es de entre 265 y 350. Para averiguarlo, Hutchinson ha empleado una técnica llamada GTM (Global Transposon Mutagenesis) sobre varios ejemplares de la bacteria que denominamos Mycoplasma genitalium. La GTM sigue un proceso de eliminación por el cual se insertan fragmentos de ADN no relacionado en medio de genes, con el objeto de interrumpir su función y ver si el organismo es capaz de sobrevivir a ello. La conclusión principal, para esta bacteria, es que un tercio de sus genes no son realmente necesarios para su supervivencia. El estudio es interesante, ya que permitirá avanzar en la creación de formas de vida "mínimas", hechas a medida y alteradas para servir como agentes biológicamente activos capaces de luchar contra enfermedades. Reducir la complejidad que deban tener estos agentes permitirá obtenerlos mucho antes de lo esperado. También tendrán un mayor atractivo comercial y menos implicaciones éticas y sociales. Un centenar de los genes que han sido identificados en la Mycoplasma genitalium como necesarios, curiosamente, son aún desconocidos para nosotros y no sabemos para qué sirven. Sólo podemos decir que su ausencia ocasiona la muerte. En comparación, el genoma humano es 5.000 veces más grande que el de la bacteria estudiada, un organismo que ocasiona síntomas parecidos a la gonorrea en las personas. Su genoma sólo contiene 517 genes, el menor número entre todos los organismos unicelulares conocidos. La idea de construir genomas mínimos no supone en principio una violación de preceptos morales, pero probablemente habrá que delimitar antes a partir de qué momento un genoma es demasiado complejo como para dar lugar a organismos pensados para nuestro beneficio sin crear reticencias éticas. Información adicional en: http://www.unc.edu/news/newsserv/research/hutch12999.htm Noticias de la Facultad Nuevos titulados de la Facultad de Ciencias El 18 de febrero de 2000 se realizaron dos exámenes profesionales, en la modalidad de realización de semestre de maestría como opción de titulación. De esta manera obtuvieron exención del examen profesional por haber obtenido un promedio igual o 721 El Hijo de El Cronopio No. 67 mayor que ocho a carga completa en el primer semestre de un programa de posgrado en física, electrónica o matemáticas, que se encuentre en el padrón de excelencia del CONACYT. Los alumnos titulados son: Francisca del Carmen Rosales Núñez Quien realizó su semestre de maestría en el IICO-UASLP, obteniendo el título de Ingeniero Físico Juan Medellín Zapata Quien realizó su semestre de maestría en el Instituto de Física de la UASLP, obteniendo el título de Licenciado en Electrónica Física La Ciencia desde el Macuiltépetl/ La institucionalización de la ciencia Por Manuel Martínez Morales La ciencia tal y como la conocemos, es decir, como institución patrocinada socialmente y como profesión legítima reconocida por la sociedad, es un producto histórico relativamente reciente. No estamos muy lejos de los siglos XVI y XVII donde al quehacer científico, si se le pudiera llamar de esa forma, se dedicaban unos cuantos hombres inquietos sin más presupuesto que el que de sus propios bolsillos pudieran obtener, o el de algunos nobles o mercaderes ricos que estuvieran dispuestos a patrocinarlos a cambio del entretenimiento que con sus ocurrencias “filosóficas” e ingeniosos aparatos pudieran brindarles los virtuosi. El reconocimiento definitivo de la ciencia como institución social de primera importancia, tanto en la cultura como en la producción, se dio en el momento en que se crearon las primeras sociedades científicas. Entre las primeras se cuentan la Academia dei Lincei, fundada en Roma alrededor de 1600, la de Cimento en Florencia (1651) y las dos que a la larga tuvieron mayor trascendencia histórica: La Académie Royale des Sciences en Francia (l666) y la prestigiada Royal Society of London (1662). Todas estas sociedades fueron formándose a partir de reuniones informales que grupos de amigos realizaban para discutir las nuevas ciencias de su época. Inicialmente, dichas sociedades no contaban con patronazgo o subvención alguna y la única fuerza cohesiva del grupo la constituía el propio interés de sus miembros. Hay que decir, a favor de estas sociedades, que no sólo mantuvieron un foro de discusión para asuntos científicos, sino que otra de sus actividades importantes fue la divulgación de sus ideas y puntos de vista, a través de publicaciones regulares. Éstas jugaron un papel fundamental en la apreciación de la ciencia por la sociedad. Así, la Academia Francesa inició el Journal des Savants y la Royal Society su Philosophical Transactions. Estas publicaciones, que en sus principios comprendían temas científicos y filosóficos muy generales, fueron dando origen a numerosas revistas especializadas, muchas de las cuales perduraron hasta nuestros días. Tuvo que pasar todavía algún tiempo para que la profesión del científico fuese socialmente reconocida y la ciencia dejara de ser contemplada como una ocupación rara a la que sólo se dedicaban los “gentlemen” y aristócratas en sus ratos de ocio. John D. Bernal cita a un tal Whemell como el primero, en una obra llamada Filosofía de las ciencias inductivas, fechada en l840, en proponer el uso de la palabra científico: “Necesitamos un nombre para designar a aquel que se dedica al cultivo de la ciencia en 722 El Hijo de El Cronopio No. 67 general. Yo me inclinaría llamarlo científico”. Hasta aquí lo que se refiere a Europa como cuna de la ciencia moderna. En cuanto a México, la situación de la ciencia ha tenido y sigue teniendo grandes altibajos. Eli de Gortari, en su monumental obra La ciencia en la historia de México, hace un detallado inventario de los logros alcanzados en la ciencia y la tecnología, por los pueblos del México precortesiano. Estos pueblos tuvieron un desenvolvimiento cultural bastante notable, sobre todo en el campo del conocimiento científico, alcanzando un nivel destacado. En matemáticas, astronomía, agricultura, medicina, trabajos de los metales, construcción, obras hidráulicas y artesanías, nuestros antepasados lograron adquirir un desarrollo sumamente amplio y profundo, sólo que este desarrollo fue interrumpido de manera violenta y definitiva por los conquistadores. Posteriormente, pueden distinguirse tres épocas durante las cuales se ha intensificado notablemente la actividad científica en nuestro país. Cito a de Gortari: la primera de ellas comprendió las tres últimas décadas del siglo XVIII y la primera del siglo XIX; la segunda abarcó desde el último tercio del siglo XIX hasta los primeros años del siglo XX; y la tercera –en la cual nos encontramos ahora– se inició después de la revolución de 1910. Fue en la primera época “cuando se inició en México la secularización de la enseñanza y se introdujeron la ciencia y la filosofía modernas. El resultado fue que se produjo un auge inusitado en la investigación científica. mismo que fue interrumpido como consecuencia de los graves conflictos sociales y políticos que se suscitaron después de la guerra de independencia. La segunda época se dio a partir de la instauración de las leyes de reforma, pues en ellas se declaró obligatoria y gratuita la enseñanza primaria, y se ensanchó considerablemente la enseñanza media y se mejoró de un modo conspicuo la educación superior. Por otra parte, se fundaron varios institutos de investigación científica y se formaron muchas sociedades científicas que promovieron la ejecución de una gran cantidad de trabajos científicos [...] Sin embargo, antes de que pudiera llegar la etapa de la elaboración científica propiamente dicha, el gobierno porfirista destruyó las bases liberales del movimiento de reforma [...] teniendo, entre otros muchos efectos, el haber tergiversado y detenido el movimiento de investigación científica. (Las citas anteriores son del ensayo Problemas de la historia de la ciencia y la tecnología en México de Eli de Gortari, aparecido en Reflexiones Históricas y Filosóficas de México, Grijalbo, 1982.) Fue a partir de los logros de la Revolución Mexicana que, poco a poco, se han ido sentando las condiciones propicias para el desarrollo de la actividad científica. De nuevo comenzaron a crecer y multiplicarse las sociedades y publicaciones científicas, y en nuestras universidades –con grandes dificultades económicas a veces, luchando contra la incomprensión, en otras– se han abierto carreras que pueden catalogarse, sin lugar a dudas, como carreras científicas. Durante la última década, la formación de varios miles 723 El Hijo de El Cronopio No. 67 de investigadores y la apertura de centros, instituciones e institutos de investigación, han constituido un enorme paso para el desarrollo de la ciencia en México. Sin embargo, quienes hemos elegido la profesión científica, en cualquiera de sus ramas, nos encontramos frecuentemente con manifestaciones de incomprensión sobre los objetivos, logros y alcances de nuestra actividad. Muchas veces somos objeto de críticas infundadas que parten de puntos de vista deformados sobre las tareas de investigación científica. Esta situación puede explicarse porque la ciencia en México apenas está en vías de alcanzar su institucionalización plena. Por una parte, los medios de divulgación científica son todavía pocos y modestos en sus alcances; por otra parte, la insuficiencia de recursos para realizar trabajos de investigación provoca que la productividad sea poca y de alcances limitados. Se ha insistido en muchas ocasiones sobre la gran importancia que tiene para México el desarrollo científico y tecnológico, como también se ha tratado de hacer ver la urgente necesidad de diseñar una política científica para aprovechar al máximo los recursos disponibles. Para no perder otra oportunidad de consolidar a la ciencia como factor básico de desarrollo social, hace falta un apoyo decidido a las tareas de investigación y a la formación de científicos, además de una participación, también decidida, de los propios investigadores para volver más productivo y eficiente su trabajo, en el marco de una gran responsabilidad y solidaridad social que, en estos momentos tanta falta nos hace. El Cabuche (crónicas de la Facultad de Ciencias)/ Yo soy rielero Cárdenas San Luis Potosí, ciudad rielera; mejor dicho, ciudad que fue rielera, una de las importantes divisiones en la República con que contaba Ferrocarriles Mexicanos. Su economía estaba fincada en los ferrocarriles, a tal grado que llegó a contar con alrededor de 40,000 habitantes; de hace tiempo a la fecha Cárdenas ha dejado de ser un emporio ferrocarrilero disminuyendo su población a cerca de 20,000 habitantes y, su economía dejó de depender del ferrocarril y ahora se basa en el comercio y en los braceros. Cárdenas se ha convertido en un polo de emigración a los iunaited. Precisamente allí, estuvimos la semana pasada haciendo proselitismo (que no político, esos son otros) a favor de la Escuela-Facultad a fin de orientar vocaciones entre los jóvenes preparatorianos y en un futuro poder contar con más cardenenses entre nuestras filas. A lo largo de la historia de nuestra facultad han desfilado por sus pasillos una gran cantidad de cardenenses (no sé si así se les diga, aunque yo podría decirles de otro modo). Por otro lado la promoción de las carreras de la facultad que sistemáticamente realizan profesores y estudiantes es un ejercicio, que a pesar de que el número de ingreso está sumamente limitado, debe de seguirse realizando. Estuvimos en la preparatoria Rafael Nieto incorporada a la universidad, que por cierto es la segunda preparatoria que se creó en el interior del estado, después de la de Matehuala, acompañando al flamante director de la facultad, que por cierto es egresado de la citada prepa y que en 1997 le otorgaron el Premio Preparatoria que a partir de 1996 se asigna a los más destacados egresados de la preparatoria cardenense. Con diversas pláticas, de divulgación y orientación, el Chino, Medellín, José Luis, Pablito, Isaac, Benito y Jhony (yo) participamos en el cuarenta aniversario de la prepa de Cárdenas. Fernando Z. Maldonado, compositor de temas como volver, volver, entre otros sumamente conocidos, también es cardenense y ha 724 El Hijo de El Cronopio No. 67 promocionado su tierra a través de conocidas canciones, entre ellas, no podía faltar la mención de Cárdenas Vamos a Cárdenas/Qué lindo es Cárdenas/Vamos a Cárdenas, San Luis Potosí E l concurso se llevará a cabo durante la X X X V I I I S e m a n a d e c i e n c i a s del 27 al 31 de marzo del 2000 en la explanada de la Facultad de Ciencias bajo las siguientes BASES 7 7 7 7 7 7 7 Tienes que ser alumno de la Facultad de Ciencias (no importa carrera ni semestre). Los trabajos pueden ser didácticos, experimentales o tecnológicos de cualquier rama de la física (mecánica, óptica, electrónica, electromagnetismo, etc.) o hasta puede ser una invención. Puedes realizarlo en equipo (máximo 3 personas). Tu eliges como mostrar tus ideas (Puede ser un experimento, una teoría, etc.). Cada participante (o equipo) tendrá que elaborar un cartel explicativo del trabajo. La fecha límite de inscripción será el día 10 de Marzo del 2000 (la inscripción será gratuita). El trabajo presentado puede ser asesorado por algún investigador de: FC-UASLP, IF-UASLP o IICO-UASLP. ASPECTOS A CALIFICAR 4 4 4 Creatividad para expresar tus ideas (montaje experimental, maqueta, etc.). Defensa del trabajo ante los jurados calificadores. Originalidad y contenido del cartel. JURADO CALIFICADOR + Estará integrado por investigadores de la FACULTAD DE CIENCIAS, IF-UASLP e IICO-UASLP. PREMIOS Π Todos los participantes recibirán constancia de participación. Π Para los tres primeros lugares: Diploma y vales para libros. INFORMES E INSCRIPCIONES Cuauhtémoc Araujo A. E-mail: araujo@galia.fc.uaslp.mx Sandra Balderas M. E-mail: eloisa@galia.fc.uaslp.mx Valentina Franco L. E-mail: f.valentina@mailcity.com David Meneses Rdz. E-mail: meneses@galia.fc.uaslp.mx Consejería de alumnos 725 El Hijo de El Cronopio No. 67 QUE ESPERAS.... INSCRIBETE YA!!! QUE ESPERAS.... INSCRIBETE YA!!! Y si quieres participar y no sabes que trabajo presentar, puedes elegir alguno de los proyectos que nosotros te proponemos, asesorados por los siguientes investigadores. INVESTIGADOR Dr. Salvador Palomares M.C. Selina Ponce Dr. Manuel Mirabal García Dr. Jurgen Engelfried Dr. Gonzalo Hernández M.C. Raymundo Rodríguez Dr. Ricardo Guirado M.C. Gerardo Ortega Dr. Refugio Martínez Dr. Francisco de Anda Salazar M.C. José G. Nieto Dr. Gustavo Ramírez Flores DEPENDENCIA PROYECTO IF-UASLP IF-UASLP IF-UASLP IF-UASLP IF-UASLP DFM - UASLP IF-UASLP FC-UASLP FC-UASLP IICO-UASLP IICO-UASLP IICO-UASLP Líquidos Magnetoreólogicos Cualquier proyecto. Calentador solar Circuito electrónico con módulos de NIM Cualquier trabajo de electromagnetismo Sin nombre. Magnetismo. Cualquier proyecto. Cualquier proyecto. Cualquier proyecto. Cualquier proyecto. Cualquier trabajo en óptica. 726 El Hijo de El Cronopio No. 67 La Universidad Autónoma de San Luis Potosí A través de la Facultad de Ciencias Felicita Al joven Joel Briones Hernández estudiante de esta Facultad, por haber obtenido el PRIMER LUGAR en el concurso “LEON M. LEDERMAN AWARD 2000” que organiza anualmente la Fundación Hertel, A.C. para los mejores estudiantes de Física de nuestro País. San Luis Potosí, S.L.P. a 29 de febrero de 2000 “DESCUBRIR LO CREADO ES CREAR LA CIENCIA” Fís. Benito Pineda Reyes Director 727 Boletín El Hijo de El Cronopio Facultad de Ciencias Universidad Autónoma de San Luis Potosí No.68, 6 de marzo de 2000 Boletín de información científica y tecnológica de la Facultad de Ciencias Publicación semanal Edición y textos Fís. J. Refugio Martínez Mendoza Cualquier información, artículo o anuncio deberá enviarse al editor e-mail: flash@galia.fc.uaslp.mx Este boletín y números anteriores, pueden consultarse por Internet en la página de la UASLP: http://phobos.dtc.uaslp.mx/publi.html 44 Aniversario de la Fundación de la Facultad de Ciencias 1956-2000 El Hijo de El Cronopio No. 68 Semblanza, en forma de cápsulas, de la Facultad de Ciencias, 1956-2000 Hace 44 años se inició formalmente en San Luis Potosí la formación de físicos al crearse en 1956 la, entonces, Escuela de Física de la Universidad Autónoma de San Luis Potosí hoy, Facultad de Ciencias. A lo largo de 44 años, con altos, bajos y crisis, la física se ha desarrollado formidablemente en San Luis Potosí. En la actualidad la física potosina cuenta con un buen prestigio a nivel internacional y constituye la punta de lanza de los grupos de investigación de la Universidad Autónoma de San Luis Potosí, siendo los representativos los grupos del Instituto de Física y del Instituto de Investigación en Comunicación Óptica, quienes además se encargan de la maestría y doctorado en ciencias, en la especialidad de física y ciencias aplicadas, mientras que la Facultad de Ciencias, heredera de la Escuela de Física, se encarga de la licenciatura. Durante la primer semana de marzo de cada año, se celebra desde el año de 1962, la tradicional Semana de Física, para conmemorar el inició de actividades de la Física en San Luis. I Hace 44 años se hacían los preparativos para el inicio de actividades de la Escuela de Física, que sería apenas la tercera escuela en el país. En la mañana del 5 de marzo de 1956 a las 9:00 horas Gustavo del Castillo y Gama inició su primera clase de física general con una breves palabras de bienvenida para los alumnos y luego entró de lleno en el terreno de la ciencia. A las 10:00 horas en punto tocó el turno a Candelario Pérez Rosales dando principio al curso de matemáticas. Nueve estudiantes habían escogido la carrera de física, más que nada, al decir de Candelario Pérez, movidos por el deseo de aventurarse en lo desconocido. Los pioneros que tomaron parte en la aventura se llamaban: Alejandro Aranda, Miguel Avila Luna, Manuel Carrillo Grajeda, José González Córdova, Alfonso Ledezma Zavala, Raúl Nuño González, Jorge Pérez Morón, Victor Torres y Juan Fernando Cárdenas Rivero. Con el tiempo cuatro de ellos llegarían a graduarse como físicos. Los demás se quedarían en el camino. Candelario Pérez Rosales, en su libro Física al Amanecer, nos cuenta de ésta primera generación: Del total de nueve alumnos que se inscribieron en el primer semestre, seis habían llevado cursos de ingeniería. Algunos de ellos ya habían probado la amargura del fracaso y se habían refugiado en la Escuela de Física con la esperanza de encontrar alivio a sus desdichas. Pero la física no admite falsos seguidores: fue inevitable que volvieran a caer en desgracia. De los exalumnos de ingeniería, sólo dos demostraron vocación y calidad: Juan Cárdenas Rivero, recién llegado de la Escuela Superior de Ingeniería Mecánica y Eléctrica del Instituto Politécnico Nacional, y Jorge Pérez Morón, que había hecho estudios en la Facultad de Ingeniería de la UNAM. A partir de su ingreso a la Escuela de Física, estos dos estudiantes llevarían vidas paralelas y llegarían a ser los primeros físicos en San Luis Potosí. Juan Cárdenas había formado parte de la generación pionera de 1956. Procedía de la Escuela Superior de Ingeniería Mecánica y Eléctrica del IPN. Estaba a punto de graduarse como ingeniero, cuando un llamado tardío de su conciencia desvió el curso de su vida hacia el mundo de la física. Siendo potosino de origen, había hecho la preparatoria en San Luis antes de enrolarse en las filas del Politécnico. De aquel grupo 730 El Hijo de El Cronopio No. 68 que nació con la escuela, Juan Cárdenas era el alumno que mejor comprendía la importancia de la física como actividad creativa. Tenía una formación polifacética que le permitía discutir, con argumentos contundentes, lo mismo de ciencia, que de arte o tecnología. Fue lógico pues, que los estudiantes de su época lo reconocieran como su líder natural. Durante sus tiempos de estudiante y de maestro, Juan Cárdenas fue, ante todo, un líder. Sus alumnos lo buscaban, lo seguían y lo imitaban. Admiraban su sentido del humor, sus críticas incisivas, la rapidez de su pensamiento y su dominio de las relaciones humanas. Ejerciendo su calidad de guía, llegó a la dirección de la escuela y del instituto, en la que sería la tercera época de la física en San Luis Potosí. En ese tiempo, la situación del instituto era anómala. En Juan Cárdenas recayó la responsabilidad de normalizar sus funciones dentro de la Universidad. Separó el instituto de la escuela; lo dotó de instalaciones propias; le dio un presupuesto digno y lo convirtió en un lugar hospitalario para los investigadores. II El 5 de marzo de 1956 iniciaron las actividades de la entonces Escuela de Física de la Universidad Autónoma de San Luis Potosí, siendo apenas la tercera escuela de física fundada en el país. Desde sus inicios se complementaron las actividades docentes con las de investigación, canalizando estas últimas al Instituto de Física, cuya existencia fue indispensable para la subsistencia de la Escuela, y que inició sus labores de investigación meses antes de que comenzará a funcionar la Escuela. En dos años la Escuela de Física y, sus trabajos de investigación a través del Instituto de Física, hicieron que se convirtiera en un centro de investigación de primer orden. El INIC (Instituto Nacional de Investigación Científica), antecesor inmediato del CONACyT, y PEMEX canalizaban apoyo financiero para el desarrollo de la Física en San Luis. Las actividades de investigación se iniciaron con proyectos sobre física nuclear de altas y bajas energías. El Instituto y la Escuela eran dos entidades estrechamente unidas entre si, que habían nacido bajo el mismo techo y que permanecieron al amparo de los mismos muros por dos décadas. Parte de los apoyos del INIC consistían en contratar a los profesores de la Escuela como investigadores del INIC. Posteriormente Escuela e Instituto pasaron por altibajos, y no fue sino hasta mediados de la década de los setenta, que empezó a consolidarse una planta docente y de investigación estable. En esta época Escuela e Instituto aun seguían de la mano. A finales de los setenta, el Instituto contó con edificio propio y el personal docente de la Escuela e Instituto no era ya más el mismo. Las actividades de investigación se desligaron de las docentes y aquellas se realizaron primordialmente en el Instituto de Física. 731 El Hijo de El Cronopio No. 68 A principios de los ochenta se crearon en la Escuela, además, los Departamentos de Matemáticas y Electrónica y la Escuela de Física se convirtió en Facultad de Ciencias al encargarse administrativamente de los posgrados en física. En esta misma época inicia el fuerte desarrollo en investigación del Instituto de Física y se logra graduar por primera vez en provincia a un doctor en ciencias. Desde 1962, en el mes de marzo, se celebra la tradicional Semana de Física para recordar el inició de la Física en San Luis. Este año se celebra la edición 38 de la Semana de Física, ahora de Ciencias. III En la década de los cincuenta, el número de físicos profesionales en México era prácticamente nulo, apenas existían dos escuelas de física en el país. Los pocos físicos que existían se formaban en el extranjero. Tal fue el caso de dos potosinos, uno de ellos, Gustavo del Castillo y Gama, con formación de ingeniero químico que se trasladó a la Universidad de Purdue, en Estados Unidos, para realizar sus estudios de posgrado, en donde obtuvo su doctorado. El otro, Candelario Pérez Rosales, quien se dirigió a la misma Universidad de Purdue a estudiar la licenciatura en física. Fue allí donde se conocieron y planearon la creación de una escuela de física en la universidad potosina. tiempo después vieron cristalizado su proyecto cuando, en el primer semestre de 1955 y, con una sola persona, comenzaron las actividades del Instituto de Física. Posteriormente, en diciembre de 1955, el Consejo Directivo Universitario, aprobó la creación de la Escuela de Física, misma que inició sus actividades el 5 de marzo de 1956. Después del inicio de actividades de la Escuela e Instituto de Física de la Universidad Autónoma de San Luis Potosí. Las actividades de investigación se iniciaron con un proyecto sobre física nuclear de altas energías y otro sobre física nuclear de bajas energías. En el primer proyecto se trataba de utilizar la radiación cósmica como fuente de partículas de alta energía para inducir interacciones nucleares en placas de plomo. Para este fin se construyó una cámara de niebla, la primera construida totalmente en México, con sistema de control electrónico. Las pruebas iniciales de funcionamiento del equipo se hicieron a mediados de 1957. En este laboratorio se observaron, por primera vez en México, trayectorias de partículas generadas al interaccionar la radiación cósmica con la materia terrestre. En el artículo: Pruebas preliminares de la operación de la cámara de Wilson y el equipo automático de control, quedaron descritos los resultados experimentales iniciales. El artículo se publicó en el número inaugural de la revista Acta Científica Potosina, que publica la Universidad Autónoma de San Luis Potosí. El segundo proyecto estaba encaminado a hacer estudios sobre los llamados coeficientes de conversión interna de algunos isótopos radioactivos pesados. Para llevar a cabo este proyecto fue necesario construir un espectrómetro de centelleo. Los resultados de esta 732 El Hijo de El Cronopio No. 68 construcción quedaron descritos en el reporte titulado: Diseño y construcción de un espectrómetro de centelleo, publicado en octubre de 1960. IV Al iniciar las actividades, en 1956, de la Escuela de Física, hoy Facultad de Ciencias, estas estaban relacionadas con el trabajo experimental. Se pensó que era necesario incorporar a los alumnos de Física en el trabajo manual. Para estimular ese gusto por la física experimental, a mediados de 1957, se puso en marcha un programa para el diseño y construcción de cohetes. A partir de entonces y durante más de una década, se trabajo intensamente en este programa cuyos propósitos eran: 1) satisfacer la curiosidad científica de construir objetos que pudieran elevarse más allá de las nubes. 2) aprovechar los artefactos para provocar la lluvia, mediante la detonación de cargas explosivas en el seno de las nubes. 3) estimular el desarrollo de dispositivos de telemetría y control. Aunque el programa no llegó a cumplirse totalmente, el 28 de diciembre de 1957, se lanzó por primera vez en México un cohete con fines científicos, el mismo año en que la ex-Unión Soviética inauguraba la era espacial. Este programa, además de satisfacer los objetivos educativos planteados, sirvió para interesar a la sociedad potosina en las actividades de ciencia realizadas en la UASLP, pues tan espectacular resultó el programa que los periódicos locales y en determinado momento nacionales dieron cuenta, con descripciones detalladas de los experimentos y fotografías espectaculares que dieron la vuelta al mundo, de los lanzamientos de cohetes tan famosos de los estudiantes de física realizados en un lugar al que los periodistas bautizaron como "Cabo Tuna". Esta actividad se inició en 1957 y persistió prácticamente a lo largo de la década de los sesenta. Las noticias de los experimentos trascendieron los límites de San Luis Potosí y se esparcieron por todo el territorio nacional. En 1963, cuando la ciudad de los Mochis, Sinaloa cumplió medio siglo de vida, la comisión organizadora de los festejos deseaba que como parte de los actos conmemorativos se lanzara un cohete. El día del aniversario, ante un estadio de béisbol repleto de asombrados espectadores, dos cohetes salieron rugiendo de una improvisada torre de lanzamiento instalada en el fondo del parque. Los artefactos se elevaron dos mil metros, se perdieron de vista, descendieron con un zumbido de bala y se enterraron en un panteón que se encontraba al otro lado de la barda del parque. V Anteriormente y después de la salida de Gustavo del Castillo y Candelario Pérez, la Escuela pasó por una de sus crisis. Para lograr completar los cursos los propios estudiantes tenían que incorporarse a este proceso y ellos mismos impartían clases en la Escuela. Según indica Francisco Mejía Lira en sus apuntes sobre la historia de la Escuela de Física, publicados en los Cuadernos de Divulgación Científica, No.1, FC-UASLP, "con los estudiantes a cargo de la escuela se logró por primera vez que se impartieran todos los cursos marcados en el programa, en el semestre que finalizó en junio de 1971". 733 El Hijo de El Cronopio No. 68 En la década de los setenta, se logró contar con una planta de profesores suficiente para mantener los cursos de toda la carrera. A partir de 1974 se ofrecía la Maestría en Ciencias y los egresados de la escuela empezaron a realizar sus estudios de maestría en colaboración con la UNAM. Con una planta más estable de profesores para la escuela, ahora se ofrecía la oportunidad para que los egresados de la escuela realizaran estudios de posgrado y se incorporaran posteriormente a la planta de profesores e investigadores. Mientras tanto la Escuela de Física fortalecía su desarrollo con el regreso de algunos de sus alumnos como maestros. La escuela, que había estado a cargo de los alumnos sobrevivió exitosamente. Por aquellas fechas, a principios de los setenta, regresaba de Alemania, donde realizó sus estudios de doctorado, Joel Cisneros Parra, encargándose de la dirección de la Escuela. Con Cisneros al frente de la escuela ésta se encaminaba a una verdadera consolidación. Para 1974 se contaba con una planta que aseguraba la conclusión de todos los cursos de la carrera. Esta estabilidad permitía que los profesores de la escuela que habían realizado estudios de posgrado trataran de llevar a cabo proyectos de investigación. Sin embargo, no hubo posibilidad de combinar las actividades docentes y de investigación; la gente que podía realizar investigación se mudó al Instituto de Física, en donde, para esas fechas, se habían graduado los primeros maestros en ciencias. Con este pequeño grupo y la interacción con investigadores potosinos que se encontraban en el CINVESTAV, empezaron a desarrollarse proyectos de investigación en Materia Condensada y aparecieron las primeras publicaciones científicas. Se ofreció el doctorado en ciencias y todo este esfuerzo condujo a que, por primera vez en provincia, se graduara un doctor en ciencias en esta disciplina (Pedro Villaseñor González). En este periodo aparecen las primeras publicaciones en revistas internacionales. La semilla sembrada empezaba a dar frutos en el terreno de la investigación científica. Por su parte la Escuela de Física reforzaba su planta de maestros de tiempo completo para cubrir los cursos, tanto de la carrera de física, como de las carreras de los departamentos de matemáticas y electrónica, recién abiertos. Sin embargo, se careció de un programa adecuado para aumentar la plantilla de profesores de tiempo completo. A fines de la década de los setenta se reformula el plan de estudios y se sientan las bases para crear la carrera de electrónico físico, como un esfuerzo para abrir las posibilidades de desarrollo profesional para los físicos en la industria. A principios de los ochenta al abrirse las carreras de profesor de matemáticas y profesor de física, se plantea el cambio de nombre para la Escuela quedando el de Escuela de Ciencias, pocos días después al encargarse administrativamente del posgrado en física, la Escuela se convierte en Facultad de Ciencias y se establece el sistema departamental, que en realidad fue aprobado por el Consejo Directivo Universitario en septiembre de 1980, formado por los Departamentos de Física, Matemáticas, Electrónica y Materias Complementarias; en la Facultad, con dicho sistema, llegan a existir hasta diecisiete carreras, para una población aún muy baja de estudiantes. 734 El Hijo de El Cronopio No. 68 En este periodo (1976-1982) aumenta considerablemente la planta de profesores de tiempo completo, misma que se mantiene prácticamente sin cambios hasta la fecha. Actualmente, en la Facultad de Ciencias, se cuenta con diecinueve profesores de tiempo completo e investigadores de los institutos de física y de comunicación óptica colaboran en la formación de profesionales a nivel licenciatura. Recientemente se ha abierto una nueva opción para estudiantes interesados en la física aplicada: la carrera de ingeniería física. Noticias de la Ciencia y la Tecnología Hola, Eros La sonda NEAR se encuentra ya en órbita alrededor del asteroide Eros. Le espera un año de investigaciones que podrían culminar con un aterrizaje sobre su superficie. Estamos ante un acontecimiento histórico. Por primera vez, una nave automática enviada desde la Tierra ha conseguido colocarse en órbita alrededor de un asteroide, en una remota zona del Sistema Solar situada entre Marte y Júpiter. A las 16:00 UTC del 14 de febrero, la sonda NEAR confirmaba mediante la telemetría que el encendido de sus motores había resultado exitoso y que su trayectoria quedaba a partir de ahora plenamente dominada por la débil gravedad de 433 Eros, un asteroide rocoso con aspecto de cacahuete (33 por 13 por 13 km). La operación culmina muchos meses de espera por parte del equipo científico y de control situado en la Tierra. Hace un año, un primer intento de orbitar el asteroide falló por un error técnico. La nave sólo pudo sobrevolar su objetivo y continuar después su avance alrededor del Sol. Transcurrida toda una órbita solar, el nuevo intento ha sido coronado con el éxito. Puede decirse que, sin duda, el personal de la misión conoce mucho mejor a su vehículo ahora que hace un año, lo cual ha permitido superar todas las dificultades encontradas en el camino. El NEAR (Near Earth Asteroid Rendezvous) pertenece a la serie Discovery de la NASA y es controlado por el Johns Hopkins University Applied Physics Laboratory. Es una misión de bajo coste, la primera en utilizar paneles solares y no sistemas de producción eléctrica por radioisótopos a distancias tan alejadas del Sol. La velocidad de aproximación de la sonda con respecto al asteroide fue muy lenta durante la fase final de acercamiento, apenas 25 km/h. Durante los últimos días, la nave había enviado información e imágenes de Eros, para confirmar que su trayectoria era la correcta, para buscar posibles satélites y para medir las variaciones de brillo que den pistas sobre las características de su rotación. A las 15:33 UTC del día señalado, la NEAR se encontró a 327 km del centro del asteroide, momento elegido para encender sus motores durante 57 segundos. Su velocidad se redujo a la equivalente a unos metros por segundo, apenas la que emplea una persona para caminar. Fue entonces capturada por la gravedad de Eros, a unos 256 millones de kilómetros de la Tierra. La cámara de la sonda y sus instrumentos ya han empezado a enviarnos información. Especialmente interesantes son las imágenes de la superficie, que presenta varios cráteres. 735 El Hijo de El Cronopio No. 68 Durante las próximas semanas, la NEAR descenderá paulatinamente. La irregular forma de Eros y su período orbital, unas 5,27 horas, hacen esta maniobra un tanto compleja. Los controladores deberán ir con mucho cuidado para evitar que choque contra la superficie. Los diversos instrumentos científicos de la sonda permitirán analizar sus propiedades durante los próximos meses. Desde unos 50 km de altitud, su espectrómetro intentará medir la composición química del objeto, aportando pistas sobre su origen. En agosto, se incrementará de nuevo la órbita hasta los 500 km para tomar fotografías de ancho campo que permitan realizar un mapa del asteroide. En diciembre se intentará un descenso hasta menos de 2 kilómetros de altitud, para permitir el trabajo del espectrómetro infrarrojo. Al finalizar la misión, en febrero de 2001, podría incluso intentarse un aterrizaje suave sobre el asteroide, a pesar de que la nave no ha sido diseñada para ello. Información adicional en: http://near.jhuapl.edu http://www.spacescience.com/headlines/y2000/ast14feb_1a.htm http://spacescience.com/headlines/y2000/ast08feb_1.htm Imagen: http://near.jhuapl.edu/iod/20000215/20000215.jpg (Eros, visto desde la órbita de la NEAR.) (Foto: J. Hopkins U.) ¿Conocieron los romanos a los mexicanos? Un hallazgo arqueológico sugiere que los romanos podrían haber visitado el Nuevo Mundo antes que Colón. En 1933, se desenterró en el valle de Toluca, a 65 km al oeste de la ciudad de México, una cabeza negra de terracota. Sólo tiene unos pocos centímetros de altura, y representa un hombre barbudo. Lo curioso de la pieza es que su estilo artístico es diferente de cualquier otro previo a la llegada de Colón a América. Roman Hristov, un antropólogo de la Southern Methodist University, ha dedicado los últimos años a estudiarla y ha llegado a una conclusión sorprendente. Su origen podría ser romano, de una época anterior al descubrimiento del continente americano por el famoso navegante. ¿Llegaron pues, los romanos, a América, mucho antes que los españoles? Hristov obtuvo algunas muestras de material de la pieza y las envió al Max Planck Institute for Nuclear Physics de Heidelberg. Se aplicó sobre ellas una técnica llamada termoluminiscencia, donde una acción calorífica hace que los electrones de alta energía acumulados en las muestras a lo largo del tiempo emitan su energía en forma de luz. Midiendo dicha luz, se ha podido constatar que la terracota fue cocida hace 1.800 años. La cabeza ha sido mostrada después a expertos en arte romano y éstos han concluido que, en efecto, parece una pieza de esta cultura, de alrededor del año 200 de nuestra era. La cabeza fue colocada originalmente en suelo funerario. Ahora, además, sería la primera evidencia de la existencia de contactos pre-hispánicos entre el Viejo y el Nuevo Mundo. (New Scientist) Intercambios celulares Por primera vez, los científicos han encontrado una forma de registrar las "conversaciones" que tienen lugar de forma simultánea entre miles de moléculas en el interior de una sola célula. 736 El Hijo de El Cronopio No. 68 La célula es uno de los elementos más sencillos que representan a la vida. Pero una célula no es sino una reunión de miles de moléculas que interaccionan constantemente entre sí para un fin común. Científicos de los National Institutes of Health y de la CuraGen Corporation han conseguido una auténtica primicia biológica al conseguir determinar cuáles de estas moléculas "hablan" con otras a base de realizar contactos físicos. Sin embargo, la tarea es ingente, de tal manera que ha sido necesario crear un método automático. Los experimentos se han realizado sobre una especie particular de levadura, la Saccharomyces cerevisiae, cuyas células son muy interesantes para los biólogos, ya que aunque primitivas son muy parecidas a las de otras especies más evolucionadas, incluidos los humanos. "Escuchar" qué proteínas hablan físicamente con otras es un trabajo crítico para los investigadores, debido a que las células se sirven de tales discusiones moleculares para llevar a término las funciones de la vida, desde la respiración a la memoria. Imaginemos la visita a una biblioteca llena de libros que no podemos leer. Esto es lo que les ocurre, en un cierto sentido, a los biólogos, que disponen de grandes cantidades de información genética pero no saben qué hacen los genes. Incluso en los casos en que lo sabemos, resulta difícil saber cómo las partes de una célula se comunican con las demás, a menudo a través de contactos físicos. Para avanzar en este sentido, los investigadores utilizan una estrategia automatizada en la que una célula de prueba sólo sobrevive si contiene proteínas que se tocan entre ellas. La disponibilidad de todo el genoma de la especie de levadura en estudio facilita esto. Cuando el genoma humano esté completo, se podrá aplicar la técnica al caso del Hombre. Información adicional en: http://www.nih.gov/nigms/news/releases/fields.html http://www.nih.gov/news/pr/feb2000/nigms-09.htm Un nuevo estado de la materia Experimentos realizados en el laboratorio europeo CERN aportan evidencias de que las partículas llamadas quarks, en vez de unirse para formar otras más complejas como los protones y neutrones, pueden permanecer libres en lo que sería un nuevo estado de la materia. Los astrofísicos y los especialistas en física de partículas cooperan estrechamente para poner de manifiesto lo que ocurrió durante la gran explosión llamada Big Bang, la que dio lugar al Universo en expansión que hoy en día conocemos. Las condiciones imperantes durante este acontecimiento no son demasiado bien conocidas. Hasta ahora, nuestros conocimientos de física permitían explicar con detalle cómo era la materia poco después del Big Bang. Pero conforme andamos hacia atrás en el tiempo, se hace más y más difícil concretar en qué estado se encontraba ésta. Nuevos experimentos realizados en el laboratorio europeo CERN aportan luz a esta cuestión. Hasta ahora sabíamos que los núcleos de los átomos de la materia ordinaria se formaron unos tres minutos después del Big Bang. Diversas teorías sugerían que las partículas que constituyen a neutrones y protones existían con anterioridad de forma libre, pero esto no se había podido demostrar. Las investigadores de los científicos del CERN confirman la viabilidad de este nuevo estado de la materia, lo que lleva nuestro 737 El Hijo de El Cronopio No. 68 conocimiento de lo ocurrido durante el Big Bang hasta tan sólo unos 13 microsegundos después de la explosión. El programa Heavy Ion, que está formado por siete experimentos, ha proporcionado una imagen clara de la existencia de este nuevo estado de la materia en la que quarks y gluones (los que conforman la materia ordinaria) no se encuentran confinados. Queda por explorar cuáles son las propiedades físicas de este tipo de materia, cuestión que será examinada por el Relativistic Heavy Ion Collider del Brookhaven National Laboratory, y más adelante por el Large Hadron Collider del propio CERN. El programa Heavy Ion ha servido para hacer colisionar iones de plomo, operación que ha creado las densidades de energía inmensamente altas capaces de romper las fuerzas que confinan los quarks en el interior de partículas más complejas. Un rayo de iones de plomo de altísima energía (33 TeV) fue acelerado por el Super Proton Synchrotron (SPS) y enviado a chocar contra siete detectores experimentales diferentes. Las colisiones crearon temperaturas más de 100.000 veces superiores a las existentes en el centro del Sol, y densidades de energía 20 veces mayores que las de la materia nuclear ordinaria, nunca alcanzadas en un laboratorio. Los resultados confirman la teoría de la existencia de un plasma de quark-gluon, la sopa primordial en la que los quarks y los gluones existían antes de que se unieran cuando el Universo empezó a enfriarse. La imagen completa que demuestra la existencia del plasma es como una especie de rompecabezas, cada una de cuyas piezas ha sido proporcionada por los distintos experimentos. Cada uno de ellos por separado no nos proporciona la visión completa del problema. Si bien parece que las partículas convencionales están formadas por quarks, nadie ha podido aislar uno de ellos. Por su parte, los gluones son las partículas asociadas con las fuerzas entre quarks. El hecho de que no existan libremente se debe a que sólo pueden hacerlo ante temperaturas y densidades extremadamente altas. Tales condiciones debieron existir durante unos momentos después del Big Bang, y es por ello que los teóricos predecían la existencia del plasma quark-gluon. Transcurridos estos instantes, quarks y gluones pasaron a formar la materia que conocemos hoy. Los científicos del CERN, con sus experimentos, han dado visos de realidad a la teoría creando lo que ellos llaman un "Little Bang" (Pequeña Explosión). Información adicional en: http://www.cern.ch/CERN/Announcements/2000/NewStateMatter http://www.nbi.dk/na44/; http://na49info.cern.ch/; http://www.cern.ch/NA50/ http://www.lhep.unibe.ch/newmass/; http://www.cern.ch/WA97/ http://www.cern.ch/NA57/; http://www.cern.ch/WA98/Welcome.html Júpiter no necesita al sol Las grandes tormentas atmosféricas que caracterizan a Júpiter no son inducidas por el Sol sino por el calor procedente del núcleo del planeta. Científicos de la Cornell University, el California Institute of Technology y del NASA Galileo Imaging Team en el Jet Propulsion Laboratory (JPL) han descubierto que algunas tormentas atmosféricas en Júpiter se parecen mucho a ciertos cúmulos tormentosos llamados MCC (Mesoscale Convective Complexes), existentes en la Tierra. Al contrario de lo que se creía, los MCC jovianos no se desarrollan por los efectos del 738 El Hijo de El Cronopio No. 68 Sol sino por el intenso calor que emana del interior del planeta. Son estos MCC los que determinan el sistema meteorológico de Júpiter. En su atmósfera, aunque a mayor escala, pueden apreciarse fenómenos meteorológicos análogos a los de la Tierra, incluyendo chorros de gases, grandes elementos ciclónicos y anticiclónicos, turbulencias, etc. La sonda Galileo ha fotografiado a menudo zonas especialmente interesantes, como una al oeste de la Gran Mancha Roja, llamada cinturón ecuatorial sur. La física de los cúmulos tormentosos MCCs es igual a la de los terrestres, pero la fuente de calor que genera tales eventos es completamente diferente. Las tormentas en la Tierra son pequeñas células de nubes cumolonimbus, creadas por el calor procedente del Sol durante el verano local. Los MCC, cúmulos de muchas células de tormentas, son típicos de esta época del año. La diferencia entre la formación de MCCs y la de huracanes y ciclones es que estos últimos son alimentados por el océano caliente, mientras que los primeros se forman por la inestabilidad atmosférica. En Júpiter, las cosas son diferentes, ya que se encuentra tan alejado del Sol (cinco veces más que la Tierra) que éste no puede transferir la energía necesaria. Al contrario, el gigante gaseoso emite un 70 por ciento de energía más de lo que recibe de nuestra estrella, gracias al reservorio de hidrógeno altamente comprimido que alberga en su núcleo. Los científicos creen que esto es más que suficiente para justificar las turbulencias atmosféricas que observamos en él. Los procesos desarrollados en Júpiter dejan pequeños a los de la Tierra. Por ejemplo, los relámpagos son varias veces más grandes que sus homólogos terrestres. Información adicional en: http://www.news.cornell.edu/releases/Feb00/Jupiter.Storm.bpf.html Imagen: http://www.news.cornell.edu/photos/gierasch-fig1.300.jpg (Imágenes de una región tormentosa vista desde la sonda Galileo, cerca de Júpiter.) La Ciencia desde el Macuiltépetl/ Ludwig Wittgenstein Por Manuel Martínez Morales Cuando oímos a un chino, nos inclinamos a considerar su lenguaje como un balbuceo inarticulado. Pero quien entiende el chino reconocerá allí el lenguaje. Así, con frecuencia, no puedo reconocer al hombre en el hombre. Este genial como enigmático pensamiento fue escrito por el filósofo Ludwig Wittgenstein (Viena, 1889-Cambridge, 1951). ¿Qué quiso decir con estas cortas frases?, ¿acaso que el hombre es un lenguaje que debe descifrarse para reconocer al hombre?, y ¿cuál sería el “código” para descifrar tal lenguaje? Existen muchas definiciones y muchas maneras de acercarse al lenguaje; se puede partir de la filología que estudia las lenguas desde un punto de vista histórico gramatical, o bien, puede estudiarse la moderna teoría matemática de las gramáticas, surgida del análisis y diseño de los lenguajes artificiales que emplean las computadoras. Se puede considerar al lenguaje como “el empleo de la palabra para expresar ideas” o como “un conjunto de señales que dan a entender una cosa” o, en el contexto de las gramáticas, formales, “el conjunto de palabras generadas por reglas gramaticales de algún tipo”. 739 El Hijo de El Cronopio No. 68 Todo lenguaje puede ubicarse, para su análisis en tres dimensiones: la sintáctica, la semántica y la pragmática; también, puede abordarse el estudio de la historia de las lenguas, la filosofía del lenguaje, la psicología del lenguaje, etcétera. El estudio de ese fenómeno que simplemente designamos con el nombre de “lenguaje” es, pues, un asunto bastante complejo. Para Ludwing Wittgenstein el lenguaje constituyó un problema tan serio que dedicó la mayor parte del trabajo al esclarecimiento de la naturaleza y función de los lenguajes. Hijo de un próspero industrial del acero, Wittgenstein se dedicó en su juventud al estudio de las ciencias naturales y a la ingeniería. Una serie de problemas prácticos lo condujo al cultivo de las matemáticas, interés que eventualmente lo absorbió a tal grado que, en 1911, se inscribió en la Universidad de Cambridge para estudiar lógica matemática con Bertrand Russell, quien pronto reconoció en él un gran talento. Durante el transcurso de la Primera Guerra Mundial, Wittgenstein sirvió como oficial del ejército austríaco y, al mismo tiempo, escribió lo fundamental de su obra Tractatus Logico Philosophicus. En ésta, los principales problemas a los que pretende dar solución se refieren a cuestiones tan trascendentes como ¿qué hace posible la existencia de un lenguaje?, ¿cómo puede un hombre mediante la emisión de sonidos decir algo? y, ¿cómo puede otro hombre entenderlo? Tractatus está compuesto por un conjunto de cortas reflexiones, cuidadosamente ordenadas y numeradas, cuyo contenido se refiere a la naturaleza del lenguaje, las matemáticas, la lógica, la ética y la filosofía, pero el núcleo alrededor del cual giran todos sus pensamientos es el lenguaje. A pesar del éxito de su obra, Wittgenstein decidió retirarse de la filosofía y, de 1920 a 1925, fue maestro en una escuela primaria. Después, trabajó como jardinero y posteriormente aceptó diseñar y construir la casa de una de sus hermanas. Hay que mencionar que siendo heredero de una fortuna nada despreciable, el filósofo renunció a ella y decidió vivir con sus propios medios. En 1929, regresó a Cambridge y volvió a desarrollar sus ideas filosóficas, comenzando las notas de lo que más tarde sería publicado bajo el nombre de Investigaciones filosóficas. Wittgenstein nunca se sintió a gusto entre los practicantes de la filosofía académica y recomendaba a sus alumnos que se dedicaran a otra cosa. Él mismo, después de haber obtenido un destacado puesto profesional en Cambridge, renunció para trabajar como conserje en un hospital y más tarde como ayudante en un laboratorio clínico. La lectura de Wittgenstein es un tanto penosa, pero una vez que se penetra al espíritu de la letra, el pensamiento se ve empujado en las más diversas direcciones; así queda claro por qué en alguna ocasión Wittgenstein afirmó: Me es indiferente que el científico occidental típico me comprenda o me valore, ya que no comprende el espíritu con el que escribo. Nuestra civilización se caracteriza por la palabra “progreso”. El progreso es su forma, no una de sus cualidades, el progresar. Es típicamente constructiva. Su actividad estriba en construir un producto cada vez más complicado. Y aún la claridad está al servicio de este fin; no es un fin en sí. Para mí, por el contrario, la claridad, la transparencia, es un fin en sí. No me interesa levantar una construcción, sino tener ante mí, transparentes, las bases de las construcciones posibles. Así pues, mi fin es distinto al del científico y mi manera de pensar diversa a la suya. 740 El Hijo de El Cronopio No. 68 El Cabuche (crónicas de la Facultad de Ciencias)/ Mi primera vez: Contada por segunda vez Ya encarrerados con las indiscreciones, que más da contarles mis intimidades; no tengo ningún inconveniente en desnudarme ante ustedes contando mis actos cotidianos más íntimos. La primera vez, siempre está envuelta de nerviosismo e impaciencia, aunque impone respeto y encierra un misterio. Sucedió en 1975, en el mes de marzo, cuando nos enteramos que se suspendían las actividades, para celebrar un cumpleaños más de la Escuela de Física, programándose actividades académicas, culturales y deportivas a lo largo de la primer semana de marzo, a la que se le llamaba semana de física. Esa primera vez, sentado en el aula Werner Karl Heisenberg escuchando una plática sobre filosofía de la ciencia, impartida por no sé quién, y luego desplazándonos a la presa de San José a participar en una carrera a campo traviesa, fue realmente agradable e inolvidable. Como estoy seguro, que no faltó quién o quienes pensaran que trataría sobre otro asunto, quiero decirles que mi indiscreción e inhibición no llega a tanto, y que no alimentaré sus mentes cochambrosas. En esta ocasión escribo acerca de mi primera participación en una semana de física, de esas a la que ahora se le llama Semana de Ciencias y que por motivos obscuros se celebra en una semana que no le corresponde (cierto que a veces no queda de otra). Antes de continuar, quiero aclarar que la semana pasada (en realidad hace un año), con eso de las prisas, mencioné que el corral, digo el cubículo del chivo, cuando era decente y funcionaba como aula, llevó el nombre de Albert Einstein, craso error, el nombre correcto es el de P.A.M. Dirac; el aula Albert Einstein es donde actualmente se encuentra el laboratorio de electrónica del Instituto de Física y en donde paso la mayor parte del tiempo desde hace diez años (pasaba por qué ya me corrieron), peleando y aguantando al Angelito; créanme que yo no era así, pero a fuerzas de cohabitar (cohabitar, léase bien) en tan singular lugar y con tan singular personaje; pues ya sabrán. Por lo pronto no digo más, esas sí serían indiscreciones. La Semana de Física, ahora Semana de Ciencias, comenzó a realizarse en marzo de 1962, para conmemorar el inicio de actividades de la entonces Escuela de Física, inundando el Edificio Central, edificio que alojara en sus primeros años a la Escuela, de un ambiente festivo. Candelario Pérez en su formidable libro Física al Amanecer (recientemente apareció publicada la segunda edición), habla de la semana de física “En 1962, iniciamos la costumbre de festejar el aniversario de la fundación de la Escuela de Física. Cada año, durante una semana, se interrumpían las actividades de rutina y un ambiente festivo se filtraba hasta el último rincón de la escuela. El tiempo caluroso, que anunciaba la proximidad de la primavera, se saturaba de conferencias, de basquetbol, de ajedrez, de días de campo, de actos sociales. A ese periodo de contagioso frenesí lo llamábamos “la semana de física”. La semana de física fue un factor de unidad para la escuela. Los festejos culminaban con una cena de conmemoración a la que siempre asistía el rector de la Universidad. La cena reunía a todos los maestros y a todos los alumnos en una plan de democrática camaradería. Fue durante una de esas reuniones cuando sentí que la física se había asentado para siempre en San Luis”. Como verán, el reflejo de la escuela-facultad, lo es la semana de ciencias, su importancia radica en celebrar y reflexionar el desarrollo de nuestra escuela-facultad a lo largo de, ya 741 El Hijo de El Cronopio No. 68 casi 43 años (en este año serán 44), semana de fiesta que merece el realce y nuestro respeto; por otro lado este tipo de festejo es el más antiguo en la universidad, la semana de física como tal fue la primera en celebrarse en toda la universidad (échenle un ojo al resto de las semanas de las escuelas y facultades de la UASLP y verán), en esta ocasión se efectuará en su edición número 37 (37 el año pasado, en este dos mil es la edición 38) y con el nombre de semana de ciencias. Por lo pronto seguiré recordando esa, mi primera vez, como dice una canción de Gonzalo Curiel, como un divino amanecer inolvidable Es la cadencia de tu voz como rumor de alondra;/que nunca, nunca olvidaré por ser incomparable/Porque vino una vez a despertarme,/en un divino amanecer inolvidable. E l concurso se llevará a cabo durante la X X X V I I I S e m a n a d e c i e n c i a s del 27 al 31 de marzo del 2000 en la explanada de la Facultad de Ciencias INFORMES E INSCRIPCIONES Cuauhtémoc Araujo A. E-mail: araujo@galia.fc.uaslp.mx Sandra Balderas M. E-mail: eloisa@galia.fc.uaslp.mx Valentina Franco L. E-mail: f.valentina@mailcity.com David Meneses Rdz. E-mail: meneses@galia.fc.uaslp.mx Consejería de alumnos La Facultad de Ciencias de la Universidad Autónoma de San Luis Potosí, en el marco de su 44 aniversario, convoca a todos los interesados a participar en el V CONCURSO REGIONAL DE FOTOGRAFIA 2000 Las fotografías serán exhibidas durante la Semana de Ciencias, del 27 al 31 de Marzo de 2000 Informes: Salvador Palomares IF-UASLP José Nieto IICO 742 J.R. Martínez FC-UASLP Boletín El Hijo de El Cronopio Facultad de Ciencias Universidad Autónoma de San Luis Potosí No.69, 13 de marzo de 2000 Reseña de... Boletín de información científica y tecnológica de la Facultad de Ciencias Publicación semanal Edición y textos Fís. J. Refugio Martínez Mendoza Cualquier información, artículo o anuncio deberá enviarse al editor e-mail: flash@galia.fc.uaslp.mx Este boletín y números anteriores, pueden consultarse por Internet en la página de la UASLP: http://phobos.dtc.uaslp.mx/publi.html Como parte de las actividades de la Semana de Ciencias, el día 27 de marzo se presentará el libro del Maestro Sada, intitulado: El Rompecabezas de la Creación, editado por la Editorial Universitaria Potosina. La presentación estará a cargo de la Dra. Beatriz Velásquez Castillo el Fís. Benito Pineda Reyes, el Mons. Dr. Guillermo Dip Ramé y el C.P. José de Jesús Rivera Espinosa En la invitación que para tal efecto hace la Universidad Autónoma de San Luis Potosí, a través de la Facultad de Ciencias, se lee en la El Rompecabezas de la Creación El Rompecabezas de la Creación trata de dar una visión de algunas de las diferentes y más importantes piezas del mosaico inabarcable de la Creación. Trata de exponer una visión conciliadora entre varias de las principales ciencias y la fe cristiana, haciendo ver que las interpretaciones ateas de la ciencia carecen de la base principal de sus argumentos o edificios tan laboriosamente construidos. En una investigación actualizada hasta 1999 en diversos campos, no se encuentra ningún descubrimiento ni argumento contundente que pruebe más allá de toda duda razonable, que Dios no Existe o que el universo tenga en sí mismo los principios de su origen y existencia o de su fin; el universo no se puede suicidar, la ley de conservación de la energía se lo impide, por razones semejantes tampoco se pudo crear a sí mismo. Se defiende en este libro la tesis de que la Teoría de la Evolución y su agente 007: la selección natural, pueden describir la evolución y progreso de todo lo animal, de sólo lo animal y nada más que lo animal. Cualquier fenómeno que no alcance a, o que rebase esta esfera, debe estudiarse bajo la perspectiva de sus leyes propias, que quizá impliquen algunas de las que aplica la selección natural, pero que no coinciden necesariamente o no se restringen a ellas. Otra tesis que aquí se sostiene es que en el animal su inteligencia está al servicio del instinto, mientras que en el hombre el instinto está o puede estar al servicio de la inteligencia. Asimismo se defiende que la supervivencia, que constituye la máxima aspiración y meta que pueden tener los animales o proponerse la selección animal, para nosotros apenas constituye la mínima de nuestras preocupaciones. La Teoría de la Evolución podrá, tal vez, explicar lo que haya de animal en el comportamiento humano, pero si en el hombre hay otros elementos de naturaleza superior y distinta a lo animal, entonces constituirá una teoría incompleta para describir el nuevo fenómeno humano. El Hijo de El Cronopio No. 69 Aleph Cero/ ¿Existen las matemáticas? Por Shahen Hacyan para el Reforma La pregunta del título puede parecer ociosa, pues cualquiera que haya estudiado matemáticas en la escuela sabe que existe una ciencia con ese nombre. Sin embargo, debemos especificar qué entendemos por existencia. Estamos seguros de que la Luna existe sin que ello dependa de nuestra mente o de nuestra voluntad. En cambio, el lenguaje existe, pero es un producto humano. La Luna seguiría existiendo sin los humanos, pero no el lenguaje. ¿Y las matemáticas? El sentido común dice que las matemáticas son un producto de la mente humana. Sin embargo, el hecho de que las matemáticas sean tan exitosas para describir al mundo material siempre ha intrigado a los científicos y generado una sensación de misterio hacia esta ciencia. ¿Podría existir una realidad matemática, independiente de la mente y paralela a la realidad física? La respuesta, desde Gödel, ya no es obvia. Cualquier matemático admite que la ciencia de la lógica tiene dos grandes figuras: Aristóteles quien vivió en Grecia en el siglo IV a C- y Kurt Gödel -quien vivió en Austria y los EE. UU., en el siglo XX d C-. En su juventud, Gödel frecuentó el "círculo de Viena" y llegó a conocer a los filósofos y matemáticos de la llamada escuela neopositivista, entre ellos Wittgenstein y Carnap. Estos eran de la opinión de que las matemáticas no son más que un lenguaje y que, en consecuencia, pueden describir la realidad pero carecen de un contenido propio. Todas las "verdades matemáticas" y sus demostraciones podrían reducirse a un conjunto de símbolos, e incluso generarse en forma mecánica, por lo menos en principio. No existiría más "verdad" que lo que se puede expresar con los símbolos y las reglas sintácticas de un lenguaje. Gödel, a quien esta visión le parecía demasiado simplista, demostró un famoso teorema que reveló las limitaciones de los lenguajes formales. En esencia, el teorema de Gödel muestra que, en un sistema lógico, siempre existen proposiciones que no se pueden ni demostrar ni refutar (un ejemplo trivial sería: "Juan el jarocho dice que todos los jarochos mienten"; ¿es verdad o mentira, lo que dice?). El artículo original de Gödel, publicado en 1932, es extremadamente técnico y sólo comprensible para los expertos del tema. Se sabe que, en años posteriores, Gödel meditó mucho sobre las implicaciones filosóficas de su teorema. Por desgracia, era tal su manía de perfección que sólo en raras ocasiones se decidía a enviar un trabajo a publicación. Después de su muerte en 1978, sus manuscritos fueron rescatados, editados y publicados. Entre ellos se encontraron los borradores de una conferencia que dictó en 1952 sobre el Platonismo matemático y un texto que critica la tesis de Carnap sobre la naturaleza sintáctica de las matemáticas. Gödel insiste en hacer una distinción entre lo que él llama matemáticas objetivas, que abarcan todas las proposiciones verdaderas, y matemáticas subjetivas, que incluyen sólo las que la mente humana puede demostrar. A diferencia de los neopositivistas, que negaban todo valor a la intuición, Gödel afirma que ésta es esencial para vislumbrar una verdad matemática, incluso si tal verdad es imposible de demostrar. El teorema de Gödel implica, según su autor, que la mente humana hace matemáticas subjetivas, pero no puede aprehender en su totalidad a las matemáticas objetivas. Aclarado lo anterior, Gödel argumenta que, si las matemáticas fuesen sólo un producto de la mente humana, toda verdad matemática podría ser conocida y demostrada, lo cual 744 El Hijo de El Cronopio No. 69 no es el caso. En cambio, el creador siempre es capaz de conocer su propia obra, e incluso de modificarla. ¡Pero no podemos fabricar teoremas a nuestro antojo! En conclusión: "Los conceptos matemáticos forman una realidad objetiva, que no podemos crear o cambiar, sino sólo percibir y describir". La afirmación es muy fuerte, pero es acorde con la visión platónica del mundo. Según Platón, existe, además del mundo material, el mundo de las Ideas o Formas, que no se percibe con los sentidos, pero sí con la mente. Se trata de una realidad eterna e inmutable en el que no fluye el tiempo. Del mismo modo, los conceptos matemáticos también son inmutables: el teorema de Pitágoras, por ejemplo, es eternamente válido. Gödel sostiene que las matemáticas son tan objetivas como el mundo material: "Las matemáticas describen una realidad no sensible que existe independientemente de los actos y las disposiciones de la mente y es percibida, en forma bastante incompleta, por la mente humana". En sus tiempos, Gödel reconocía que su realismo platónico no era muy popular entre sus colegas. Años después, los editores de sus manuscritos admiten que su visión se ha vuelto más popular en la actualidad "en cierta medida porque él la defendió, pero quizás, sobre todo, porque todas las otras visiones padecen de serios defectos matemáticos o filosóficos". En resumen, las matemáticas, según Gödel, existen del mismo modo como existen otros planetas. Nosotros, con nuestra mente, podemos explorarlas y describirlas dentro de las limitaciones de nuestro lenguaje matemático. Las matemáticas serían una parte, quizás la más accesible, de esa otra realidad objetiva: el mundo de las Ideas. Por algo Platón exigía saber geometría para entrar a su Academia. Noticias de la Ciencia y la Tecnología Nuevos alimentos para los países en vías de desarrollo Mientras en el mundo desarrollado se dispone de dietas ricas en todo tipo de sustancias nutritivas, en los países pobres se carece de muchas de las que son estrictamente necesarias para mantener una buena salud. La solución a este problema podría residir en la ingeniería genética. Las sociedades modernas parecen haber alcanzado un estado de sobreabundancia en cuanto a la cantidad y variedad de alimentos disponibles. Las dietas de los habitantes de estas naciones poseen todo lo necesario para mantener una buena salud. En cambio, en los países en vías de desarrollo, el panorama es totalmente distinto. A la escasez de alimentos, se añade el hecho de que éstos son poco variados, de manera que muchas personas no llegan a consumir las sustancias que precisan sus cuerpos. Curiosamente, las naciones que menos lo necesitarían disponen del potencial biotecnológico que podría resolver el problema. Así por ejemplo, sería posible crear una variedad de arroz modificada por ingeniería genética que fuera capaz de producir hierro y provitamina A. Dado que el arroz es la dieta básica de millones de personas necesitadas, este cambio les reportaría inmediatos beneficios en su calidad de vida. La falta de poder adquisitivo es la principal dificultad a la hora de disponer de alimentos que contengan todos los micronutrientes necesarios para mantener el cuerpo en un buen tono físico. Si el arroz es el único alimento disponible o al que se puede acceder, 745 El Hijo de El Cronopio No. 69 entonces tiene sentido intentar que éste aporte dichos micronutrientes. De hecho, el enriquecimiento de alimentos no es algo nuevo. Por ejemplo, en los países desarrollados se produce leche enriquecida con vitamina D, sal con yodo o zumo de naranja con calcio. Existe un cierto estado de opinión que se manifiesta contrario a la aplicación de bioingeniería para la transferencia artificial de genes entre organismos. Pero cuando el objetivo es moral y éticamente admisible es más sencillo aceptar estas técnicas. O lo que es lo mismo, si bien es comprensible que se prefiera consumir alimentos naturales en países donde éstos están disponibles en abundancia, no lo es tanto que se niegue la posibilidad de alimentarse mejor a quien no dispone de alternativas para ello. La falta de nutrientes puede producir enfermedades graves e incluso la muerte. Según los estudios de los científicos de la Cornell University, si se tienen presentes los diferentes tipos de sistemas agrícolas que hay en el mundo, los riesgos son menores que los potenciales beneficios. Por otro lado, la biotecnología, definida como la modificación de los seres vivos para adaptarlos a las necesidades del Hombre y sus preferencias, se practica desde hace 10.000 años, tanto como el tiempo que hace que se emplea la agricultura. Los hombres han alterado sistemáticamente los animales y las plantas a su disposición desde tiempos inmemoriales, y sólo así han logrado producir lo suficiente para garantizar su supervivencia, incluso en épocas difíciles. La biotecnología actual va más allá de la selección artificial, y se adentra en la manipulación a nivel genético. En vista de los problemas de alimentación que aún existen en el mundo, se plantea sin duda un profundo dilema social, económico y ético. Un dilema que haríamos bien en resolver lo antes posible, ya que millones de personas no pueden esperar eternamente. Información adicional en: http://www.news.cornell.edu/releases/Feb00/AAAS.McCouch.bpf.html Imagen: http://www.news.cornell.edu/releases/Feb00/McCouch72.jpg (Susan McCouch, una de las personas que propone la aplicación de la biotecnología en las bases de alimentación del Tercer Mundo, contesta a unas preguntas.) (Foto: Cornell News Service) Empieza el espectáculo El telescopio espacial europeo XMM Newton ha empezado a enviarnos sus primeras imágenes del Universo. Después de su lanzamiento, y tras un período de calibración de instrumentos que aún continúa, el telescopio de rayos-X Newton (XMM), propiedad de la Agencia Espacial Europea, se encuentra casi listo para iniciar su largo período de actividades científicas. Hasta el momento, todos sus sistemas funcionan a la perfección. Los investigadores, además, han tenido la oportunidad de contemplar sus primeras imágenes, que prueban de lo que el observatorio es capaz de hacer. Dichas imágenes fueron presentadas al público el 9 de febrero, en el centro de Villafranca del Castillo, cerca de Madrid, y muestran un Universo realmente espectacular. Las fotografías se tomaron entre el 19 y el 25 de enero, con el único objetivo de verificar el buen funcionamiento de los instrumentos científicos y los sistemas ópticos. Se 746 El Hijo de El Cronopio No. 69 observaron tres regiones distintas del cielo: una zona de la Gran Nube de Magallanes, el Hickson Cluster Group 16 (HCG-16) y la estrella HR 1099. Todas ellas son muy interesantes y presentan fuentes de rayos-X diversas. La Gran Nube de Magallanes, visible desde el hemisferio sur, se encuentra a 160.000 años luz de la Tierra y no es otra cosa sino una galaxia satélite de la Vía Láctea. El XMM Newton observó en ella a la llamada nebulosa Tarántula (30 Doradus), donde un buen número de estrellas están explotando y enviando grandes cantidades de materia al exterior, y un lugar donde también se forman y nacen muchas otras estrellas. La imagen del Newton muestra las temperaturas que reinan en dicha zona: el color azul distingue las regiones más calientes, el verde hace lo propio con las temperaturas medias, y el rojo representa los sectores más fríos. La imagen presenta también un objeto poco conocido, un arco blanco y azul que parece ser los restos de una supernova antigua, los cuales, al chocar contra el medio interestelar, producen rayos-X. En la parte baja, a la derecha, puede apreciarse también la supernova 1987A, que estalló el 24 de febrero de 1987, la primera visible a simple vista desde 1604. El HCG-16, por su parte, es un grupo de cientos de cúmulos de galaxias, y ha sido observado también en longitudes de onda cercanas al visible y el ultravioleta. El uso simultáneo de estas frecuencias, unidas a la gran capacidad del Newton en la gama de los rayos-X, aporta mucha información sobre el origen y evolución de estas galaxias. De hecho, se aprecian cientos de nuevas fuentes de rayos-X, ignoradas hasta ahora. En cambio, la HR 1099 es una estrella bien conocida de la sexta magnitud, situada a unos 100 años luz de nosotros. La imagen del Newton, a pesar del considerable brillo del objeto, nos muestra que en realidad consiste en un par binario (dos estrellas girando una alrededor de la otra en un período de apenas 3 días). Este movimiento tan rápido causa una especie de dinamo infernal que "retuerce" los campos magnéticos de las dos estrellas. Esto supone que una de ellas, al menos, manifieste una gran actividad, incluyendo tormentas y enormes protuberancias. El Newton también ha realizado varios espectros de HR 1099, revelando su composición química. Destaca la presencia de hierro, oxígeno, carbono y neón. A partir de ello es posible deducir temperaturas, densidades, abundancias y velocidades de los diferentes materiales. Información adicional en: http://sci.esa.int/xmm/firstimages http://sci.esa.int/newsitem.cfm?TypeID=1&ContentID=9291&Storytype=20 Imágenes: http://sci.esa.int/xmm/firstimages/images/xmm-fi1.jpg (La nebulosa 30 Doradus.) (Foto: ESA) http://sci.esa.int/xmm/firstimages/images/xmm-fi2.jpg (El grupo de cúmulos de galaxias HCG-16.) (Foto: ESA) http://sci.esa.int/xmm/firstimages/images/xmm-fi5.jpg (La estrella binaria HR1099.) (Foto: ESA) Revisada la conexión entre plantas fósiles y carbono Los cambios climáticos del pasado quedan registrados en las plantas fósiles. Sin embargo, su contenido de carbono no es una prueba definitiva sobre la cantidad de CO2 que había en la atmósfera. 747 El Hijo de El Cronopio No. 69 El calentamiento global del planeta no es un fenómeno nuevo y de hecho ha ocurrido, por causas naturales, varias veces en la antigüedad. El aumento de la presencia de gases invernadero basados en el carbono puede implicar el incremento de la temperatura ambiental hasta extremos peligrosos para la vida. Investigadores de la Johns Hopkins University y la University of California-Berkeley han estado estudiando diversas especies de plantas antiguas y modernas para probar si es posible hallar pistas en ellas sobre el origen de las fuentes de carbono que han propiciado la existencia de cambios climáticos en el pasado y quizá en el presente. Las plantas absorben los isótopos carbono 13 y carbono 12, presentes en el dióxido de carbono de la atmósfera. El primero, más pesado, se mueve más lentamente durante su recorrido hacia las regiones donde será preparado para la fotosíntesis. En función de la proporción de ambos isótopos en una planta, los científicos creen que es posible calcular su ratio en la atmósfera. Esto no implica que sepamos la cantidad de CO2 presente en el aire en ese momento, pero sí ayuda a saber cuál es el estado del ciclo del carbono en un momento determinado. Esto es así porque las diversas fuentes y reservorios de carbono en la naturaleza tienen una proporción única de ambos isótopos. De este modo, podemos saber, por ejemplo, que la emisión masiva de carbono de hace 115 millones de años procedía de los depósitos de metano situados en el fondo de los océanos y no de otro lugar. Los científicos han concluido que el nivel de carbono presente en los fósiles de plantas no determina automáticamente la cantidad de CO2 de la atmósfera. El estudio de 44 plantas modernas (árboles y ciertos tipos de hierba), muy semejantes a las existentes en el pasado primitivo, sugiere que el agua influye mucho en la cantidad de carbono asimilado. Las plantas absorben el carbono de la atmósfera a través del mismo lugar por el que sale el agua y se evapora. Para evitarlo, la planta puede cerrar los orificios, con lo que se reduce la entrada de carbono. Por tanto, el lugares áridos, donde la evaporación es alta, las plantas asimilarán menos carbono del que podría esperarse si vivieran en regiones más húmedas, independientemente del nivel de CO2 en la atmósfera. Otros factores influyen también, como el nivel de sal en el suelo, los niveles de luz, los extremos térmicos, etc. Información adicional en: http://www.jhu.edu/~eps/faculty/jahren/index.html El origen de los primeros americanos Análisis morfométricos de cráneos nuevos y viejos han permitido aclarar un poco más el origen de los primeros pobladores del continente americano. El origen exacto de los primeros pobladores de América sigue siendo motivo de controversias en el mundo científico. Mediciones craneofaciales de cráneos procedentes de todo el mundo, realizadas por antropólogos de la University of Michigan, revelan que los nativos americanos podrían tener un origen más complejo de lo que los recientes estudios genéticos y arqueológicos sugerían. El equipo de C. Loring Brace ha realizado miles de comparativas morfométricas durante los últimos 20 años. Para ello se han obtenido dendrogramas, generados a partir de una batería de dos docenas de medidas realizadas sobre cada cráneo. El resultado es un 748 El Hijo de El Cronopio No. 69 gráfico en forma de árbol en el que la distancia entre ramas refleja la proximidad o lejanía entre cada grupo humano y los restantes. Los estudios muestran que los descendientes de los primeros humanos que entraron en el Nuevo Mundo, incluyendo los nativos de México, Perú y el sur de los Estados Unidos, no tenían enlaces obvios con ningún grupo asiático. Esto podría ser debido a que estuvieron separados de ellos durante un período de tiempo muy largo. Un segundo grupo que incluye los Pies Negros, los Iroqueses y otras tribus, procedían de las poblaciones prehistóricas del Japón. Los Inuits probablemente son una rama tardía de este mismo tronco. Otro grupo que vivió desde el Yukón hasta Arizona y el norte de México habría tenido su origen en China, con cuyos habitantes actuales tienen grandes semejanzas. Aunque se necesitarán aún más análisis, parece claro que los habitantes nativos del hemisferio occidental no son en ningún caso pequeñas variantes de la misma gente, sino que su procedencia es muy variada. Información adicional: http://www.umich.edu/~newsinfo/Releases/2000/Feb00/r021500b.html Imagen: http://www.umich.edu/~newsinfo/Releases/2000/Feb00/brace.jpg (El antropólogo C. Loring Brace realiza mediciones sobre un cráneo.)(Foto: U. of Michigan) El cuásar más lejano La observación astronómica sigue añadiendo récord a su larga lista. Un nuevo cuásar situado en la constelación de Cetus es el objeto más alejado conocido. El telescopio Hale de 5 metros, en el Monte Palomar, y el telescopio Mayall de Kitt Peak, de 4 metros de diámetro, continúan aportando nuevos miembros al libro de honor de objetos astronómicos. Después de observar durante varias noches una región en la constelación de Cetus (la Ballena) en la que se encuentran numerosas estructuras muy alejadas de nosotros, los astrónomos que operan dichos observatorios creen haber encontrado el que podría ser el objeto más lejano conocido. Como ya es habitual, se trata de un cuásar, un cuerpo luminoso con el aspecto de una estrella pero que sin embargo emite una cantidad de energía 10.000 veces superior a la de nuestra galaxia, la Vía Láctea. Los astrónomos creen que la energía desplegada tiene su origen en agujeros negros supermasivos situados en su centro, alimentados constantemente por la materia de los alrededores. A pesar de su considerable brillo, son muy débiles vistos a través del telescopio. Esto y el desplazamiento hacia "el rojo" de sus espectros nos indica que se encuentran muy lejos de nosotros. Para el caso que nos ocupa (corrimiento hacia el rojo de 5,5), la luz del cuásar ha tardado 13.000 millones de años a llegar hasta la Tierra, lo cual se traduce en una distancia de 13.000 millones de años luz. Si las teorías cosmológicas son correctas, el cuásar que vemos ahora existía cuando el Universo apenas tenía el 8 por ciento de la edad que posee ahora. 749 El Hijo de El Cronopio No. 69 El descubrimiento de cuásars tan antiguos como éste ayuda a los científicos a entender mejor la transición experimentada por la materia a partir de la uniformidad subsiguiente al Big Bang, en dirección a las aglomeraciones conocidas hoy en día como galaxias. Imagen: http://www.jpl.nasa.gov/files/images/browse/quasarimage1.gif (Imagen del cuásar.) (Foto: JPL) Por que las hembras actúan como hembras La respuesta la tendremos en neurosustancias químicas que actúan en el cerebro, y no en el género del organismo vivo. Biólogos de la Cornell University han demostrado que una serie de sustancias químicas producidas en una región central del cerebro compartida por todos los animales vertebrados (incluidos los humanos) provocan que los machos se comporten como machos, las hembras como hembras, y que algunos machos actúen como hembras (y viceversa). Así pues, el comportamiento social de los vertebrados no dependería del todo de su sexo. Los estudios fundamentales sobre esta teoría se han hecho sobre una especie de peces que dispone de dos tipos de machos. El área del cerebro analizada se encuentra en una zona que se ha conservado virtualmente inalterada durante toda la evolución de los vertebrados. Sus funciones y estructura son muy similares en peces, anfibios, reptiles, pájaros y mamíferos (incluyendo al Hombre). Dicha área produce una serie de neuroproductos químicos (isotocina y vasotocina en los peces, oxitocina, etc., en los mamíferos) que determinan el comportamiento sexual del individuo. El pez estudiado se llama Porichthys notatus, conocido por su "canto" durante la fase de acoplamiento. En realidad, el canto procede de los machos de tipo I, que son capaces de vocalizar durante horas bajo las rocas en aguas poco profundas para atraer a las hembras. Si el canto tiene éxito, las hembras visitarán sus nidos para depositar los huevos, que después serán fertilizados por los machos. En ocasiones, sin embargo, los cantos no tienen éxito, atrayendo a otro tipo de machos de la misma especie (tipo II). Estos últimos no saben cantar como los de tipo I (aunque sí emiten sonidos, como las hembras), son más pequeños, tienen órganos reproductores más alargados, y tienen el hábito de fertilizar huevos dejados por sus "rivales". Peces de los tres tipos, anestesiados en el laboratorio, han sido sometidos a pequeñas descargas eléctricas, que desencadenan un comportamiento sexual concreto. Una vez determinada la zona cerebral que interviene en el proceso, se aplicaron neuroproductos químicos para ver sus efectos sobre ella. Así, los machos de tipo I se mostraron sensibles a la vasotocina pero no a la isotocina, mientras que en las hembras ocurría lo contrario. Por su parte, los machos de tipo II respondieron de forma similar a las hembras. Es decir, la acción de los neuroproductos químicos puede modular la salida eléctrica o neurofisiológica del cerebro, determinando el comportamiento social del individuo, independientemente de la configuración de sus gónadas. Los científicos piensan ahora que el sexo y las tácticas sociales/reproductivas pueden mantenerse por separado y ser regulados de forma independiente dentro de la misma región del cerebro. 750 El Hijo de El Cronopio No. 69 Aparentemente, el proceso de la evolución ha modificado el comportamiento social y reproductivo sin que éste dependa de las gónadas. Esta mezcla de características permite una mayor disponibilidad de variaciones para que actúe la selección natural y explicaría la enorme variedad de comportamientos sociales que vemos en los distintos grupos de vertebrados, desde la inversión del rol en los sexos a la diversidad dinámica que apreciamos en cuanto al cuidado de la descendencia o en la competición agresiva. Información adicional en: http://www.nbb.cornell.edu/neurobio/sofneurobio.html http://www.nbb.cornell.edu/neurobio/bass/bass.html http://www.news.cornell.edu/releases/Feb00/neurochemical.hrs.html Imagen: http://www.news.cornell.edu/photos/underwaterfish300.jpg (Un macho de tipo I en su nido.) (Foto: Margaret Marchaterre/Cornell U.) Vida en la tierra, recta final Los océanos de nuestro planeta podrían evaporarse dentro de 1.000 millones de años. Mucho antes, incluso, la vida dejaría de ser viable en la Tierra. Nuestro planeta gira alrededor de una estrella de edad media. Se estima que la edad del Sistema Solar es de unos 4.500 millones de años, y que por tanto, al Sol aún le restan al menos otros tantos antes de apagarse definitivamente. La vida en la Tierra, pues, debería contemplar su futuro con cierto optimismo, si no fuera porque las últimas investigaciones sobre la actividad solar pronostican un paulatino incremento que volverá inhabitable a nuestro planeta mucho antes. Como todas las estrellas de la secuencia principal, el Sol se vuelve más brillante con el tiempo, lo que afectará al clima de la Tierra. Los astrónomos creían que ello ocurriría dentro de 5.000 millones de años, cuando el Sol se convertirá en una gigante roja cuyas capas exteriores sobrepasarán la órbita de Mercurio. En ese punto, las temperaturas habrán subido tanto que los océanos se habrán evaporado completamente. Tras pasar primero por la atmósfera, el vapor subirá hasta la troposfera, desde la que escapará al espacio para siempre. Sin embargo, cálculos más recientes realizados en la Penn State University sugieren que la evaporación de los océanos podría ocurrir mucho antes, dentro de "tan sólo" 1.000 millones de años, gracias al paulatino incremento de la actividad solar. Peor aún, cuando el clima empiece a ser más cálido, se acelerará el ciclo que extrae el dióxido de carbono de la atmósfera y lo almacena en los océanos como carbonato cálcico. Esto estabilizará el clima de la Tierra durante un tiempo, pero entonces habrá tan poco CO2 que las plantas no podrán sustentarse. Las plantas usan el CO2 en la fotosíntesis para convertir la energía solar en azúcares y otros carbohidratos. Existen dos tipos principales de fotosíntesis, la C3 y la C4. Dentro de 500 millones de años, el CO2 se encontrará en el punto de compensación para las plantas C3 (que constituyen el 95 por ciento de las que viven en la Tierra). Más allá de este punto, el CO2 no estará lo bastante concentrado para que las plantas C3 (árboles, hierbas...) fotosinteticen. Las C4 (caña de azúcar, cereales...) poseen un mecanismo interno que concentra el CO2 , pero no son capaces por sí solas de sostener una biosfera como la que tenemos ahora. 751 El Hijo de El Cronopio No. 69 Si los cálculos son correctos, después de ser habitable durante buena parte de sus 4.500 millones años de edad, la Tierra será apta para la vida terrestre durante tan sólo 500 millones de años más. Información adicional en: http://www.psu.edu/ur/2000/oceans.html Instrumentos musicales innovadores La ciencia coopera con el arte. La física es capaz de producir instrumentos musicales y sonidos nunca oídos. Ray Wakeland toca el banjo en su tiempo libre, pero también está interesado en explicar el funcionamiento de nuevos instrumentos musicales que se basan en aplicaciones concretas de la física. Su especialidad es la refrigeración termoacústica. Según sus trabajos, el sonido puede emplearse para bombear calor. De la misma manera, el llamado órgano de fuego utiliza calor para producir oscilaciones en el aire que son percibidas como sonidos musicales. Tales oscilaciones ocurren durante el lanzamiento de un cohete, y en algunos casos pueden llegar a destruirlo, de modo que se ha hecho necesario investigar cómo paliar este problema. El órgano de fuego, inventado por el francés Michel Moglia, convierte las oscilaciones producidas en el aire en algo mucho más interesante. Hans Reichel es el responsable de la creación del daxófono. Se toca con un arco de violín pero es esencialmente una especie de palo que produce un sonido de espectro ancho, en vez de en un único tono. El tercer instrumento estudiado por Wakeland es el Long String Instrument, inventado por Ellen Fullman y que consiste en una serie de cuerdas de bronce de unos 30 metros de largo. Se necesitan varios músicos para tocarlo (con manos enguantadas o con arcos de violín) y produce música etérea semejante a la del sitar. Su forma de actuar implica la aparición de ondas longitudinales, a diferencia del violín, la guitarra o el piano, los cuales emplean un movimiento transversal a la longitud de la cuerda. Estos últimos se afinan mediante la tensión, mientras que el Long String Instrument emplea pesos en diferentes puntos de las cuerdas. Información adicional en: http://perso.club-internet.fr/orguafeu/orguafeu.htm http://www.daxo.de/; http://www.shef.ac.uk/misc/rec/ps/efi/mreichel.html Noticias de la Facultad Próximo examen profesional El próximo 17 de marzo se llevará a cabo el examen profesional de María del Consuelo Vargas Durán que presentará y defenderá la tesis intitulada: Controladores para interfaz de tiempo real en MatLab. La tesis profesional será presentada para obtener el título de Ingeniero Electrónico, La tesis fue asesorada por José Ángel de la Cruz Mendoza. A continuación presentamos las conclusiones de la misma 752 El Hijo de El Cronopio No. 69 Controladores para interfaz de tiempo real en MatLab M.C. Vargas-Durán Facultad de Ciencias Universidad Autónoma de San Luis Potosí Conclusiones El desarrollo del presente trabajo aporta una opción más al campo de la ingeniería, en lo que a análisis de sistemas (control, comunicación, y demás) se refiere. Ya que se proporcionan rutinas de programación, las cuales tienen como objetivo interactuar entre MATLAB, el cual nos proporciona herramientas para diferentes sistemas y un dispositivo de la PC. Como de resultado de lo anterior, una PC funge como un laboratorio de análisis de x sistema, en el que la teoría es portada hacia un ambiente de simulación y visualización de resultados en el momento mismo de su ejecución. La Ciencia desde el Macuiltépetl/ Las condiciones de la guerra Por Manuel Martínez Morales ¿Qué imagen se representa, estimado lector, cuando se le dice que el arsenal atómico actual es más que suficiente para destruir varias veces nuestro planeta? ¿Qué sentido real tiene semejante aseveración? ¿Acaso podemos concebir que la tierra sea destruida, vuelta a reconstruir y de nuevo destruida, y así, en un infernal e interminable ciclo? Hay en la ciudad japonesa de Hiroshima una plancha de piedra que puede darnos la dimensión humana de lo que una hecatombe nuclear significaría. En esa piedra quedó grabada por el fuego radioactivo, producto de la bomba de 1945, la silueta de un hombre, la sombra de lo que fue un hombre. De los huesos de ese hombre no quedó rastro. Esa piedra es un punzante recordatorio de lo horrendo que es el poder atómico. El poder explosivo del arsenal mundial actual es igual a 1 300 000 bombas del mismo tipo de la lanzada sobre Hiroshima, equivalente a tres toneladas de TNT por cada hombre sobre la tierra, suficiente para destruir las siluetas de las siluetas de todos los hombres sobre el planeta. Entonces, ni la sombra de la silueta de la tierra perduraría. Se calcula que el mundo invirtió en gastos militares, en 1980, una cifra cercana a los 650 mil millones de dólares. ¡Más de 1 700 millones de dólares diarios, 74 millones cada hora, más de un millón de dólares por minuto! Según datos de la ONU, los gastos militares mundiales en ese año representaron el equivalente del Producto Interno Bruto conjunto de África y América Latina en ese mismo año y 6% del valor global de la producción de bienes y servicios. Los gastos en todo el mundo en salud pública sólo ascienden a 60% de los gastos militares. El costo de un bombardero moderno equivale a los salarios de 250 mil maestros durante un año, o al costo de la construcción y equipamiento de 75 hospitales de 100 camas. Cinco punto nueve por ciento del Producto Nacional Bruto de los países de Asia, África y América Latina se invierte en armas y gastos militares, mientras que 1% se destina a la 753 El Hijo de El Cronopio No. 69 salud pública y 2.8% a la educación. En los países subdesarrollados, en su conjunto, hay actualmente un soldado por cada 250 habitantes y un médico por cada 3 700. Según estimaciones recientes, el mundo gasta hoy día un promedio de 19 300 dólares al año por cada soldado, mientras que los gastos públicos destinados a la educación promedian tan sólo 380 dólares por cada niño en edad escolar. Por cada 100 mil habitantes del planeta hay 556 soldados y solamente 85 médicos. El presupuesto de los Estados Unidos de Norteamérica y los países de la Comunidad Europea asignan 45 dólares percapita a la investigación con fines militares y sólo 11 dólares a las investigaciones relacionadas con la salud. Ruth Leger Sivard, World Military and Social Expenditures, 1982. ¿No es evidente, entonces, que en el creciente armamentismo y en la creciente amenaza de una guerra total encontramos una absoluta irracionalidad? Y la ciencia, es decir, los científicos tienen una gran responsabilidad en este asunto, pues la constitución de tal poder destructivo ha sido posible sólo gracias a una constante y planificada investigación científica y tecnológica. La explosión de la primera bomba atómica supuso un grave peso sobre la conciencia de los científicos que la fabricaron. Uno de ellos, Robert Oppenheimer, escribía a propósito, en 1948: “En cierto sentido brutal, que ni la vulgaridad, ni el humor, ni la exageración pueden borrar, los científicos hemos conocido el pecado; y éste es un conocimiento del que no nos será fácil librarnos”. Antes del lanzamiento de las bombas sobre las ciudades de Hiroshima y Nagasaki, no solamente Oppenheimer, sino Einstein, Fermi, Compton, Lawrence y muchos otros destacados científicos que habían contribuido a la fabricación de la bomba, se oponían a que fuera lanzada sobre Japón, pues era evidente que la guerra ya estaba perdida para los nazis y sus aliados. Pero era tarde, demasiado tarde, los militares y los políticos se habían ya apoderado de la bomba, ahora era su bomba y, con ellos, los amos del imperio comenzaron a intimidar al mundo. En una carta al entonces presidente Truman, su secretario James F. Byrnes escribía: “La bomba nos dará la posibilidad de imponer nuestras condiciones al finalizar la guerra”. En una reunión cumbre, en 1945, el propio Byrnes declaró a la delegación soviética: “si ustedes no están de acuerdo con nosotros, sacaré del bolsillo la bomba atómica y la descargaré sobre ustedes”; la respuesta no se hizo esperar; en el verano de 1949, la exUnión Soviética hacía estallar su primera bomba atómica. Los conocimientos científicos y tecnológicos, además de su función directa en la economía de una sociedad, son también integrados al aparato de dominación para servir como instrumentos de opresión y destrucción. El poder es implacable y no se detiene ante nada; los científicos, según la lógica del poder, son simples servidores bien pagados que deben hacer lo que se les pide sin cuestionar los efectos que su trabajo pueda tener. Por su oposición al desarrollo de las armas atómicas, Oppenheimer fue separado de los cargos que ocupaba y sometido a juicio por ser considerado un “peligro para la seguridad” de Estados Unidos de Norteamérica. De Einstein y muchos otros también se sospechó e inmediatamente fueron retirados de todo proyecto que tuviera que ver con el desarrollo de armas nucleares. A pesar de la responsabilidad moral que implica participar en el desarrollo de este tipo de armas, un número creciente de científicos e ingenieros entregan su potencial creador a las 754 El Hijo de El Cronopio No. 69 actividades de investigación con fines militares y desarrollo de armamentos. En 1970, se calculaba en medio millón el número de científicos dedicados a estas tareas. El imperialismo puede contar con tal ejército de intelectuales a su servicio, por el duro y concienzudo control que ejerce sobre la conciencia de los hombres. El hombre de ciencia, bajo el dominio imperial, puede estar tan enajenado de sí y de su sociedad como el menos educado de los obreros. Desafortunadamente, está lejano el día en que no sólo los científicos, sino todo el pueblo norteamericano renuncie a que, con su apoyo y en nombre suyo, un puñado de lunáticos ensoberbecidos intenten dominar al mundo. Dos distinguidos científicos que participaron en la construcción de la primera bomba, Isaac Rabí y E. Fermi, en su momento declararon: El hecho de que la destructividad de esta arma no tenga límites hace que su misma existencia y el conocimiento de su construcción sean un peligro para toda la humanidad. Es necesariamente una cosa malvada, cualquiera que sea el aspecto bajo el cual se le considere. Por estas razones, creemos importante que el presidente de los Estados Unidos diga al pueblo estadounidense y al mundo que nosotros pensamos basados en principios éticos fundamentales, que será inmoral iniciar el desarrollo de tal arma. La mayoría del pueblo norteamericano , sin embargo, no parece haberse enterado y sigue creyendo en sus profetas esquizofrénicos. A tal grado llega su ignorancia de lo que una guerra nuclear implica, que prontamente se deja estafar por compañías que anuncian en los periódicos la construcción “en su propio sótano” de cómodos y lujosos refugios antiatómicos con capacidad para nueve personas y varias toneladas de alimentos. Bajo el lema “algunos sobrevivirán” estas compañías apuran a sus clientes a hacer sus pedidos, pues “ya es grande la demanda por parte de militares, altos funcionarios del gobierno, millonarios y otras grandes personalidades”. Y, mientras llega el gran momento, el refugio puede usarse “como cuarto de juegos y fiestas”. Pobre pueblo. A lo mejor ya hace falta, como alguien dijo recientemente, una campaña de solidaridad con el pueblo estadounidense. 11 de noviembre de 1983 El Cabuche (crónicas de la Facultad de Ciencias)/ Me voy pa`la frontera Un buen día al Maik (mike), el miguelito, el genruchito, el barbaján, el barbis, y demás apodos que a cargado, se le ocurrió regalarnos su despedida de estas tierras potosinas y emigrar al norte, al mero norte. Ciudad Juárez fue la tierra escogida, San Luis descansaría (y nosotros); el problema se le cargaba a esa ciudad fronteriza (el estigma del Cartel de Juárez, quedaba corto). Recordarán que el citado sujeto chambeó de profe por algún tiempo en esta facultad (recientemente). El maik, en los setenta, originalmente estudiaba en la entonces escuela de ciencias químicas de la universidad, aunque frecuentaba la escuela de física, a tal grado que se inscribía en los cursos asignados a los estudiantes de la escuela, cuando se llevaban en el departamento de físico matemáticas, 755 El Hijo de El Cronopio No. 69 entonces alojado en la escuela de ingeniería. No contento con ello, también se apuntaba en nuestro equipo de básquetbol. Los químicos lo tachaban de loco (no sólo ellos) y como que lo convencían que se pasara al bando de los buenos (o sea nosotros, los de la escuela de física). Cuando menos acordamos lo encontramos registrado legalmente como estudiante de física. A partir de ese momento sus anécdotas, que vaya que abundan y de las cuales algunas han sido abordadas ya en esta sección, fueron registradas legalmente Así pasaron los años y a fuerza de su presencia nos acostumbramos a sus loqueras. En 1979 emigré momentáneamente a Puebla a cursar mi maestría y no había pasado un año cuando, de repente, se va apareciendo el maik; no sabía si llorar o reír; no contento con ello consiguió chamba en el INAOE, en el laboratorio de electrónica, puesto que se fue heredando por egresados de la escuela; allí lo inició Benito, el ahora dire, quien se lo dejó a Reyes, uno de nuestros compañeros y el mentado Reyes, al ver que el maik deambulaba por allá, lo colocó como flamante encargado del laboratorio de electrónica, no sé si sobrevivió (me refiero al laboratorio), pero un año después regresó a San Luis, y para mi suerte yo ya me encontraba de nuevo, ahora como profe en esta facultad de ciencias. Al parecer la mala suerte me perseguía y un buen día, como ya mencioné, a mediados de los ochenta, el maik prometió dejarnos por tiempo indefinido. Por supuesto que teníamos que despedirlo, no se fuera a arrepentir y entonces sí. En aquél entonces vivíamos enfrente de lo que era la facultad de ciencias, que se encontraba en el edificio que aloja actualmente parte del instituto de física, el departamento lo compartíamos, el vaquero (actualmente tiene dos cursos en la facultad), el pancho (secretario académico del departamento de físico matemáticas), el Contreras (actual director de la escuela de física de Zacatecas) y yo. A la despedida se dieron cita el grueso de la raza de la escuela; al transcurrir varios cartones, el maik empezó a ser de las suyas, y por lo pronto no les cuento más. Total que pernoctó en nuestro departamento, ya con sus petacas (me refiero a su maleta) preparada; de hecho era una bolsa, de esas que se usan en el ejercito. A la mañana siguiente, emprendería su viaje. Pasó por la escuela a despedirse de la raza que encontraba a su paso y de ahí se dirigió al instituto de física, que se encontraba en la parte posterior, a seguir despidiéndose de la raza y a esperar al Vidales para que le diera un raid a la central. En el inter, nos entretuvimos agregando disimuladamente a su “maleta” (para ya no decir petacas), cuanta piedra encontrábamos, de esas de buen tamaño, al cabo de un rato, el peso de la maleta subió consideradamente y el maik ni por enterado se dio, sólo alcanzó a decir –ah, si pesa esta chingadera, creo que chupé mucho anoche (creo que se refería a las cheves). Por fin, todos reunidos en el estacionamiento del instituto, el maik subió al carro del Vidales y, ante la algarabía de la raza que poco a poco se reunió para despedirlo y juntarle unas pocas piedras y una que otra roca, con una cara como de niño asomada por el parabrisa posterior del carro veía como quedaban a lo lejos sus compañeros que le gritaban a modo de broma –No maik, no te vayas, no te vayas; disimulando una carcajada al ver partir a ese remedo moderno del pípila. El gusto nos duró sólo cinco años; lo primero que pronunció al regresar fue –cabrones, con razón pesaba la pinche maleta, ahí voy cargando casi una semana las putas piedras que me endilgaron. Hay de pípilas a pípilas, como quiera no deja de ser nuestro cuate. Y como dice una alegre canción norteña Adiós mujer me voy pa`la frontera/a ver lo que me espera ya luego volveré/Si al regresar te encuentro como quedas/para otras nuevas tierras a ti te llevaré 756 Boletín El Hijo de El Cronopio Facultad de Ciencias Universidad Autónoma de San Luis Potosí No.70, 20 de marzo de 2000 Boletín de información científica y tecnológica de la Facultad de Ciencias Publicación semanal Edición y textos Fís. J. Refugio Martínez Mendoza Cualquier información, artículo o anuncio deberá enviarse al editor e-mail: flash@galia.fc.uaslp.mx Este boletín y números anteriores, pueden consultarse por Internet en la página de la UASLP: http://phobos.dtc.uaslp.mx/publi.html Recientemente el Papa Juan Pablo II en representación de la iglesia católica, pidió perdón a la humanidad por los errores cometidos a lo largo de los siglos, entre los que se pueden mencionar innumerables crímenes en aras de la fe cristiana; el perdón solicitado coincidió prácticamente con un aniversario más de la salvaje ejecución de Giordano Bruno. En este número recordamos a Bruno, en esta portada y en el artículo de Manuel Martínez Morales en su sección La Ciencia desde el Macuiltépetl con el artículo: Las revoluciones científicas. El 17 de febrero, de hace 400 años, Giordano Bruno se convirtió en uno de los primeros mártires de la ciencia renacentista al ser quemado vivo en una plaza de Roma. La orden vino directa de Clemente VIII, pontífice de la Iglesia romana, precisamente en el año del jubileo de 1600. El motivo fueron sus puntos de vista filosóficos sobre Dios, Cristo y el Espíritu Santo. Filippo Bruno nació cerca de Nápoles, en 1558, y al entrar a estudiar con los dominicos se cambió el nombre a Giordano. Estudió filosofía griega y empezó una vida de rebeldía. Era característico de la época aprender sin razonar (cosa que aún se estila); sin embargo, Bruno siempre puso por delante el análisis, lo que le provocó innumerables problemas. Al ordenarse como sacerdote dominico tuvo que huir de Italia, en 1576, para evitar un juicio en su contra. Sus viajes lo llevaron a Francia e Inglaterra, donde empezó su carrera de escritor, filósofo y científico. Se dio cuenta de que las formulaciones religiosas no cabían en el seno del método científico o del descubrimiento empírico. Al no tener un techo que limite el número de estrellas, le pareció incongruente tener un sistema dogmático de pensamiento que aprisionara el libre albedrío, tan necesario para el progreso y la realización humana. Obviamente, ese regreso a filosofías precristianas, ahora soportadas con algunas observaciones científicas, lo pusieron en contra de los dogmáticos oficialistas e inquisidore s. Su regreso a Italia fue planeado por los religiosos. Y bajo invitación del noble veneciano Giovanni Moncenio, Bruno retornó para ser apresado en 1592 y juzgado por herejía. Fue encarcelado por siete años tiempo durante el cual se le mantuvo sin lápiz n i papel- y sacado de la mazmorra sólo para ser quemado en la hoguera, amordazado y con un clavo en la lengua. Años más tarde, un juicio similar le fue practicado a Galileo por asegurar que la Tierra se movía. Ya con la experiencia de Bruno, éste no ratifi có su observación por temor a la Inquisición. Y aunque casi cuatro siglos después la Iglesia admitió su error en el caso de Galileo, no fue así en el de Bruno. Sin embargo, en 1889 se logró erigir una estatua precisamente en el Campo dei Fiori, donde fue quemado. En ese lugar, cada 17 de febrero excepto por los años del fascismo- se ha recordado la vida de Giordano Bruno. El Hijo de El Cronopio No. 70 Al buen entendedor, muchas matemáticas Por Javier Cruz para el Reforma En este año electoral de cálculos, aproximaciones y estimaciones, ¿qué matemáticas hace falta dominar para formarse un buen juicio al respecto? Recientemente, el presidente Zedillo, al evaluar una ecuación matemática -x2 +y2 +z2 =25-, sentenció que esa expresión era absolutamente imposible. Quien la había escrito, dijo, sería muy bueno en su oficio pero muy mal matemático. No se trataba de un sofisticado modelo de matemáticas financieras que proyectara el gasto social para el sexenio entrante, ni la evolución de los precios internacionales de petróleo o la inflación en México. La ecuación, escrita en un mural en el campus Coquimatlán de la Universidad de Colima, es, de hecho, de las más comunes en cualquier curso de Geometría Analítica o Cálculo, incluso a nivel preuniversitario. Y es infalible: describe, simplemente, la superficie de una esfera tridimensional de radio 5. El gazapo del ciudadano Presidente, ¿es representativo del dominio que tiene de las matemáticas un ciudadano promedio? Más aún: ante el alud de estimaciones y cálculos aproximados que inevitablemente se produce en un año electoral último de sexenio - índices macroeconómicos, ofertas de crecimiento porcentual del PIB per cápita, encuestas, gráficas, escalas y toda suerte de malabares sofísticos-, ¿cuenta la población mexicana con el sustento matemático mínimo para discriminar entre lo real y lo retórico? ¿Cuál es, en suma, el bagaje mínimo de conocimientos matemáticos que sería deseable de todo egresado del sistema de educación secundaria, nivel obligatorio en México? Carlos Bosch, matemático con vasta experiencia en la enseñanza de su disciplina dentro y fuera del ámbito formal del salón de clases, pone la mira bien alta: "Capacidad para razonar". Matemáticas para Pensar Vista así, la tarea es colosal: el sistema de educación pública cuenta con nueve años de la vida de los estudiantes mexicanos -los 6 de primaria más 3 de secundaria- para dotarlos, al menos, de capacidad para razonar. Que esa labor descansa sobre la instrucción matemática ya lo postuló el filósofo francés Auguste Comte -fundador del pensamiento positivista- desde mediados del siglo XIX al sentenciar, en su "Curso de Filosofía Positiva", que "es la ciencia matemática la que debe constituir el punto de partida de toda educación científica racional". La Secretaría de Educación Pública parece no estar en desacuerdo. En el documento que describe el enfoque de los planes de estudio de matemáticas para secundaria se lee que "la enseñanza de las matemáticas tiene como propósito general el desarrollo de habilidades operatorias, comunicativas y de descubrimiento de los alumnos", para lo cual propone el desarrollo, entre otras, de las capacidades para "elaborar conjeturas, comunicarlas y validarlas; predecir y generalizar resultados; y desarrollar el razonamiento deductivo". En suma: capacidad para razonar, tal como argumenta Bosch. 758 El Hijo de El Cronopio No. 70 Pero hay al menos dos problemas de dimensión enorme: no hay sujetos más impopulares en una escuela que los profesores de matemáticas, y no hay materia más generalmente detestada y temida. Estrategia en Espiral Hasta hace pocos años, cuando aún era común purgar largos meses de condena a trabajos forzados contra el acercamiento a la aritmética vía la teoría de conjuntos, inquirir si había tal cosa como una estrategia pedagógica en la base de los programas de estudio era como formular preguntas retóricas. Pero los programas han cambiado, y los enfoques, al parecer, también. Ahora es posible adivinar tal estrategia. Mary Glazman, profesora de la Facultad de Ciencias de la UNAM, propone que el conocimiento matemático es adquirido en forma espiral: "Conforme penetra y se profundiza, se va expandiendo". Esta analogía geométrica es fácilmente reconocible, en efecto, en algunos puntos de los programas de matemáticas de la SEP para los tres años de secundaria. Por ejemplo, el programa del primer grado comienza con el tema de orden y comparación de los números naturales. El tercer tema –números decimales- examina desde temprano su orden y comparación. En seguida, en el estudio de las fracciones, se aprende a compararlas y ordenarlas, asunto al que se regresa durante el curso de segundo grado. No es casual que junto con los de comparación y orden se aplique la estrategia "espiral" a otro concepto fundamental de la matemática elemental: el de proporcionalidad. ¿Cuánta gente está consciente de que dos magnitudes pueden ser comparadas tomando su diferencia -es decir, restando una de otra-, pero también formando su cociente para establecer la proporción de exceso de una respecto de la otra? El asunto es de gran importancia porque conduce a otras nociones fundamentales. Al comparar 24 con 32, por ejemplo, la simple resta basta para afirmar que la segunda cifra excede en 8 unidades a la primera. Pero al formar el cociente se descubre que 24 representa tres cuartas partes de 32, o, lo que es lo mismo, 75 por ciento. Este tipo de comparación lleva, pues, al cálculo de porcentajes -de indisputable relevancia cotidiana-, pero también al de variación proporcional: la relación entre 32 y 24 es la misma que entre 16 y 12, 8 y 6, 4 y 3 ó 35.2 y 26.4, digamos. La utilidad aquí es que, si se es capaz de descubrir el factor de proporcionalidad entre pares de números, vale postular una relación de dependencia entre unos y otros. Por ejemplo, la tasa de natalidad de la población mexicana y la proyección del desempleo puede ser modelada mediante una relación de dependencia proporcional si el crecimiento de puestos de trabajo se mantiene a ritmo constante. Entender el fundamento matemático de esta proposición -cierta o no- exige igual capacidad de comprensión que la que se le pide a un estudiante de primer año de secundaria para lidiar con números fraccionarios, con la regla de tres o con las reproducciones a escala. Otro tema que se beneficia de la pedagogía espiral -y, por cierto, del abandono de la aproximación conjuntista- es el que en los nuevos programas se conoce como "tratamiento de la información". En primer año se enseña la lectura y elaboración de tablas y gráficas y su uso para explorar si dos cantidades varían proporcionalmente o no. En segundo se les emplea para explorar datos que varían con el tiempo y se calculan tantos por ciento, por mil y partes por millón. Y en tercero se analizan conceptos estadísticos -promedio, moda y mediana- dispersión de datos y nociones de población y muestra, censo y encuesta. 759 El Hijo de El Cronopio No. 70 ¿Quién Está a la Altura? Gonzalo Zubieta, investigador de Matemática Educativa del Cinvestav, alega que los programas de secundaria son adecuados pero que "existe una diferencia entre el programa y lo que el profesor realiza en el aula". Glazman ofrece un análisis típicamente numérico de la situación: "En la Facultad de Ciencias de la UNAM, en cincuenta años, se han graduado cerca de 2 mil matemáticos, cantidad bajísima". ¿Quién, entonces, está enseñando matemáticas en las secundarias de México? "Para satisfacer la demanda se han improvisado maestros", protesta Glazman, "muchos de los cuales no entienden la esencia de la disciplina y son incapaces de transmitir la pasión y el gozo. Es posible que esta sea una razón para que los alumnos no se inclinen hacia las matemáticas". Iñaqui de Olaizola, matemático con más de 20 años de experiencia como profesor de secundaria, ofrece su perfil ideal: "Debe contar con una cultura matemática amplia. Yo pensaría en unos dos años de la licenciatura de matemáticas -aunque con cursos menos técnicos y más aplicados, y con componentes históricos- y otro tanto de preparación en Educación Matemática". Bosch coincide en que se necesita la preparación sólida de los enseñantes, y, como en la Bamba, otra cosita: "Que tengan la vocación de maestros, lo cual no es fácil". Qué hacer, mientras tanto, con quienes se hacen cargo hoy día de la educación matemática en México es algo en lo que ha reflexionado Zubieta: "Los profesores tienen condiciones infames para trabajar, lo que hace muy difícil que cursos de actualización resuelvan el problema de una profesionalización de los docentes". Como se dijo en Colima: ese resultado es imposible, al menos mientras abunden quienes son buenos en otro oficio pero no en matemáticas. Quién dijo qué Cuatro matemáticos involucrados en la investigación y la enseñanza de las matemátcias han opinado acerca del tema. Estas son sus credenciales: Carlos Bosch Giral Profesor e investigador del Departamento de Matemáticas del Instituto Tecnológico Autónomo de México (ITAM), ha sido artífice de varios grupos de estudiantes mexicanos que han tomado parte en Olimpiadas Matemáticas a nivel nacional e internacional, e impulsor de la "Competencia Cotorra de Matemáticas", para estudiantes menores de 12 años. Recibió el Premio TWAS de divulgación de la ciencia. Mary Glazman Nowalski Profesora titular de la Facultad de Ciencias de la UNAM, donde concentra su trabajo en la enseñanza del álgebra. Es coordinadora académica del área de Matemáticas del Programa de Apoyo a Actualización y Superación Docente del Bachillerato de la UNAM, y de los cursos interanuales de actualización de la Dirección General de Asuntos del Personal Académico. Gonzalo Zubieta Badillo Investigador del Departamento de Matemática Educativa del Centro de Investigación y Estudios Avanzados del Instituto Politécnico Nacional (Cinvestav). Sus líneas de trabajo exploran el empleo de figuras geométricas para despertar la creatividad de los estudiantes, y la transición de lo cualitativo a lo cuantitativo con conceptos de cálculo. Es autor de varios artículos sobre enseñanza de las matemáticas. 760 El Hijo de El Cronopio No. 70 Iñaqui de Olaizola Arizmendi Matemático por la UNAM, ha combinado, por décadas, el trabajo académico en la Universidad Autónoma Metropolitana con la práctica cotidiana de la enseñanza de matemáticas a nivel de secundaria. Es partícipe cotidiano en los programas de Olimpiadas de Matemáticas de la Academia Mexicana de Ciencias. Lo demás es lo de menos Consultados respecto del conocimiento mínimo de matemáticas que es deseable en cualquier egresado de secundaria, los expertos ofrecieron los puntos siguientes: Cálculo mental y capacidad de hacer estimaciones. Razonamiento proporcional. Operaciones aritméticas su significado. Habilidad para reconocer patrones (aritméticos, geométricos, etc.). Uso y comprensión de tablas, gráficas y funciones. Operaciones con expresiones algebraicas. Resolución de ecuaciones lineales. Lectura e interpretación de tablas estadísticas. Principios básicos de encuestas. Propiedades de cuerpos geométricos. Reproducción a escala de objetos sencillos. Por su parte, el documento de Enfoque del programa de matemáticas para educación básica secundaria de la SEP lista las siguientes como habilidades que deben desarrollar los alumnos: Seguridad y destreza en el empleo de técnicas y procedimientos básicos a través de la resolución de problemas. Reconocer y analizar los distintos aspectos de un problema. Elaborar conjeturas, comunicarlas y validarlas. Reconocer situaciones análogas. Escoger o adaptar la estrategia adecuada para la resolución de un problema. Comunicar estrategias, procedimientos y resultados de manera clara y concisa. Predecir y generalizar resultados. Desarrollar gradualmente el razonamiento deductivo. Noticias de la Ciencia y la Tecnología Fitoplancton y el agujero en la capa del ozono El plancton parece no estar siendo afectado por las consecuencias del agujero en la capa del ozono. El descubrimiento del agujero en la capa del ozono, la cual nos protege de la llegada de radiaciones perniciosas como los rayos ultravioleta, ha hecho temer a los científicos por la vida marítima de la zona antártica. No obstante, los modelos por ordenador realizados por un equipo de la Stanford University liderado por Kevin Arrigo nos permiten ser mucho más optimistas. Dichos modelos incluyen factores como la posición del agujero, la capa nubosa y la potencia de la radiación ultravioleta B, el tipo que se incrementa cuando se ve disminuida la presencia de ozono. Los resultados obtenidos, que analizan mediciones realizadas entre 1978 y 1992, indican que la producción de fitoplancton, un organismo en la base de la cadena de la vida en el mar, se redujo en tan sólo un 1 por ciento en este último año. Dicha reducción puede ser de hasta el 10 por ciento en áreas localizadas, pero globalmente no resulta tan alarmante. De hecho, la presencia o no de nubes es un factor muy determinante, ya que la radiación que atraviesa el agujero en un día nublado es semejante a la que pasaría si no hubiese agujero. 761 El Hijo de El Cronopio No. 70 Otro factor importante es que, en cualquier momento, el 80 por ciento del agujero de la capa del ozono sobre el polo sur se encuentra sobre hielo. Por tanto, sólo una pequeña parte del fitoplancton sufre su existencia. El plancton marino se ha adaptado a la situación de forma global, pero esto no quiere decir que debamos despreocuparnos del fenómeno, ya que el fitoplancton es sólo un componente del ecosistema. Otras especies podrían estar sufriendo el problema, o quizá el fitoplancton podría alcanzar pronto el límite de su resistencia a la radiación. (New Scientist) El Endeavour obtiene el mejor mapa de la tierra Misión cumplida para la tripulación del transbordador Endeavour. El sistema de radares instalado en su bodega ha obtenido la información topográfica necesaria para levantar el mapa más preciso de la superficie de nuestro planeta. Los cartógrafos están de enhorabuena. La misión del transbordador espacial Endeavour, recientemente concluida, ha puesto a su disposición el mapa topográfico de la Tierra (entre las latitudes 60 grados Norte y 56 grados Sur) más preciso obtenido hasta ahora. Para ello, la tripulación de seis astronautas ha contado con un sistema de radares denominado SRTM (Shuttle Radar Topography Mission), un gran paso adelante en las técnicas de teledetección que ha permitido obtener mapas topográficos 30 veces más precisos que los mejores mapas globales en uso hoy en día. El repetido paso sobre los distintos puntos de la superficie terrestre, además, supondrá (una vez analizada la información) la obtención de espectaculares imágenes en 3 dimensiones. El sistema de radares, que pesó unas 15 toneladas al despegue, realizó una cobertura del 95 por ciento de la superficie habitada, con una resolución de unos 30 metros. El sistema de radar (que ha producido unos 10 terabytes de datos) consistió en una antena de banda C y otra de banda X en la bodega del Endeavour, y otras dos de las mismas características en el extremo de un largo mástil de 61 metros que se desplegó y extendió lejos de la nave para aprovechar las ventajas de la interferometría. El radar en banda X fue proporcionado por las agencias espaciales italiana y alemana. El resto fue responsabilidad del Jet Propulsion Laboratory. La cuenta atrás para el lanzamiento se inició a las 22:30 UTC del 28 de enero. Sin embargo, un fallo técnico y la mala meteorología aconsejó posponer la salida varios días. El despegue se produjo finalmente a las 17:43 UTC del 11 de febrero, desde la rampa 39A del Kennedy Space Center, en Florida. El ascenso se llevó a cabo como ya es habitual, con un desprendimiento limpio de los dos aceleradores sólidos, que fueron recuperados en el océano y llevados a la costa para su reutilización. El comandante Kevin Kregel, el piloto Dom Gorie, y los especialistas de misión Janice Voss, Janet Kavandi, el alemán Gerhard Thiele y el japonés Mamoru Mohri, alcanzaron la órbita unos 8 minutos y medio después del despegue. Se abrieron a continuación las compuertas de la bodega de carga del Endeavour y se formalizó el reparto de tareas entre los dos equipos que trabajarían constantemente a bordo. Kregel, Kavandi y Thiele constituyeron el equipo rojo y se ocuparon de preparar el despliegue de la estructura con el radar. Los otros tres astronautas, Gorie, Voss y Mohri, constituidos en equipo azul, se fueron a dormir inmediatamente. 762 El Hijo de El Cronopio No. 70 Unas 5 horas y media después del despegue, la citada estructura rígida equipada con el poderoso radar, la más grande desplegada en órbita, se había extendido conforme a lo previsto. La operación duró unos 17 minutos. El Endeavour fue orientado entonces de forma adecuada para iniciar la actividad de los radares, tanto los situados en la bodega como los instalados en el extremo de la estructura. Dado que la información enviada por los dos grupos de antenas debía ser después combinada, se ensayó su comportamiento durante el uso de los motores de control de posición. Las operaciones científicas mediante el sistema de radares ya se encontraban en marcha el sábado día 12. Al final del primer turno, se habían mapeado más de 4,5 millones de km de superficie terrestre. En la Tierra, las primeras imágenes empezaron a hacerse públicas, como una muestra de la calidad de los trabajos realizados. La tripulación utilizó los motores auxiliares del Endeavour para comprobar sus efectos sobre el mástil, el cual, como estaba previsto, apenas se movió. Esto permitió realizar una pequeña maniobra de mantenimiento de la altitud, relativamente baja durante esta misión (unos 200 km) para aumentar la resolución de las imágenes obtenidas con el radar. El primer problema potencial apareció el domingo 13 de febrero. Debido a su enorme longitud, el mástil estaba equipado con un motor de nitrógeno a presión en su extremo, el cual ayudaba a mantener su orientación. Pero una válvula que dejó de funcionar, quizá por un escape, empezó a impedir el uso correcto del motor, lo que dejó la tarea de la estabilización exclusivamente al Endeavour. El uso de una mayor cantidad de combustible podría haber obligado a recortar la misión en al menos un día. Por fortuna, medidas especiales de ahorro de combustible no sólo permitieron respetar el tiempo de captación de datos programado, sino prolongarlo algunas horas más. Durante la primera semana, la rutina diaria a bordo del Endeavour no varió mucho. Los dos equipos (azul y rojo) se fueron turnando para garantizar una cobertura de 24 horas. La tripulación, además, realizó miles de fotografías mediante cámaras especiales y atendió a los medios de comunicación, tanto estadounidenses como europeos. La información acumulada en el Endeavour ocupó el equivalente a 13.500 CDs. Para el almacenamiento se utilizaron 270 cintas en varios dispositivos llamados Payload High Rate Recorders. Otro tipo de imágenes, tomadas con la llamada EarthKam (instalada en la bodega), eran la responsabilidad de diversos estudiantes de la Tierra, quienes eligieron los objetivos que deseaban fotografiar. Janice Voss informó a Houston el 16 de febrero sobre la visión de un pequeño objeto de color blanco surgiendo de la bodega del Endeavour, en el mismo momento en que Dom Gorie estaba manipulando un conducto de gas frío. Se cree que se trataba de un pedazo de hielo desprendido. El día 18, los controladores apreciaron que el pequeño motor del mástil volvía a proporcionar algo de empuje, mejorando las perspectivas de poder finalizar la misión como estaba previsto. El tiempo de mapeado quedó así establecido en 8 días, 18 horas y 10 minutos. Al final de este período, el 99,9 por ciento del área observada lo había sido al menos una vez, más del 94,6 por ciento lo fue dos veces y casi la mitad, tres veces. La desactivación del radar y las actividades de retirada del mástil se llevaron a cabo normalmente. Si hubiera habido algún problema irresoluble, habría sido expulsado hacia el espacio. Por fin, el aterrizaje del Endeavour se realizó el 22 de febrero, a las 23:22 UTC. La próxima misión tendrá a la estación espacial en su punto de mira. 763 El Hijo de El Cronopio No. 70 Información adicional en: http://www.dfd.dlr.de/srtm/html/newtoday_en.htm http://spaceflight.nasa.gov Imagen: http://spaceflight.nasa.gov/gallery/images/shuttle/sts-99/lores/jsc2000e02653.jpg (Perspectiva topográfica de una sección de Ventura County, en California, vista por el complejo SRTM.) (Foto: JSC) http://spaceflight.nasa.gov/gallery/images/shuttle/sts-99/lores/s99e5546.jpg (En esta imagen se aprecia la antena SRTM al final del mástil de 61 metros.) (Foto: JSC) Noticias de la Facultad Próximos exámenes profesionales Ildelfonso Tovar Martínez El próximo 22 de marzo se llevará a cabo el examen profesional de Ildelfonso Tovar Martínez que presentará y defenderá la tesis intitulada: Efectos estructurales debidos a la incorporación de cobalto en una matriz de óxido de silicio. La tesis profesional será presentada para obtener el título de Físico-Experimental, La tesis fue asesorada por José Refugio Martínez Mendoza y Facundo Ruiz. A continuación presentamos el resumen de la misma Efectos estructurales debidos a la incorporación de cobalto en una matriz de óxido de silicio I. Tovar Martínez Facultad de Ciencias Universidad Autónoma de San Luis Potosí Resumen Utilizando espectroscopía infrarroja se analiza la estructura atómica local de vidrios complejos, que consisten en la incorporación de cobalto en una matriz de SiO 2 , preparados por el método sol-gel. El óxido de cobalto se incorpora a la matriz de SiO 2 usando nitrato de cobalto calculando una concentración de 30% en peso de CoO. Los vidrios fueron preparados a partir de soluciones alcohólicas de tetraetilortosilicato (TEOS) para relaciones molares de 11.66 y 4 para H2 O/TEOS y Et-OH/TEOS, respectivamente. Se presenta y se discute la evolución estructural de los vidrios, después del punto de gelación, en función del tiempo de postgelación analizándola a temperatura ambiente, sin realizar tratamientos térmicos, y la evolución estructural una vez que geló el material realizando tratamientos térmicos. Con este proceso se obtiene una estructura fibrosa, la cual es inducida por la incorporación de partículas de cobalto. Laura Noemí Rocha Osornio El próximo 24 de marzo se llevará a cabo el examen profesional de Laura Noemí Rocha Osornio que presentará y defenderá la tesis intitulada: Índice de refracción efectivo en guías de onda planas simétricas. La tesis profesional será presentada para obtener el 764 El Hijo de El Cronopio No. 70 título de Licenciado en Física, La tesis fue asesorada por Salvador Guel Sandoval. A continuación presentamos la introducción de la misma Índice de refracción efectivo en guías de onda planas simétricas L.N. Rocha Osornio Facultad de Ciencias Universidad Autónoma de San Luis Potosí Introducción Un rayo de luz con transmisión transversal finita diverge al propagarse en un medio homogéneo. Esta divergencia desaparece en estructuras capaces de guiar ondas eléctricas bajo condiciones apropiadas; la dimensión transversal de estos modos de propagación es determinada por los dieléctricos. Tales estructuras reciben el nombre de guías de onda. Nuestro objetivo es presentar un análisis de la luz confinada en una guía de onda simétrica y obtener ciertos valores fijos a partir de la constante de propagación y por una determinada distribución de energía del frente de onda en ese medio. Obtenemos el índice de refracción efectivo utilizando modos transversal eléctrico y se verá la importancia del grosor de la guía de onda simétrica para el confinamiento de la energía en dos dimensiones. Derivaremos las primeras propiedades de las guías de ondas en una estructura de una capa. Los modos ópticos están representados como la solución de la ecuación de eigenvalores derivadas de las ecuaciones de Maxwell sujetas a las condiciones de frontera impuestas por la geometría de la guía de onda. La física de propagación confinada se explica en términos de la reflexión total interna de onda plana en la interfase dieléctrica. Los fenómenos y aplicaciones producidos cuando una luz de alta intensidad modifica el índice de refracción y la velocidad de propagación en un medio son notorios; el láser, por ejemplo, es uno de los protagonistas principales de estos efectos, al igual que la holografía, que actúa como herramienta imprescindible. Los efectos permiten expandir las posibilidades del proceso de información óptica y estos desempeñan un revolucionario avance para muchas ramas de la tecnología. La Ciencia desde el Macuiltépetl/ Las revoluciones científicas Por Manuel Martínez Morales En Roma, el 8 de febrero de l600, el tribunal de la inquisición condenaba por hereje e impenitente al matemático, astrónomo y filósofo Giordano Bruno; después de escuchar su sentencia de muerte, Bruno temerariamente replicó al Santo Tribunal: “Tienen ustedes más miedo en sentenciarme, que yo de cumplir la sentencia”: Días más tarde, el 17 de febrero, Giordano Bruno era quemado vivo en la hoguera. El célebre filósofo, nacido en l548 en Nola, Italia, murió sin retractarse de sus ideas. Uno de los pecados mayores de Bruno fue declarar, convencidamente, que el universo es infinito y que existen, de igual forma, un sinfín de cuerpos como los que forman nuestro sistema solar. El mundo es infinito y por lo tanto, no hay en él ningún cuerpo al que le corresponda estar en el centro o sobre el centro o en la 765 El Hijo de El Cronopio No. 70 periferia o entre ambos extremos del mundo; sino tan sólo le corresponde estar entre otros cuerpos... Escribe Bruno en su obra Sobre el infinito universo y los mundos. En nuestros días, hasta la mente más simple acepta el hecho de que habitamos un pequeño planeta perdido en la inmensidad de un universo sin límites, en tiempos de Bruno lo contrario era la norma. Se creía que la tierra era el centro de una esfera cerrada, en cuya superficie estaban fijas las estrellas; se admitía pues, la imagen de un universo finito. El cambio de esa concepción a la concepción actual tuvo que darse a través de una verdadera revolución del pensamiento. Alexander Koyré, destacado historiador de las ciencias, nos dice al respecto: Es posible describir aproximadamente esta revolución científica y filosófica diciendo que conlleva la destrucción del Cosmos; es decir, la desaparición en el campo de los conceptos filosófica y científicamente válidos, de la concepción del mundo como un todo infinito, cerrado y jerárquicamente ordenado; un todo en el que la jerarquía axiológica determinaba la jerarquía y estructura del ser, elevándose desde la tierra oscura, pesada e imperfecta hasta la mayor y mayor perfecció n de los astros y esferas celestes. (Del mundo cerrado al universo infinito, Siglo XXI, 1979). Este episodio de la historia de las ciencias ilustra con precisión lo que se ha dado en llamar revoluciones científicas. Se ha creído, y en algunos círculos se cree todavía, que el desarrollo de las ciencias es un proceso gradual y progresivo mediante el cual se han ido añadiendo conocimientos al caudal ya existente. Desde esta perspectiva, la historia de las ciencias es contemplada como una disciplina que relata y registra esos incrementos sucesivos, y los obstáculos que han inhibido su acumulación. Sin embargo, en vista de un sinnúmero de dificultades encontradas por los historiadores, se ha fincado ya una nueva corriente historiográfica que ha roto con esa tradición. La nueva escuela de historiadores de la ciencia propone, y lo ha demostrado en muchos casos, que el desarrollo del conocimiento científico se da gradualmente y evoluciona sólo en tiempos “normales”, pero hay momentos históricos en los cuales se dan verdaderos saltos cualitativos, verdaderas revoluciones. Tal es el caso de la transición de la concepción de un universo cerrado a la de un universo infinito. Entre los mejores exponentes de esta escuela destaca Thomas Kuhn, físico de profesión. Kuhn ha escrito una de las mejores obras en este campo: La estructura de las revoluciones científicas (FCE, 1973). En ella nos dice que Las primeras etapas de desarrollo de la mayoría de las ciencias se han caracterizado por una competencia continua entre una serie de concepciones distintas de la naturaleza, cada una de las cuales se derivaba parcialmente de la observación y del método científico y, hasta cierto punto, todas eran compatibles con ellos. Lo que diferenciaba a esas escuelas no era uno y otro error de método – todos eran “científicos”- sino lo que llegaremos a denominar sus modos inconmensurables de ver el mundo y de practicar en él las ciencias. 766 El Hijo de El Cronopio No. 70 A estos modos particulares de ver el mundo y practicar en él las ciencias, Kuhn los denomina paradigmas científicos. Para ponerlo en sus palabras: Considero a éstos (los paradigmas) como realizaciones científicas universalmente reconocidas que, durante cierto tiempo, proporcionan modelos de problemas y soluciones a una comunidad científica. Pues bien, una revolución científica se da en el momento en que un paradigma es sustituido por otro. Es el caso del paso del paradigma de la astronomía geocéntrica al de la astronomía heliocéntrica, propuesta por Copérnico; otro ejemplo sería el salto de la física de Newton a la física relativista; también es el caso de la biología predarwiniana que deja el paso a la biología evolutiva. Estos cambios son drásticos, pues se sustituye un paradigma por otro ¡totalmente inconmensurable con él!, lo que significa que uno no puede reducirse o transformarse en el otro, ya que parten de concepciones y postulados sobre la realidad radicalmente diferentes. En ocasiones, son de tal fuerza los esquemas propuestos por los nuevos paradigmas que cimbran no sólo el pensamiento científico de una época, sino que llegan a afectar la ideología y el orden establecido de toda un formación social. Recordemos el caso de Giordano Bruno. ¿Cuál es el proceso de desarrollo normal de una ciencia? ¿Qué tipo de problemas o anomalías dan lugar a la sustitución de un paradigma por otro? ¿Cómo se resuelve la competencia entre varios paradigmas? Cuestiones como éstas son las que hoy se plantean los historiadores de las ciencias. El estudio cabal de la historia de las ciencias constituye, sin duda, un sano ejercicio para esclarecer y apreciar de manera justa el valor y los alcances de los paradigmas que la ciencia normal de nuestro tiempo propone, pues la investigación efectiva apenas comienza antes de que una comunidad científica crea haber encontrado respuestas firmes a preguntas tales como las siguientes: ¿Cuáles son las entidades fundamentales de que se compone el universo? ¿Cómo interactúan esas entidades unas con otras y con nuestros sentidos? ¿Qué preguntas pueden plantearse legítimamente sobre esas entidades y qué técnicas pueden emplearse para buscar soluciones? Al menos, en las ciencias maduras, las respuestas a preguntas como esas se encuentran enclavadas, firmemente, en la iniciación educativa que da licencia a los estudiantes para la práctica profesional. Debido a que esta educación es tanto rigurosa como rígida, esas respuestas llegan a ejercer una influencia profunda sobre la mentalidad científica (Kuhn). El caso de Giordano Bruno no debería repetirse; sin embargo, hoy vemos que hay teorías que se juzgan con la misma severidad que lo fueron las tesis de Bruno en su tiempo; tal es el caso de las teorías marxistas de la historia y el conocimiento. ¿Será porque nos proponen un paradigma que no sólo afecta la esfera del conocimiento sino que, fundamentalmente, cuestiona la existencia de un sistema social fincado en el predominio de una clase social sobre las demás? La historia lo dirá 2 de diciembre de l983 767 El Hijo de El Cronopio No. 70 El Cabuche (crónicas de la Facultad de Ciencias)/ Filosofía en la azotea Por lo regular los lugares solitarios se prestan para reflexionar. Hay quienes lo hacen en el baño y hay quienes ni siquiera eso. Cuando no existía el sistema de créditos, en la década de los setenta, la materia de Filosofía era obligatoria, en la actualidad lo debería de ser. Por lo regular Memo Marx, que también chambeó, o intentó, de director de esta facultad, era el profesor natural para impartir esta materia. Con Memo cursamos varias materias, tanto de matemáticas como de física e incluso de química, pero su actuación en esas tareas fue más bien oscura. En contraparte los cursos de filosofía y historia de las ciencias, eran su pasión y por consecuencia se convertían en excelentes cursos. Los mismos se prestaban para salirse de lo convencional y en una escuela como la de física, al menos de aquella época, y con personajes tan peculiares, incluyendo principalmente al Memo, era de esperarse cualquier cosa. Cuando menos acordábamos nos encontrábamos en el jardín de la escuela, bajo la sombra de un árbol, eso en el mejor de los casos, leyendo y discutiendo libros de filosofía, bajo las explicaciones de Memo. Llegar tarde a alguna de las sesiones se convertía en un ejercicio de juego de las escondidas, tenía uno que buscar, con el libro de filosofía bajo el brazo, por todos los rincones y alrededores de la escuela hasta dar con la raza que se encontraba desmenuzando las frases y rearmándolas para, al menos, medianamente comprender los intrincados esquemas filosóficos de pensadores griegos y contemporáneos tratados en el libro de Historia de la Filosofía de Bertland Russel (creo que así se escribe, sino ahí corrijan) editado por la casa española Aguilar. El libro era caro, así que disponíamos de un número muy limitado de ellos, de hecho se utilizaba el de Memo, así que tratábamos de aprovechar al máximo esas sesiones filosóficas. Del jardín pasamos a alturas considerables, tratando de evitar las miradas asombradas e indiscretas de los ingenieros que se atrevían a pasar por allí, terminamos por tener las sesiones en la azotea de la escuela, ahora a la sombra de los tinacos; justo en el lugar donde el Beto Prestas, tiempo después como ya fue mencionado en esta sección, en histórico día decidió tomar el sol como Dios lo trajo al mundo acompañado de sendo chemo. Las sesiones se prolongaban durante todo el día, y en ocasiones durante la noche; para aguantar tremendo ritmo y la mente estuviera preparada para profundas cavilaciones, de vez en cuando acercábamos líquidas provisiones y una que otra botana; como el agua es pa`bañarse y pa`las ranas que nadan bien, preferíamos cervezas haladas, ya fueran Caguamas o ampolletitas, no discriminábamos, o en su defecto ginebra con refresco de toronja, de preferencia Del Valle. Por arte de magia las ideas fluían y adquirían sentido las propuestas filosóficas planteadas por Russel, de esta forma la metodología pedagógica funcionaba y por necesidad repetíamos las sesiones bajo el mismo esquema, aunque ya avanzadas las horas acabáramos discutiendo y platicando de otras cosas. Si no nos volvimos expertos en cuestiones filosóficas, si en trepar y caminar por la azotea en tremendo estado (de cavilación, claro) a tal grado que tiempo después, según platica la raza, cuando se construían los nuevos salones en lo que fuera la terraza de la escuela, el Memo escapaba habilidosamente por las ventanas en construcción, para evitar impartir clases (ajenas a la filosofía) escabulléndoseles a los estudiantes. Tú y las nubes me traen muy loco/Tú y las nubes me van a matar/Yo pa`rriba volteo muy poco/Tú pa`bajo no sabes mirar 768 Boletín El Hijo de El Cronopio Facultad de Ciencias Universidad Autónoma de San Luis Potosí No.71, 27 de marzo de 2000 Boletín de información científica y tecnológica de la Facultad de Ciencias Publicación semanal Edición y textos Fís. J. Refugio Martínez Mendoza Cualquier información, artículo o anuncio deberá enviarse al editor e-mail: flash@galia.fc.uaslp.mx Este boletín y números anteriores, pueden consultarse por Internet en la página de la UASLP: http://phobos.dtc.uaslp.mx/publi.html Preparándonos para el cambio de horario agüevo A pesar de la reticencia de algunos estados de la República, tal parece que se volverá a imponer, por parte del gobierno federal, el horario de verano, arg umentando (si es que se le puede llamar argumentación) un supuesto ahorro energético, que por lo pronto sólo se manifiesta en las mentes del gobierno y de Téllez, Secretario de Energía y Minas. A pesar de que los medios electrónicos de difusión acostumbran dar informaciones sesgadas, y sacadas a punta de microfonazos, a pregunta expresa de un reportero que mencionaba el rechazo a la medida en algunos estados, entre los que se encontraba San Luis Potosí, el secretario referido, sólo alcanzó a declarar con una amenaza, que si eso sucedía tendrían que provocar apagones. Como si el servicio de electricidad fuera gratuito y una dádiva del gobierno hacia la población, cuando es una obligación primaria del estado. En fin, no es otra más que una declaración típica d e la campaña de amenazas que ha emprendido el gobierno federal (anuncios de lolita y lola, para pagar impuestos, entre otras). ¿Desde cuando las acciones de justicia son una caridad?. Por lo pronto se sigue argumentando, aunque no se demuestra, y se dan c ifras, que sólo ellos se las creen, del multimillonario ahorro que ha provocado el sólo hecho de recorrer una hora adelante en verano. De acuerdo a la lógica del gobierno y de la secretaría de energía ¿Si quisiéramos ahorrar el doble, podríamos adelantar e n ves de una hora, dos? Esperen cualquier respuesta taruga del secretario, total disfrazada en cifras dichas sin titubeos, es argumento suficiente para protegerse en los números. Más, si Téllez fue a la misma escuela en que Zedillo estudió matemáticas (ver El Hijo de El Cronopio No. 70; al buen entendedor, muchas matemáticas). Otra cosa muy diferente sería, si se argumentará como un acto cultural e inclusive comercial (como en realidad parecer ser), pero se atiende a una manejo desubicado de los números. Por otra parte, expertos del Instituto de Astronomía de la UNAM afirman que por su posición en el globo terráqueo, los días más cortos en México tienen 10 horas con 13 minutos de sol, por lo que la adopción de un horario de verano no corresponde a las condiciones de luminosidad. Rafael Costero dijo que las razones para el cambio de hora se refieren a la necesidad de homologación con las principales economías del mundo y no tanto para aprovechar la luz del día. El astrónomo Daniel Flores precisa que México e s de los pocos países que tienen un horario de verano a pesar de que su posición en el globo no lo haga tan necesario. ¿Y LA OPINIÓN CIUDADANA? NO POR MUCHO MADRUGAR AMANECE MAS TEMPRANO El Hijo de El Cronopio No. 71 Noticias de la Ciencia y la Tecnología Algas que producen combustible Un tipo de alga común podría ser empleado a gran escala para producir hidrógeno, un combustible limpio con diversas aplicaciones en la industria. A la búsqueda de fuentes de energía alternativas, el hidrógeno está bien posicionado para ser adoptado en un futuro cercano, ya sea para producir electricidad mediante células de combustible o para ser quemado en motores. La obtención de hidrógeno para éstas y otras aplicaciones, sin embargo, es aún un proceso químico dificultoso. Tampoco es un procedimiento ideal, ya que el hidrógeno se suele extraer del gas natural, una fuente no renovable. Afortunadamente, científicos de la University of California han descubierto un alga común que puede producirlo bajo condiciones especiales y en cantidades interesantes. La citada alga, que ha sido estudiada por el microbiólogo Tasios Melis y el estudiante de doctorado Liping Zhang, produce hidrógeno gracias a la manipulación inteligente del proceso de fotosíntesis. Agua y luz solar bastarán pues como materias primas. Los análisis realizados hasta ahora se han efectuado sobre cultivos a pequeña escala de la alga verde microscópica Chlamydomonas reinhardtii. Si bien el ritmo de producción actual es todavía escaso, las investigaciones permitirán multiplicarla por diez, convirtiendo el método en comercialmente viable. Ya se están desarrollando fotobiorreactores para aplicaciones industriales y comerciales. Los cálculos preliminares sugieren que una sola y pequeña planta productora podría producir suficiente hidrógeno como para alimentar semanalmente a una docena de automóviles. Muchos expertos creen que el hidrógeno se convertirá algún día en la principal fuente de energía renovable, reemplazando a los combustibles fósiles gracias a que no es agresivo con el medio ambiente. Cuando el hidrógeno es quemado, el resultado es agua pura (vapor), perfectamente apta para el consumo humano. Serán necesarios más trabajos en otras áreas, como la del almacenamiento del hidrógeno (que es un gas muy volátil), su transporte y su suministro, pero ello no se espera que se convierta en un problema irresoluble. Los científicos saben que ciertas algas pueden producir hidrógeno desde hace 60 años, pero sólo en pequeñísimas cantidades. Las investigaciones más recientes han servido para descubrir el "interruptor molecular" que hace que la célula ponga en marcha o detenga su sistema fotosintético. Con una activación permanente, lo cual se consigue con la ausencia de azufre en el medio de crecimiento del alga, se detiene la fotosíntesis y con ello la producción de oxígeno. Sin oxígeno, las células anaeróbicas no pueden quemar el combustible almacenado de la forma habitual (mediante la respiración metabólica). Para sobrevivir, emplean entonces un sistema alternativo que genera hidrógeno y que podría ser universal, encontrándose en muchos otros tipos de algas. Las algas no pueden vivir para siempre en esta situación, pero sí un tiempo razonablemente largo, lo bastante como para ser útiles para la producción de hidrógeno a gran escala. Información adicional en: 770 El Hijo de El Cronopio No. 71 http://www.urel.berkeley.edu/urel_1/CampusNews/PressReleases/releases/01-272000b.html Imagen: http://www.urel.berkeley.edu/urel_1/CampusNews/PressReleases/releases/bottle.jpg (El alga Chlamydomonas reinhardtii.) (Foto: U. of California) El bosque sepultado Científicos estadounidenses han tenido la inmensa fortuna de poder estudiar un bosque de hace 10.000 años, preservado milagrosamente gracias a una poco habitual cadena de circunstancias. Los investigadores de la Michigan Technological University y sus colegas de Harvard no pueden creer en su buena suerte. La naturaleza ha conservado para ellos, en casi perfectas condiciones, un bosque de abetos de 10.000 años de antigüedad. El citado bosque se ha mantenido intacto durante todo este tiempo gracias a permanecer enterrado en arena y agua. Su descubrimiento fue accidental, en Michigan, y ha propiciado un estudio de sus características en comparación con los bosques modernos. En apariencia, los abetos blancos que lo componen son semejantes a los que pueden hallarse hoy en día en la Bahía de Hudson, los cuales continúan avanzando hacia el norte. Los especimenes hallados pertenecerían a la primera población que se instaló en la región, sobre el sedimento dejado a la vista por un glaciar en retirada. Las agujas de los árboles han caído pero los troncos siguen derechos e intactos, incluyendo las ramas. Las agujas, así como polen y otros elementos, pueden hallarse fácilmente sobre la capa que constituía el suelo primitivo del bosque. Los árboles tienen diámetros variables que van de 5 a 50 cm, mientras que el más alto tiene unos 9 metros. Los más viejos tenía 145 años de edad cuando murieron. La mayor parte de lo que sabemos acerca de los cambios que afectan a los bosques lo hemos obtenido a partir de los estudios del polen fosilizado hallado en el fondo de lagos y estanques. Encontrar un bosque completo es algo realmente excepcional, ya que en él podrán analizarse multitud de casos biológicos a un tiempo. La época a la que pertenece es representativa de una era en la que las temperaturas subían, después de la última glaciación. También es el momento en el que los primeros habitantes humanos llegaron a esta parte del mundo. De hecho, se han encontrado objetos paleoindios a no mucha distancia de la posición del bosque enterrado. Su muerte debió producirse debido a una prolongada pero suave inundación debido al agua y la arena procedentes de una glaciar cercano que se estaba deshaciendo. Información adicional en: http://www.demon.co.uk/bes; http://www.mtu.edu/ Imagen: http://www.admin.mtu.edu/urel/breaking/2000/images/twotrees.jpg (Dos de los árboles del antiquísimo bosque.) (Foto: Michigan T. U.) Un planeta en un tubo de ensayo La microgravedad ayuda a crear modelos más precisos de las atmósferas planetarias y los océanos. La investigación relacionada con las atmósferas de otros planetas se encuentra coartada por la enorme distancia que existe entre nosotros y nuestro objetivo. Las imágenes 771 El Hijo de El Cronopio No. 71 suministradas por las sondas o por los telescopios no son suficientes para obtener modelos físicos concretos sobre su comportamiento. Un experimento realizado a bordo de dos misiones del transbordador espacial, en 1985 y 1995, podría ayudar a definir mejor dichos modelos. El aparato se llama Geophysical Fluid Flow Cell y fue diseñado por John Hart, de la University of Colorado. En tierra, es imposible crear modelos esféricos fiables porque la gravedad terrestre produce un comportamiento irreal en los fluidos que tratan de representar la atmósfera y los océanos. Sin embargo, en la microgravedad de un viaje alrededor de nuestro planeta las cosas son más sencillas. En el interior del dispositivo, los científicos recrearon modelos del clima de la Tierra y de su interior, la atmósfera del Sol y la de otros planetas. Pero, ¿cómo es posible simular algo tan grande como un planeta en una esfera de acero inoxidable tan pequeña como un ornamento de Navidad? La citada bola quedó situada bajo un domo sintético de zafiro, con aceite de silicona circulando entre ambos para simular la atmósfera de Júpiter, el Sol y el manto fundido de la Tierra, dependiendo de las condiciones del experimento seleccionadas por los científicos. Una superficie giratoria controlada por la temperatura hace girar el domo (simulando la rotación del planeta) y una descarga eléctrica entre el domo y la esfera actúa como gravedad artificial. Se realizaron más de 100 experimentos durante la primera misión, tomándose unas 50.000 imágenes en película de 16 milímetros. Los patrones de convección fotografiados ayudarán a definir mejor los modelos matemáticos y de ordenador, y de hecho ya han explicado algunas cuestiones clave, como los vientos zonales o la estructura atmosférica de Júpiter. La segunda misión contempló 29 experimentos separados de seis horas cada uno. Las enseñanzas obtenidas nos permitirán además predecir y entender cómo se mueven los continentes terrestres y la dinámica atmosférica de nuestro planeta. Información adicional en: http://mtrs.msfc.nasa.gov/mtrs/ http://www1.msfc.nasa.gov/NEWSROOM/news/releases/2000/00-041.html Imagen: http://www1.msfc.nasa.gov/NEWSROOM/news/photos/2000/2000images/gffc_m.jpg (La Geophysical Fluid Flow Cell.) (Foto: Marshall SFC) http://www1.msfc.nasa.gov/NEWSROOM/news/photos/2000/2000images/16mm_m.jpg (El fluido se mueve dentro de la Geophysical Fluid Flow Cell.) (Foto: Dr. John Hart, University of Colorado at Boulder) Identificado "el mensajero de la muerte" Se ha localizado la proteína que actúa sobre el núcleo de la célula para que ésta ejecute el proceso de su muerte programada. Cuando determinadas células de un cuerpo se vuelven innecesarias, funcionan incorrectamente o son malignas, puede desencadenarse un mecanismo de protección natural que las impelirá a suicidarse (apoptosis). La maquinaria celular que hace posible esto ha sido un relativo misterio hasta hace poco tiempo. Científicos del Howard Hughes Medical Institute creen haber descubierto el llamado "mensajero de la muerte", la proteína que forma parte de este mecanismo y que viaja hasta el núcleo de la célula afectada para incitar su muerte programada. 772 El Hijo de El Cronopio No. 71 Esta muerte es un método biológico esencial que regula el número de células, las conexiones entre ellas y que también sirve para esculpir correctamente los tejidos. Cuando este sistema no funciona bien, pueden aparecer ciertos casos de cáncer, enfermedades autoinmunológicas e incluso degenerativas. H. Robert Horvitz, del MIT, junto a varios colegas del Max Planck Institute for Biological Chemistry y de la Hebrew University, ha fundamentado sus trabajos sobre el caso de un gusano llamado Caenorhabditis elegans, un animal que contiene exactamente 1.090 células, de las cuales 131 realizan la apoptosis, la mayoría durante el desarrollo embrionario. El equipo de Horvitz ha identificado a las proteínas EGL-1, CED-9, CED-4 y CED-3 como ingredientes esenciales en el proceso. La EGL-1 inicia la apoptosis inhibiendo la acción de contención normal de la CED-9 sobre la CED-4 (ambas situadas en las mitocondrias, las fábricas de energía de las células). Una vez liberada, la CED-4 dispara la CED-3, una proteína altamente destructiva para los enzimas. El estudio de las contrapartidas humanas de estas proteínas ayudarán a paliar los efectos derivados de embolias, ataques al corazón, Alzheimer, etc. Información adicional en: http://www.hhmi.org/news/horvitz.htm Imagen: http://www.hhmi.org/news/images/horvitz.gif (H. Robert Horvitz.) (Foto: Paul Fetters) Calendario gregoriano El calendario por el cual nos regimos tuvo unos orígenes mucho más curiosos de lo que podría esperarse. Mucha gente interesada por la forma en que medimos el tiempo se pregunta por qué septiembre de 1752 tuvo sólo 19 días en Gran Bretaña pero en cambio disfrutó de 30 días en España. O por qué el 2000 es un año bisiesto si 1800 y 1900 no lo fueron. Estas y muchas otras curiosidades se deben a la forma en que el calendario ha ido evolucionando a lo largo del tiempo. Entre ellas, el elevado número de arbitrariedades que después, paradójicamente, han servido para establecer un calendario funcional. Por ejemplo, si bien muchos cambios en el calendario tradicional, basado primero en las fases de la Luna y después en el ciclo anual solar, se realizaron para incrementar su precisión, otros se efectuaron por razones puramente políticas y religiosas. Así, febrero cayó víctima de la vanidad de los emperadores Julio y Augusto, quienes le robaron un día cada uno para que aquellos que fueron bautizados con sus nombres (julio y agosto) fueran más largos que el resto. Ante estos desmanes, ya en el año 1000 se propuso modificar el calendario Juliano vigente, pero nadie consiguió el apoyo político necesario para la reforma. Así permanecería hasta 1582, cuando el Papa Gregorio XIII decidió ajustarlo. Ese año, Gregorio acortó el mes de octubre en 10 días y ordenó que sólo los años centenarios que fueran divisibles por 400 fueran bisiestos. Estos cambios convirtieron al nuevo calendario Gregoriano en más preciso que el anterior, pero la razón fundamental para que se llevasen a cabo fue la corrección de la fecha en la que caería la Pascua. Los países protestantes, liderados por Gran Bretaña, no harían caso de ello, por supuesto, y el cambio en su calendario no se materializaría hasta septiembre de 1752. Para entonces, estaba desfasado en 11 días. 773 El Hijo de El Cronopio No. 71 Dejando aparte las motivaciones de su aplicación, el calendario Gregoriano se ha convertido en uno de los sistemas más sencillos y precisos para hacer un seguimiento de algo tan inherentemente impreciso como es la longitud de un año. Micromáquinas de diamante No podrás regalárselas a tu pareja en el día de San Valentín, y son demasiado pequeñas para ser el mejor amigo de una mujer, pero a pesar de todo científicos americanos han creado lo que creen es la primera micromáquina de diamante del mundo. El diamante interesa a los investigadores por sus cualidades superiores en el ámbito de la dureza, resistencia al desgaste, a la fricción, etc. También tiene un gran potencial como material biocompatible, de manera que puede ser usado dentro del cuerpo humano en aplicaciones médicas, sin que se produzca una reacción alérgica. En la carrera hacia la creación de máquinas cada vez más pequeñas, tiene sentido la construcción de algunas de ellas mediante este material, el diamante amorfo, el más duro en el mundo después del diamante cristalino. Su disposición y la metodología para su manipulación es lo que están desarrollando diversos especialistas en los Sandia Laboratories. Las primeras micromáquinas construidas mediante diamante son dispositivos móviles de un milímetro cuadrado, donde sus diminutos dientes se mueven hacia delante o hacia atrás cuando una corriente eléctrica cambia de polaridad. Como piezas básicas, formarán parte de otros complejos más sofisticados. Ya se han construido micromáquinas con otros materiales, como el polisilicio, pero a pesar de su tamaño, siguen siendo susceptibles de desgaste. El diamante ayudará a reducir este desgaste y a prolongar su vida útil. Las investigaciones sugieren que el diamante debería durar 10.000 veces más que el polisilicio. Los MEMs de silicio, sistemas microlectromecánicos, ya se usan en aplicaciones tales como los "air bags" de los automóviles o en los microespejos ópticos que podrían ser desplegados en satélites artificiales. Se trata de una tecnología muy prometedora y con múltiples aplicaciones. El uso de diamante amorfo en vez diamante cristalino, que es más duro aún, se explica sabiendo que este último necesita de temperaturas mucho más altas para ser sintetizado. Además, aplicado sobre superficies, proporciona una terminación rugosa, inapropiada para la tecnología de multicapas empleada en las micromáquinas. Información adicional en: http://www.sandia.gov/media/NewsRel/NR2000/diamond.htm Imagen: http://www.sandia.gov/media/NewsRel/NR2000/images/jpg/ADcomb.jpg (Vista de una micromáquina de diamante.) (Foto: Sandia Labs.) El ranking de la ingeniería Neil Armstrong, el primer astronauta que pisó la Luna, no cree que la conquista del espacio deba situarse en el primer puesto de los logros de la ingeniería y la tecnología en el siglo XX. Neil Armstrong, durante muchos años profesor de astronáutica, primer hombre que pisó nuestro satélite (Apolo-11), y persona extremadamente reservada y prácticamente 774 El Hijo de El Cronopio No. 71 retirada de la vida pública desde que regresó de la Luna, prefiere otros logros de la ingeniería antes que encumbrar a su antigua profesión. Para el que fuera prototipo del héroe americano en un ambiente tecnológico extremo, el ránking de la ingeniería y la tecnología debería estar regido por el criterio de la mejora en la calidad de vida de las personas. Así, otorga a la electrificación de la sociedad el primer puesto de la lista, en cuya definición han participado otras personalidades del mundo científico. La disponibilidad masiva de esta fuente de energía es, para Armstrong, la más importante aportación tecnológica del siglo XX. En segundo lugar se encontraría el automóvil, seguido por el avión, el suministro de agua potable y la electrónica. Armstrong, de 69 años, continúa mencionando, en orden descendente, a la radio y la televisión, la mecanización de la agricultura, la informática, el teléfono, y el aire acondicionado y la refrigeración. Siguiendo con su compromiso de dar crédito a todo aquello que ha sido más útil a la sociedad, sitúa a continuación a las autopistas, la exploración espacial, Internet, las técnicas médicas de diagnosis mediante imágenes, otros tipo de tecnologías relacionadas con la salud, el aprovechamiento del petróleo y el gas, el láser y la fibra óptica, la tecnología nuclear y los nuevos materiales. Información adicional en: http://www.greatachievements.org/ Por donde sopla el viento El instrumento SeaWinds del satélite Quikscat ha empezado a suministrar información que permitirá mejorar las predicciones meteorológicas en todo el mundo. Cada vez se hace más necesario tener una visión global de la meteorología mundial para realizar predicciones más exactas y a más largo plazo. Para ello se emplean sensores situados en el espacio, los cuales aportan información sobre innumerables aspectos que analizados conjuntamente proporcionan un cuadro más completo de la situación. Uno de estos sensores es el SeaWinds, instalado a bordo del satélite Quikscat. Este instrumento realiza mediciones de la dirección y la intensidad del viento en la superficie de los océanos. Estos datos, junto a los que se refieren a las nubes, la temperatura y otros parámetros meteorológicos, pueden ser usados para entender cómo se desarrollan los diversos sistemas y tormentas, y también para predecir el tiempo en todo el globo. Las medidas son asimismo cruciales para comprender las corrientes oceánicas, los patrones climáticos y las variaciones cíclicas y anómalas que pueden ocurrir en ellos. El SeaWinds es un radar que opera en la frecuencia de las microondas, capaces de penetrar a través de las nubes. Gracias a la órbita polar que sigue, el aparato tiene una visión completa de la superficie terrestre, la cual gira bajo su trayectoria. Además de los vientos oceánicos, se consiguen datos de las olas, las corrientes, las estructuras adoptadas por el hielo polar y otros fenómenos. Tras su lanzamiento en junio de 1999 y un extenso período de calibración, el SeaWinds ha empezado a aportar los datos que se esperaba de él. Ahora, los científicos disponen de información de los vectores del viento sobre los océanos casi a tiempo real, permitiendo su incorporación a los modelos numéricos de predicción del tiempo. El sistema pertenece al programa Earth Science Enterprise de la NASA, diseñado para examinar la tierra, los océanos, la atmósfera, el hielo y la vida como un sistema integrado. 775 El Hijo de El Cronopio No. 71 Información adicional en: http://www.earth.nasa.gov;http://podaac.jpl.nasa.gov/quikscat/ http://haifung.jpl.nasa.gov/ Imagen: http://haifung.jpl.nasa.gov/images/daily_nepac.mov (Animación de los vientos en el Pacífico nordeste.) (Foto: JPL) Arqueología e informática En ocasiones, los arqueólogos no sólo deben hacer labores de rescate de la información legada por la antigüedad sino también batallar por la preservación de sus propios archivos. Estamos acostumbrados a imaginar a los arqueólogos cavando zanjas, tomando medidas, escribiendo notas, examinando objetos hallados en yacimientos antiquísimos, pero esto, como vamos a ver, no siempre es así. La tarea de investigación de los recintos arqueológicos es necesariamente destructiva. Implica excavar de forma continuada y examinar cada piedra y objeto encontrado. Todo ello, sobre todo la disposición de cada elemento, queda reflejado en la documentación escrita, donde se preservará para la posteridad. No será posible regresar y rehacer el proceso de exploración, de modo que la conservación de dichas notas y archivos es tan importante como la excavación propiamente dicha. En la actualidad buena parte de los archivos son almacenados mediante medios informáticos. El problema es que los trabajos arqueológicos de hace tan sólo unos años quedaron documentados en sistemas que ya se han vuelto obsoletos, con el consiguiente peligro de la pérdida de la información tan cuidadosamente obtenida. El arqueólogo Keith Westcott, del Archaeology Data Service, explica que el formato de los archivos usados en los ordenadores cambia tan rápidamente que lo que se crea en el ultimísimo programa disponible puede resultar inservible dentro de un año, quedando ilegible dentro de quizá no mucho tiempo más (sobre todo cuando los viejos discos dejan de poder ser leídos ante la falta del hardware adecuado). Es entonces cuando los especialistas en esta ciencia se han visto obligados a hacer arqueología de sus propios trabajos, a la búsqueda de la rehabilitación de una información muy valiosa que podría perderse (los discos y cualquier otro medio magnético pueden ser susceptibles a sufrir la corrupción de los datos que contienen). Conscientes de este peligro, el doctor Westcott y sus colegas de la University of York han empezado a rescatar y preservar más de 7.000 archivos de su área de influencia (unos 120 megabytes de datos), exportándolos a formatos más modernos. No sólo eso, la información, a partir de ahora, estará disponible en Internet, accesible por cualquiera que lo desee. El objetivo es actualizar los formatos cada cierto tiempo, para asegurar que siempre esté disponible sin ningún problema. Información adicional en: http://ads.ahds.ac.uk/; http://ads.ahds.ac.uk/catalogue/ http://ads.ahds.ac.uk/press/1-2000release.html Imagen: http://ads.ahds.ac.uk/press/1-2000-3.jpg El origen de la inclinación de la orbita lunar La misteriosa inclinación orbital de nuestro satélite podría ser el resultado de la misma gigantesca colisión contra la Tierra que al parecer le dio forma. 776 El Hijo de El Cronopio No. 71 Una de las teorías más aceptadas sobre el origen de la Luna dice que un planeta de un diámetro semejante a Marte chocó contra la Tierra. El catastrófico encuentro proporcionó el material suficiente para su formación, dotándole además de las particulares características geológicas que posee nuestro satélite. De la misma manera, la curiosa inclinación de su órbita con respecto al ecuador terrestre (unos 10 grados) podría estar relacionada con este suceso. Así lo creen los científicos del Southwest Research Institute, quienes han simulado en potentes ordenadores la evolución de la órbita lunar, moviéndose hacia atrás en el tiempo. Sabiendo que la Luna se aleja paulatinamente de nosotros es fácil llegar a la conclusión de que ésta se formó mucho más cerca de nuestro planeta. La mayoría de los satélites de otros planetas en el sistema solar poseen inclinaciones orbitales inferiores a 1 ó 2 grados. Para explicar por qué la de la Luna es mucho mayor, hay que retroceder y contemplar el choque que, hace 4.500 millones de años, se produjo entre la Tierra y otro planeta algo menor. El principal resultado de este impacto fue un disco caliente de restos, girando alrededor del ecuador de nuestro planeta. Para dar pie a un satélite con el tamaño de la Luna, el choque debió crear un disco con una cantidad de material equivalente a dos masas lunares. Las partículas exteriores y más cercanas a la Tierra resultaron perturbadas por la gravedad terrestre, impidiendo su unión con el resto. La Luna se habría formado con la materia restante a unos 22.000 km de nuestro planeta. Su propia gravedad habría entonces ocasionado una serie de ondas en el disco interno y diversos efectos de resonancia. La interacción gravitatoria entre el satélite y dichas ondas habría modificado la inclinación de la órbita. Bastaría un disco con entre un 25 y un 50 por ciento de la masa lunar, durante menos de un siglo, para generar una inclinación orbital de hasta 15 grados, lo cual está de acuerdo con lo observado. Imagen: http://images.jsc.nasa.gov/images/pao/AS11/10075298.jpg (La Luna.) (Foto: Johnson SC) La Ciencia desde el Macuiltépetl/ Don Cuco y sus parientes Por Manuel Martínez Morales Porque tú formaste mis entrañas; tú me hiciste en el vientre de mi madre Salmos Todos los sábados por la tarde, puntualmente, la querida tía Lilia nos conducía, a mis hermanos y a mí, a las lecciones de catecismo que tenían lugar en cierto convento de monjas capuchinas. No me molestaba en absoluto asistir al catecismo; era más bien una experiencia emocionante puesto que en el barrio corría la versión de que la casona, albergue del convento , estaba embrujada. Caminar por aquellos oscuros pasillos con rechinantes pisos de madera, siempre olientes a incienso, me impresionaba singularmente. En la primera lección se nos dijo que Dios había hecho al primer hombre de barro: “Entonces Jehová Dios formó al hombre de polvo de la tierra y sopló en su nariz aliento de vida y fue el hombre un ser viviente” (Génesis). 777 El Hijo de El Cronopio No. 71 Aún conservo nítidamente la imagen que me formé entonces de aquel hombre primigenio, hecho de barro inerte, animado de pronto, adquiriendo su humanidad al soplo de su creador. Más tarde fui obsesionándome morbosamente por todo tipo de leyendas y relatos sobre androides y criaturas humanoides. La historia del doctor Frankestein ocupa un lugar privilegiado en mi catálogo personal de golem. Hace años me encantó enterarme que, según la mitología maya-quiché, el hombre fue hecho de maíz. Esos fabulosos Hombres de Maíz de Miguel Ángel Asturias aún iluminan mi imaginación. En todos los mitos y leyendas sobre la creación del hombre, se trasluce una concepción dual sobre nuestra naturaleza; somos materia y espíritu, carne y alma. El hombre ha sido formado de material elemental –barro, maíz, madera, caldo primigenio–, pero para vivir fue necesario que recibiera el soplo divino; sin este soplo, sin alma, el hombre no pasaría de ser un “humanoide”, un maniquí, un monstruo o una caricatura del verdadero ser humano. Al tratar de caracterizar lo que distingue lo vivo de lo muerto, los biólogos contemporáneos encuentran un escollo. Verifican que, según los paradigmas vigentes sobre la objetividad del conocimiento, la vida no puede explicarse. De ahí el recurso a las interpretaciones soslayadamente vitalistas y animistas. El mejor intento que conozco por salvar el obstáculo es la formulación del concepto de teleonomía, propuesto por Jacques Monod (El azar y la necesidad, Ensayo Sobre la Filosofía Natural de la Biología Moderna, Monte Avila, Ed., 1971). Este concepto tiene ciertos matices metafísicos, lo cual es por demás positivo, pues ¿acaso puede hacerse ciencia sin invocar a la metafísica? Otra corriente epistemológica que trata de explicar el fenómeno de la vida es la representada por IIya Prigogine, según la cual la dinámica de la naturaleza, incluyendo al hombre, obedece tanto a causas materiales y eficientes, como a causas finales; el futuro determina el presente, la idea de propósito se acepta como término epistemológico respetable. Aristóteles es reivindicado. Don Cuco es un robot bastante bien diseñado, que puede moverse, cantar y realizar algunas tareas elementales. Don Cuco es creación del grupo de investigadores que dirige el doctor Alejandro Pedroza, especialista en Bioelectrónica y Premio Nacional de Ciencias. Este autómata fue construido en la Universidad Autónoma de Puebla y estuvo en exhibición en el pabellón mexicano de la Feria Sevilla 92. A don Cuco le fue como en feria al regreso de la misma, pues casi se pierde en el camino. Su constructor sospecha de competidores que tal vez intentaron apoderarse de los circuitos y programas que “animan” a Don Cuco. Este simpático androide pertenece a una variedad de robots más bien inofensivos, divertidos y útiles. Más peligrosos, diabólicos, son los golem, cuya creación se avizora como consecuencia de ambicioso proyecto Genoma Humano. Es éste un proyecto de investigación multinacional e interdisciplinario en el que se han invertido más dólares que en ningún otro proyecto individual desde el Proyecto Manhattan, relacionado éste con el diseño y construcción de la primera bomba de hidrógeno. El objetivo último del proyecto es descifrar completamente el código genético humano, con la intención explícita de poder modificar los genes individuales. De este modo, especulo desaforadamente, podrían “crearse” humanoides con las características que se quieran de carne y hueso (Un Mundo Feliz, de Aldous Huxley, está a la vuelta del siglo). 778 El Hijo de El Cronopio No. 71 Junto a éstos, sus parientes lejanos, Don Cuco se miraría como hoy miramos una carreta al lado de una nave espacial. ¿Para qué, me pregunto, llegar a tales extremos de soberbia y transgresión moral? ¿Por qué no conformarnos con dar vida a otros seres como Dios manda, mediante el sano y placentero mecanismo sexual para el que estamos dotados? Claro que en este proceso natural hay mucho azar; ignoramos cuál de los millones de seres que potencialmente podemos engendrar será concebido en el encuentro amoroso; no podemos escoger el color de ojos, la estatura, la inteligencia, el color de la piel, el carácter o la constitución física de nuestros hijos. No los podemos “programar”, no podemos hacerlos a nuestra medida y antojo, ni podemos garantizar que serán felices en la vida. Sin embargo, hay un sagrado regocijo en dar vida a un hijo, con los riesgos y responsabilidades que implica; pues, como bien dicen en mi tierra, “no le aunque que nazcan chatos, con tal que resuellen bien”. El Cabuche (crónicas de la Facultad de Ciencias)/ En el Teatro de la Paz Alejandro Pedroza Meléndez investigador de la Benemérita Universidad Autónoma de Puebla, potosino de nacimiento es además, así se le conoce, el papá del ilustre Don Cuco el Guapo, un robot construido por el grupo de Alejandro en la universidad poblana que causó revuelo a partir de 1992. Don Cuco tiene la virtud de ser un autómata que sabe tocar el piano acompañado de su propio conjunto, eso sí, de buenos músicos. Con la ayuda de Don Cuco el grupo de Alejandro ha recorrido el grueso de la República haciendo divulgación científica, con una mezcla de ciencia y arte deleitando y entusiasmando a niños y adultos. En 1993 quedamos de acuerdo con Alejandro de presentar el robot pianista en San Luis, para lo cual entramos en contacto con el Instituto de Cultura a fin de poder realizar un par de conciertos en el majestuoso Teatro de La Paz. Convertidos en productores nos dimos a la tarea de organizar los detalles del concierto, en esas andábamos cuando un grupo de alumnos de la facultad, nos solicitó presentáramos al robot en el mes de marzo, justo en la Semana de Ciencias, en esa época aún se le designaba Semana de Física y estaba en transición el nombre a Semana de Ciencias. La propuesta significaba adelantar tres meses la presentación; accedimos a la solicitud y se apresuraron los trabajos a fin de tener todo a tiempo. El trabajo de promoción de los alumnos no fue lo esperado; sin embargo, la presentación del robot había despertado la curiosidad de un amplio sector de la población. El concierto se programó finalmente para el 10 de marzo de 1994, en dos funciones 18:00 y 21:00 horas, en el marco de la XXXII Semana de Ciencias. Llegado el día tuvimos que vivir la experiencia de lo que es armar un escenario, que significaba además armar el robot que es transportado en cajas, y enfrentarse a contratiempos técnicos, como el que una tarjeta electrónica que conecta a la computadora el control del robot se quemará, y al parejo del ensayo de los músicos, movimiento de cables, luces, ajustes de sonido etc. Se implementará un taller donde los electrónicos de Puebla apuraran el repuesto de la tarjeta; sin mencionar la atención que se tenía que dar a los medios de difusión que abundaban en espera de tomar algunas escenas y placas previas del robot. Finalmente con 30 minutos de retraso comenzó el concierto que fue llamado Comunicación: Don 779 El Hijo de El Cronopio No. 71 Cuco el Guapo acompañado del grupo experimental y de investigación en música electrónica (GEIME), en el que participaba el pianista Jorge Sánchez Chantres quien ya se había presentado en el Teatro de la Paz como director musical del grupo del cubano Amaury Pérez. Los integrantes del grupo de Don Cuco el Guapo (mi tocayo por cierto, sí, en todos los sentidos) estaba conformado por: Músicos: Don Cuco el Guapo (solista); Arturo Mawcinitt Frías (guitarra); Isaac Sosa Hamud (bajista); Jorge Sánchez Chantres (teclados); Alejandro Pedroza Meléndez (teclados); Victor Illarramendi (baterista); Sonido: Jesús Portillo; Escenografía: Adriana Arenas; Ingenieros de Sistemas: Héctor vargas Martínez, Pedro Miranda Romagnoli; Imágenes y Efectos Especiales: Rodolfo Pérez garcía, Gerardo Villegas Rosas; Neumática: Ignacio Becerra Ponce de león; Sistema de Control: Javier Méndez Mendoza; Mecánica: Domingo Vera Mendoza; Apoyo Técnico: Benjamín Parra y Jaime Pérez; Director del Grupo: Alejandro Pedroza Meléndez. Bueno, aquí en la Facultad también el Chino tiene su robot y a control remoto, eso sí, no tiene grupo es para el solito, parece que también toca. El programa de mano que fue repartido en aquella ocasión decía lo siguiente: Don Cuco el Guapo debutó el 4 de septiembre de 1992. Su éxito en la exposición universal de Sevilla lo llevó a ser conocido en todo el Mundo. En 1993 se presentó en las ciudades de Monterrey y Puebla ante miles de espectadores lo que acrecentó su popularidad en todo el país. Ahora en San Luis Potosí, se presenta por primera vez acompañado del grupo experimental y de investigación en música electrónica (geime). En el concierto COMUNICACIÓN se integra la música electrónica y clásica amalgamada con elementos nacionales. La rica gama acústica se complementa maravillosamente con imágenes de arte, técnica, historia y futuro. En este concierto se incluyen obras musicales escritas por los músicos del mencionado grupo. En la obra musical El Juicio Final (de Arturo Mawcinitt), el autor anclado a su plano temporal espacial viaja a los momentos del juicio final, donde gente sin fe sufre el terrífico castigo anunciado. Ve como los bienes, el dinero, el poder y la soberbia no valen nada. Pero entre todos esos hombres castigados por los jinetes del Apocalipsis ve a hombres dignos y llenos de fe que son salvados por un ángel. En la melodía 365 (de Arturo Mawcinitt) se recrea el ciclo anual que ya no condiciona la vida del hombre que ha conquistado todo el mundo. Inventos e ideas geniales lo llenaron de bienes y las enfermedades son erradicadas. Solo el SIDA, el cáncer y la catástrofe ecológica quebrantan la armonía de los 365 días. El hombre encuentra una solución: la simbiosis hombre-máquina, que no enferma y que cuenta con una fuente inagotable de energía, el orden y la armonía de los 365 días ya no son necesarios y esto anuncia el día del juicio final. En la obra Comunicación ( de Isaac Sosa), se narra como Isaac siendo el primer hombre que se comunica con una máquina se ve en la necesidad de enseñarle su arte. Los fríos tiempos mecánicos de Don Cuco tienen que acondicionarse a los tiempos biológicos humanos. Don Cuco escucha, repite y se equivoca; Isaac enseña y corrige. En un mundo en caos filosófico y falto de valores humanos, el futuro empieza con frágil comunicación entre Isaac y Don Cuco y se vuelven los progenitores del futuro hombremáquina. El Dr. Pedroza, autor de Recordando a Bach, hace un viaje en el tiempo y una falla en su computadora fractal, hace que se meta en un torbellino cósmico que lo lleva al futuro. 780 El Hijo de El Cronopio No. 71 Asombrado, contempla como el sol ha disminuido su actividad en un 5% lo que es suficiente para que el planeta Tierra se congele. Los recuerdos llegan a él como un relámpago y los más gratos, son para el genial maestro Bach. En esa vorágine de recuerdos secuenciados fractalmente, ve a su amada ciudad de Puebla en la que resalta, su bella catedral e iglesias con sus viejos recovecos, sus imponentes columnas, sus monumentales órganos y cuando levanta la cabeza al cielo en busca de consuelo, ve esos bellos vitrales que apenas dejan entrar la luz, para que los feligreses se acerquen a Dios. La falla se corrige y su viaje vuelve a la normalidad. De esa experiencia, escribe la obra Concierto Cósmico No.2, que es un homenaje a la ciudad de Puebla. El Dr. Pedroza hace más de diez años inició su actividad musical con los conciertos cósmicos y ahora, junto con su genial creación Don Cuco el Guapo prosigue en su titánica labor musical. Al nacer Don Cuco, Jorge trata de enseñarle las notas musicales, pero el robot no le responde. Héctor, que habla el lenguaje de máquina, auxilia al músico y entre los dos logran establecer la comunicación hombre-máquina, Jorge cercano al arte y Don Cuco cercano a todos los mexicanos; hacen con su comunicación la armonía del futuro hombre-máquina. Jorge hace los bellos musicales de las obras que interpreta Don Cuco y no deja que desarmonice en ninguna de sus interpretaciones. En el futuro el Dr. Pedroza, Jorge, Isaac y Héctor serán recordados como los hombres que hicieron de una máquina un ser humano que está en el corazón de todos nosotros. Hasta aquí lo escrito en el programa de mano. El par de conciertos respondieron a las expectativas. Al día siguiente trasladamos el robot al auditorio de la Facultad de Ingeniería, en donde Alejandro Pedroza y su grupo hablarían del robot y sus experiencias; Don Cuco fue armado, aunque no para interpretar melodías, por falta de tiempo; el auditorio de Ingeniería quedo pequeño para la asistencia que se dio cita a presenciar el robot, en la misma sesión se transmitió parte del concierto que fue grabado en el Teatro de La Paz. No fue la única ocasión que Don Cuco visitó San Luis por invitación de la Facultad de Ciencias, en el mismo año 1994, pero en el mes de noviembre se presentó en un concierto-conferencia para niños y grupos escolares en donde se trató el tema de la robótica y ciencias afines y se con la actuación de Don Cuco el Guapo al piano tocando melodías populares. Los niños disfrutaron y bailaron con Don Cuco el Guapo, el robot pianista mexicano. Entre los atributos de Don Cuco, se encuentra no sólo en ser bien parecido. De cuerpo, tallado en acrílico transparente, con el propósito de que se vean a simple vista sus “órganos vitales”, tienen la musculatura propia de un atleta, para conseguir tal perfección, la escultora Gloria Weimberg, tuvo que hacer 40 moldes. Pero no es todo, pues a la belleza de sus formas se suma su talento. El robot también es pianista y está dotado de visión artificial para reconocer patrones musicales y de voz. Para controlarlo, además de la electrónica se recurrió a la neumática. Con el auxilio de esta última, los servomotores (máquinas que se detienen en cuanto se les da una orden) permiten a Don Cuco mover el brazo, antebrazo y manos para efectuar ciertos movimientos. Don Cuco no canta, pero en su repertorio musical preferido se encuentra el Huapango de Moncayo; por esta ocasión cerramos la sección imaginando el mentado Huapango. 781 Boletín El Hijo de El Cronopio Facultad de Ciencias Universidad Autónoma de San Luis Potosí No.72, 3 de abril de 2000 Boletín de información científica y tecnológica de la Facultad de Ciencias Publicación semanal Un imán ajustable Conducción más suave Impacto súbito Edición y textos Fís. J. Refugio Martínez Mendoza Como se orientan los pájaros Sonría por favor Cualquier información, artículo o anuncio deberá enviarse al editor e-mail: flash@galia.fc.uaslp.mx Este boletín y números anteriores, pueden consultarse por Internet en la página de la UASLP: El súper-radiotelescopio Microrobots contra el crimen y al rescate Vida virtual http://phobos.dtc.uaslp.mx/publi.html Noticias de la Facultad Noticias del Espacio Acuerdos del H. Consejo Técnico Consultivo Noticias de la Ciencia y la Tecnología La Ciencia desde el Macuiltépetl/ Religión y ciencia Con Nerón, el arte ya no fue lo que era Lunas reencontradas El Cabuche (crónicas de la Facultad de Ciencias)/ Einstein forever II El Hijo de El Cronopio No. 72 Noticias del Espacio ♦ La NASA está tan interesada en la búsqueda de vida primitiva en el probable océano líquido que estaría bajo el hielo que cubre la superficie de la luna Europa, que no quiere arriesgarse a que la sonda Galileo pueda llegar a contaminarla en el futuro. Aunque el vehículo sigue activo y resistiendo los embates de la radiación presente en el medio ambiente joviano, los técnicos creen que su vida útil no se prolongará mucho más. Cuando ello ocurra, podría no ser posible el contacto desde la Tierra, así que la NASA está estudiando la posibilidad de enviarla con antelación hacia una ruta de impacto contra Júpiter o contra alguno de sus otros satélites, asegurando así que no pueda chocar contra Europa. La Galileo no fue esterilizada tras el lanzamiento debido a la naturaleza de su misión, y aunque es improbable la presencia de microorganismos vivos transportados desde la Tierra después de las altas dosis de radiación a la que ha sido sometida la nave, no es descartable que la sonda contenga aún alguna traza de vida capaz de contaminar Europa en caso de un impacto futuro incontrolado. De lo contrario, los futuros vehículos que intentarán descubrir si hay o no vida primitiva en Europa podrían ver alterados sus resultados. Otra posibilidad es que la Galileo realice una serie de asistencias gravitatorias con los diversos satélites y el propio Júpiter, lo cual permitiría su salida de la órbita joviana y su entrada en una órbita solar definitiva, donde aún podría ser útil. En cualquier caso, ninguna de las alternativas posibles se llevaría a cabo antes del final de la presente fase de la misión, en febrero de 2001. ♦ La Oficina de Historia de la NASA anuncia la actualización del Apollo 15 Flight Journal. Se han añadido tres nuevas secciones, las cuales incluyen el período de tiempo que va hasta el encuentro en órbita lunar, la liberación del módulo lunar y el posterior día de descanso de la tripulación. También se ha añadido un ensayo sobre las técnicas de encuentro en órbita lunar (LOR) y muchas fotografías. Disponible en: http://history.nasa.gov/ap15fj/ ♦ El 1 de abril fue un día de celebración para la comunidad meteorológica mundial. El primer satélite de este tipo, el Tiros-1, fue lanzado hace 40 años desde Cabo Cañaveral, a bordo de un cohete Thor-Able-II. El Television Infrared Observation Satellite demostró que era posible seguir desde el espacio la evolución de la capa nubosa, aumentando la precisión de los pronósticos meteorológicos a medio y largo plazo. En la actualidad, nadie puede imaginarse la no disponibilidad de estos vehículos, los cuales han llegado a altas cotas de sofisticación y que en ocasiones influyen decisivamente en numerosos aspectos de nuestra vida social. Más información en: http://www.nesdis.noaa.gov/40th.html http://www.ncdc.noaa.gov/pub/data/images/tiros1.gif http://www.photolib.noaa.gov/lb_images/space/spac0046.htm http://goes1.gsfc.nasa.gov http://rsd.gsfc.nasa.gov/goes/ http://poes2.gsfc.nasa.gov 784 El Hijo de El Cronopio No. 72 ♦ La NASA ha llevado a cabo con éxito el vuelo más prolongado hasta la fecha del X38, el prototipo a escala de vehículo de emergencia para la ISS. El quinto ensayo de la serie se llevó a cabo el 30 de marzo en el Dryden Flight Research Center (Edwards, California) y sólo se vio afectado por un despliegue defectuoso de uno de los segmentos de su tren de aterrizaje. Un avión NB-52 llevó al vehículo hasta los 39.000 pies, desde donde fue soltado en vuelo libre hasta igualar la trayectoria que el X-38 tendrá de regreso en la atmósfera procedente del espacio. El vuelo libre se prolongó durante 44 segundos, a partir de cuyo momento desplegó su enorme paracaídas/parapente. El diseño de este último es una versión mejorada de los utilizados hasta ahora. Unos 11 minutos y medio después, el X-38 se posó sobre la superficie, con la única dificultad ya mencionada de que uno de los tres esquíes que emplea como tren de aterrizaje no se desplegó. Los ingenieros del programa están muy satisfechos del vuelo, ya que además de demostrar el buen comportamiento del parapente, también pudieron comprobar que el software de control respondió bien. Se esperan nuevos ensayos durante lo que queda de 2000 (el primero en verano) y el año próximo, culminando con un vuelo orbital en 2002. Noticias de la Ciencia y la Tecnología Con Nerón, el arte ya no fue lo que era El arte pictórico romano debe gran parte de su decadencia al emperador Nerón, quien prefirió adornar las paredes de sus palacios con mármol para elevar aún más su figura. Nerón, el famoso y despótico emperador romano, no fue sólo el responsable del incendio que devastó Roma en el año 64 de nuestra era. Sintiéndose inclinado a imitar a los gobernantes helénicos, decidió prescindir del arte pictórico en muchas de las paredes de sus palacios, reemplazándolo por el frío mármol típico de las construcciones suntuosas de origen griego. Las investigaciones arqueológicas llevadas a cabo por especialistas holandeses de la NWO en la llamada Domus Aurea (la "casa dorada" de Nerón, construida después del incendio), demuestran que las habitaciones imperiales estaban adornadas sólo con mármol, mientras que las pinturas estaban presentes en las zonas menos importantes. Los arqueólogos de la Leiden University y de la Amsterdam University (UvA) han determinado que cada habitación fue decorada dependiendo de su función, estableciéndose un orden jerárquico proporcional a la cantidad de mármol utilizado en las paredes. Así, las habitaciones de Nerón estaban recubiertas de este material, mientras que las de los sirvientes sí contenían pinturas. Hasta la llegada del reinado de Nerón, el arte pictórico romano se encontraba en pleno florecimiento, alcanzando cotas de creatividad muy interesantes, como se puede ver en los edificios conservados de Pompeya. A partir de entonces, la calidad pictórica fue en descenso, tal y como permiten entrever las casas de Ostia. El estudio de la "casa dorada" es importante ya que es el único complejo residencial de la Roma imperial cuya decoración se ha preservado. Fue descubierta en el año 1500 y el ala accesible posee al menos 150 habitaciones. Curiosamente, las pinturas encontradas en 785 El Hijo de El Cronopio No. 72 ellas dieron un nuevo ímpetu al arte europeo de la época, inspirando a la escuela de Rafael. Información adicional en: http://www.nwo.nl/english/nwo/newsarchive/00februari4/content.html Lunas reencontradas Fueron descubiertas por la sonda Voyager alrededor del planeta Urano, en 1986, pero hemos tenido que esperar 14 años para poder contemplarlas de nuevo. El envío de vehículos automáticos hacia otros planetas tiene grandes ventajas. La proximidad puede deparar en tales ocasiones considerables sorpresas. Por ejemplo, en enero de 1986, la sonda Voyager-2 sobrevoló Urano en su camino hacia el exterior del Sistema Solar. Durante su breve encuentro, la nave fotografió el planeta y sus satélites naturales. De estas imágenes surgieron dos nuevas lunas, desconocidas debido a su pequeño tamaño: 1986 U7 y 1986 U8. Más tarde, recibirían el nombre oficial de Cordelia y Ofelia, pero no fueron vistas nunca más. Ningún telescopio había podido identificarlas después de la visita de la Voyager. Catorce años después, sin embargo, los astrónomos han logrado encontrarlas de nuevo. Investigadores de la University of Arizona, de la Cornell University y del Wellesley College, así lo anunciaron el 2 de marzo. Para conseguirlo, han empleado fuertes dosis de teoría física y, sobre todo, imágenes proporcionadas por el telescopio espacial Hubble. Los astrónomos han definido ya las órbitas de Cordelia y Ofelia, y con ello podrán generarse efemérides que permitan su seguimiento continuado en el futuro. Los dos satélites tienen un interesante papel en el sistema de Urano. Se les llama "lunas pastoras" porque su presencia mantiene la integridad del anillo Epsilon que rodea al planeta. Los anillos de Urano son tan finos que se disolverían en poco tiempo si una fuerza gravitatoria suplementaria no actuara en sus cercanías, papel que podemos asignar a Cordelia y Ofelia. Se trata de lunas muy pequeñas. Su diámetro no debería superar los 45 km. Ofreciendo una escasa superficie sobre la que los débiles rayos del Sol puedan reflejarse, incluso el Hubble ha tenido problemas para localizarlas. Las imágenes del telescopio, no obstante, muestran distorsiones en los anillos de Urano que delatan su presencia. Información adicional en: http://www.news.cornell.edu/releases/March00/UranusMoons.bpf.html http://spacescience.com/headlines/y2000/ast07mar_1.htm Imagen: http://spacescience.com/headlines/images/lostmoons/dustrings_med.gif (Una sección de los anillos de Urano y algunos de sus satélites.) (Foto :JPL) Un imán ajustable La obtención de un nuevo material cuyas propiedades magnéticas pudieran ser ajustables por el usuario abriría todo un nuevo campo de aplicaciones. La revista Science informa sobre los primeros pasos realizados hacia la obtención de un nuevo material de aplicaciones múltiples y muy atractivas. 786 El Hijo de El Cronopio No. 72 Los investigadores buscan desde hace tiempo un material moldeable, ligero pero duro y resistente, cuyas propiedades magnéticas puedan manipularse a voluntad. Podría usarse en el almacenamiento masivo de datos, como recubrimiento antiestático para aviones o naves espaciales, y para muchas otras cosas más. Es en este sentido hacia donde marchan las investigaciones de varios científicos de la canadiense University of Toronto. Mark J. MacLachlan y sus colegas manipularon moléculas de hierro y polímeros, transformándolas en un material cerámico magnético, que ha podido ser moldeado de distintas formas. Altas dosis de calor (a partir de 500 grados Celsius) en una cámara de pirolisis hacen que el hierro que contiene este material se agrupe y forme nanocúmulos. Cuanto mayores son estos nanocúmulos, más ferromagnéticos son, de manera que el ajuste de la temperatura en la cámara sirve para determinar sus propiedades magnéticas. Así pues, utilizando moldes, la cerámica puede adoptar cualquier forma, y en función de la temperatura, actuar como un imán más o menos potente. El material puede construirse en forma de polvo, cables, películas, cintas, etc., con lo que sus aplicaciones en diversos ámbitos son muy amplias. La industria informática y la aeroespacial se muestran especialmente interesadas en él, lo que garantiza su rápido desarrollo y producción a gran escala. Información adicional en: http://www.aaas.org/ Conducción más suave La investigación de las ondas gravitatorias servirá también para que nuestra conducción en la carretera sea más cómoda. La industria automovilística trabaja incansable para mejorar la seguridad y la comodidad de los vehículos que produce. En algunos casos, la ausencia de vibraciones está alcanzando cotas tan elevadas que puede llegar a desorientar incluso a los ocupantes. La tecnología avanza y los sistemas de amortiguación o de reducción de ruidos no se quedan atrás. Los expertos, sin embargo, creen que no hemos llegado al final del camino. El principal problema para mejorar aún más los sistemas actuales reside en la eficacia de los sensores que, por ejemplo, detectarán los baches y ordenarán al sistema de amortiguación lo que debe hacer. Mark Bocko, un ingeniero eléctrico de la University of Rochester, trabaja en la detección de ondas gravitatorias, un campo fundamental y muy avanzado de la física, en el que se están desarrollando instrumentos muy sensibles. Bocko cree que algunos de ellos podrían aplicarse en la industria automovilística con relativa facilidad. Así, el ingeniero ha empezado a colaborar con una compañía de Buffalo para la obtención de un dispositivo que podrá medir los movimientos graduales, como el frenado o el giro, con una precisión jamás alcanzada. Cuando se diseña un automóvil, una máquina industrial o un puente, los ingenieros necesitan saber cómo les afectarán las vibraciones o los golpes. En el caso de un coche, las vibraciones no sólo son molestas sino que además pueden causar fatiga en los materiales, aumentando el número y la frecuencia de las reparaciones. Los diseñadores también desean saber en qué medida podrá sobrevivir un automóvil a un accidente, y 787 El Hijo de El Cronopio No. 72 para ello necesitan medir su respuesta frente a los choques de prueba a los que son sometidos los prototipos. Bocko diseñó para su labor investigadora detectores capaces de medir movimientos tan pequeños como una milésima del diámetro de un protón. Su experiencia está siendo ahora aplicada en el desarrollo de detectores más avanzados que los tradicionales basados en cristales llamados piezoeléctricos, que producen una carga eléctrica cuando son sometidos a compresión. Los nuevos sensores serán un paso adelante en la carrera hacia el diseño de coches más seguros y cómodos. Información adicional en: http://www.rochester.edu/pr/News/NewsReleases/latest/WWWMBOCKO.html Impacto súbito Un nuevo laboratorio experimental permitirá estudiar las características balísticas de impactos de proyectiles a gran velocidad. El Glenn Research Center, de la NASA, ya dispone de un nuevo edificio dedicado a la investigación de las propiedades de los impactos producidos por proyectiles. El llamado Edificio 49 dispone de un cañón de gas de más de 12 metros de largo, capaz de lanzar proyectiles a velocidades de hasta 1.600 km/h. Una cámara de alta velocidad (2,5 millones de imágenes por segundo), permitirá estudiar cada fase de los experimentos. El objetivo es comprobar cómo se comportan diversos materiales al resultar afectados por dichos proyectiles. No sólo nos interesa saber si pueden sobrevivir a ellos, sino también cómo se deforman o acaban fallando. Gracias a este instrumental, los expertos en materiales podrán probar nuevas aleaciones y configuraciones estructurales. Una inmediata aplicación la tenemos en las carcasas de los motores de los aviones, que a menudo son golpeadas por pájaros o granizo y que pueden llegar a fallar, provocando un grave accidente. Los motores modernos son muy resistentes y aguantan bien estos contratiempos, pero son asimismo demasiado pesados. Los científicos preferirían encontrar nuevas estructuras más ligeras, así que el centro Glenn ayudará a certificar que éstas podrán realizar su trabajo con total seguridad. Los proyectiles lanzados por el cañón de gas pueden ser grandes o pequeños, ser poco o muy pesados, e incluso tener una forma irregular. Todos ellos serán probados contra aleaciones intermetálicas, materiales compuestos reforzados con fibras, polímeros, etc. Al mismo tiempo, los ensayos ayudarán a demostrar la fiabilidad de los modelos de ordenador que ya se están empleando para reducir el número de pruebas. Información adicional en: ftp://ftp.hq.nasa.gov/pub/pao/pressrel/2000/00-034.txt Imagen: http://www.grc.nasa.gov/WWW/PAO/pressrel/images/00-xxi1.jpg (El cañón de gas, preparado para acelerar proyectiles a más de 1.600 km/h.) (Foto: Glenn Research Center) http://www.grc.nasa.gov/WWW/PAO/pressrel/images/00-xxi2.jpg (Esquema del sistema.) (Foto: Glenn Research Center) 788 El Hijo de El Cronopio No. 72 Como se orientan los pájaros Las aves migratorias utilizan el campo magnético terrestre para moverse de un lado a otro, pero, ¿dónde está la brújula magnética que parecen utilizar para esta tarea? El campo magnético terrestre no sólo ayuda a los humanos a orientarse sobre la superficie. Animales tan diversos como las aves migratorias, las salamandras, ciertos roedores o el salmón, lo emplean también para una función semejante. Si bien esto se contrastó hace tiempo, los científicos no habían localizado aún el sistema sensor que les permite aprovecharse del campo geomagnético, algo así como la "brújula" que les indicará el camino que deberán seguir. Científicos de la University of Illinois creen estar avanzando en la dirección correcta al descubrir un fotorreceptor de luz azul, situado tanto en los ojos como en los cerebros de los animales que utilizan esta técnica, cuyo papel podría ser esencial. El citado fotorreceptor, llamado "criptocromo", ya es conocido como un importante sistema que regula el ciclo día/noche en los animales. Las biomoléculas típicas interaccionan con el campo magnético terrestre de una forma demasiado débil como para alterar el curso de sus reacciones químicas. Sin embargo, las reacciones bioquímicas de los criptocromos sí pueden ser influidas por un campo magnético con una intensidad comparable a la que tiene el de la Tierra. Los pájaros migratorios y otros animales, en muchos casos, no pueden distinguir entre el norte y el sur basándose sólo en información magnética. Para solucionarlo, emplean luz. Las reacciones generadas en los criptocromos ayudan a modular la sensibilidad visual. Los animales "ven" el campo geomagnético a base de superponer sobre las imágenes visuales la información sobre la dirección del campo magnético. De hecho, cuando son sometidos a luz monocromática roja, pueden sufrir un comportamiento errático, lo que denota la importancia de los fotorreceptores en la capacidad de orientación. Información adicional en: http://www.admin.uiuc.edu/NB/00.03/migrationtip.html Sonría por favor Hay un momento en el caótico período de desarrollo de los adolescentes a partir del cual las chicas empiezan a sonreír más a menudo que los chicos. Cada año, los alumnos de centros educativos de todo el mundo, juntos o por separado, son llamados para poner en práctica una costumbre muy extendida: la participación en sesiones fotográficas que inmortalizarán su rostro para la posteridad. El rápido desarrollo físico e intelectual que afecta a todos en una época tan especial del ser humano parece reflejarse en cada una de estas imágenes. Muchas, seguramente, se convertirán en un recuerdo imborrable. Pero hay algo más en estas fotografías que el simple hecho de mostrarnos cómo hemos ido cambiando con el paso del tiempo. En ellas pueden apreciarse, además, síntomas claros de la evolución psicológica del individuo. Un investigador de la Washington University ha dedicado innumerables horas a contemplar más de 15.000 fotografías de este tipo. Y una de sus principales conclusiones es bien curiosa: a partir de una determinada edad, las chicas empiezan a sonreír más a 789 El Hijo de El Cronopio No. 72 menudo que los chicos. Esto ocurre a partir de los 9 a 12 años, confirmándose a los 14 y prolongándose en la época en la que nos hacemos adultos. Aunque nadie sabe por qué las mujeres sonríen más que los hombres, su tendencia a hacerlo está bien documentada desde hace años. El principal interés de este estudio reside en identificar el preciso momento, el período de transición en que ambos sexos se diferencian en esta faceta. En el jardín de infancia, los porcentajes son parejos, pero en cuanto los individuos empiezan a crecer, las diferencias se hacen patentes. Hasta el cuarto grado, el 77 por ciento de los chicos sonríen en sus fotografías, por el 89 por ciento de chicas. Los dos años siguientes serán más complicados. Los cambios relacionados con la adolescencia y el desarrollo de los aspectos más diferenciados del sexo hacen que sólo el 43 por ciento de los chicos sonrían, frente al 70 por ciento de las chicas. Más adelante, los porcentajes vuelven a crecer, pero siempre con las mujeres tomando la delantera en tan saludable actividad (84 contra 65 por ciento). Aunque se han planteado diversas teorías sobre por qué las mujeres sonríen más que los hombres, la mayor parte de ellas se centran en cómo los preadolescentes responden a los mensajes culturales acerca del sexo y la sexualidad. En los anuncios de la prensa, las modelos aparecen sonriendo mucho más a menudo que los hombres, que deben aportar una imagen de seriedad y frialdad. Estas y otras imágenes son tomadas como estereotipos por los preadolescentes. Por otro lado, la sesión fotográfica puede suponer para la chica un momento social importante, en el que se debe destacar por estar bien vestido y por aportar la mejor imagen de uno mismo. Para el chico, en cambio, la importancia residirá en proporcionar un aire lo más masculino posible, incluyendo la seriedad y frialdad de sus estereotipos. Información adicional en: http://news-info.wustl.edu/nai.html El súper-radiotelescopio Los científicos preparan el diseño del mayor radiotelescopio del mundo, un sistema agrupado de 1.000 antenas que totalizarán una superficie colectora de 1 km cuadrado. La búsqueda inagotable de una mayor sensibilidad y resolución a través de instrumentos más sofisticados está llevando a los radioastrónomos, aquellos que exploran el universo estudiando las ondas de radio que llegan hasta nosotros procedentes de los diversos objetos que componen el Cosmos, a idear un nuevo radiotelescopio cuyo valor se encuentra sobre los 600 millones de dólares. Su nombre le describe: el Square Kilometer Array, o SKA, consiste en un conglomerado de antenas actuando al unísono, cubriendo una superficie colectora total de 1 kilómetro cuadrado. Serán necesarias 1.000 antenas individuales para alcanzar este objetivo. Su puesta en práctica está prevista para dentro de una década. El SKA es una iniciativa internacional y va a necesitar un largo período de gestación para asegurar su éxito. De hecho, el proyecto, iniciado en 1997 y en el que participan seis naciones, ha producido ya no menos de tres diseños distintos. Cada antena, ya sea grande o pequeña, actuará como un radiotelescopio individual, pero capaz de compartir la información recolectada con el resto de unidades, integrándola 790 El Hijo de El Cronopio No. 72 para formar una "imagen" interferométrica cuya resolución no tiene precedentes. Cada antena podrá ser calibrada de forma independiente y ser dirigida con total precisión. Si es necesario, cada una podrá ser orientada hacia direcciones distintas, con lo que se realizarán observaciones simultáneas de objetos diferentes que no requieran el poder de resolución de todo el conjunto. Las antenas estarán interconectadas por unos 5.000 km de cable de fibra óptica. Su posición no será única. De hecho, algunas de ellas podrían encontrarse a hasta 1.000 km de distancia de las demás, dando forma a un interferómetro muy potente. La imagen producida será equivalente a la obtenida por un único radiotelescopio de 1.000 km de diámetro. Su definición será 100 veces mejor que complejos de antenas semejantes, como el Very Large Array (27 antenas situadas en forma de "Y") o la gran antena de Arecibo. El principal problema será encontrar un sitio adecuado para la instalación de tan gran cantidad de antenas. Debe ser un lugar libre de interferencias, en una región accesible y políticamente estable, que carezca de extremos meteorológicos. Por ahora, el principal candidato se encuentra en la región de Upper Gascoyne-Murchison, en Australia occidental. Una vez en operación, el sistema permitirá el descubrimiento de muchos púlsares (estrellas de neutrones giratorias que emiten ondas de radio hacia la Tierra), y también permitirá explorar las fases iniciales de formación y evolución de estrellas y galaxias. Información adicional en: http://www.usska.org http://naic.edu Imagen: http://naic.edu/pictour/platf3.jpg (Sección de la antena de Arecibo.) (Foto: NAIC) Microrobots contra el crimen y al rescate Diminutos robots ayudarán en las tareas de reducción de maleantes y a salvar vidas humanas en peligro. Un equipo de ingenieros de la Michigan State University ha recibido un contrato de la Defense Advanced Research Project Agency, por valor de 1,6 millones de dólares, para diseñar micro-robots adaptables y reconfigurables para ser aplicados en tareas de recolección de información, detención de delincuentes, búsqueda de accidentados y rescate. Cuando se trata de detener a un criminal que no podemos ver, puede resultar muy peligroso acercarse hasta su posición sin conocer bien cuáles son las circunstancias que hallaremos en el lugar. Pocos segundos pueden suponer el éxito o el fracaso total de una empresa. Por eso, cuanta más información dispongamos, mucho mejor. Los microrobots podrían ser una gran solución. Pequeños y manejables, los citados robots podrán moverse rápidamente y cercar al delincuente, penetrando por los lugares más insospechados. La idea es construirlos con un tamaño inferior a los 5 centímetros y equiparlos con pequeñísimas cámaras, sensores térmicos e infrarrojos, micrófonos, etc. La información que recolecten resultará esencial 791 El Hijo de El Cronopio No. 72 durante la fase de toma de decisiones, cuando definitivamente sea necesario el concurso de las fuerzas humanas. Los robots podrán ser depositados en un lugar desde la distancia, desde un helicóptero, e incluso disparados al interior de un edificio como si fueran balas. Deberán disfrutar de una gran maniobrabilidad y autonomía, y poder ser producidos en grandes cantidades, de forma económica. Su tamaño limita su diseño, pero ya se sabe que podrán ascender verticalmente a través de escaleras gracias a ventosas, y avanzar como lo haría una oruga. Tan importante o más que el diseño del robot será el desarrollo del software que controlará la horda de aparatos. A pesar de poder ser dirigidos desde la distancia, poseerán rutinas internas básicas que les dotarán de "reflejos" para actuar frente a situaciones inesperadas, como por ejemplo, obstáculos imprevistos, etc. El software debe permitir asimismo su actuación conjunta y coordinada. El producto final estará listo en mayo de 2001. Vida virtual Los científicos han hecho un nuevo paso adelante en el desarrollo de un mundo virtual en el que la inteligencia artificial tiene un protagonismo especial. Imaginen una sirenita en un juego de ordenador en el que la protagonista trata de escapar de las fauces de peligrosos tiburones. La habilidad del jugador permite sortear todos los peligros y poner la mítica figura a salvo. Algo así han preparado en la University of Toronto, con la diferencia de que el personaje que huye no está dirigido por mentes humanas, sino que se desenvuelve gracias a inteligencia artificial muy sofisticada. Demetri Terzopoulos ha dado a sus personajes la habilidad de pensar. Mientras un hambriento tiburón traza círculos a su alrededor, la sirena busca un lugar donde esconderse. En un momento determinado, el tiburón se aleja, lo que aprovecha la mujer pez para lanzarse al agua. Entonces, el tiburón se lanza en su persecución. ¿Conseguirá escapar? Los esfuerzos de Terzopoulos nos ofrecen algo más que inteligencia artificial. Se trata en realidad de vida artificial, en un ambiente de gráficos, animaciones y realidad virtual. Los personajes poseen cuerpos funcionales y cerebros que muestran un comportamiento, una percepción, y centros de aprendizaje y raciocinio. Terzopoulos y sus alumnos han desarrollado un lenguaje cognitivo que permite a los personajes animados razonar. Por ejemplo, hizo que la sirena formulara un plan de acción basado en el razonamiento y en el conocimiento básico de que, ya que no puede huir de los tiburones, sí puede ocultarse tras las rocas que se hallan bajo el agua, esperando a que los cazadores pierdan la paciencia y decidan abandonarla. Con este tipo de personajes, el animador sólo debe especificar un plan de comportamiento, a través del razonamiento, y éstos adoptarán automáticamente una detallada secuencia de acciones. El modelado cognitivo y el lenguaje que lo hace posible se convertirán en poderosas herramientas para los científicos, los animadores y los desarrolladores de juegos. 792 El Hijo de El Cronopio No. 72 Noticias de la Facultad Acuerdos del H. Consejo Técnico Consultivo En la sesión correspondiente al mes de marzo, el H. Consejo Técnico Consultivo de la Facultad de Ciencias llegó a los siguientes acuerdos: Se postergó el análisis de la propuesta presentada por la Comisión integrada por el H.C.T.C. para atender las solicitudes presentadas por los alumnos pasantes de la Facultad de Ciencias generaciones 1992 y anteriores interesados en obtener su Título Profesional. La propuesta presenta lineamientos generales, mismos que tienen que ser revisados a fin de cuadrarlos con el reglamento general de exámenes, entre otras consideraciones. En asuntos generales, se presentó el análisis de la situación curricular de la Srita. Sandra Eloisa Balderas Mata, alumna de la carrera de Licenciado en Física, con salida terminal en Física Experimental. De acuerdo a la revisión de las materias cursadas por la Srita. Balderas Mata, se considera que el número y tipo de cursos aprobado es suficiente y adecuado para considerarse pasante de la carrera citada. La Ciencia desde el Macuiltépetl/ Religión y ciencia Por Manuel Martínez Morales Probablemente la religión y la ciencia tuvieron un origen común, una misma raíz que era la imperiosa necesidad de los hombres por conocer y transformar su entorno. Aunque esta necesidad no está suficientemente clarificada, es decir, no estamos seguros si el conocimiento se ha buscado sólo por contar con elementos firmes para controlar y modificar nuestro medio, o si esa búsqueda obedece a necesidades subjetivas más profundas, su existencia es innegable. Sólo que, respondiendo a diferentes influencias sociales y económicas, la ciencia y la religión se han constituido en dos islas de la experiencia humana. La ciencia ha tendido hacia el conocimiento objetivo-práctico, orientándose en su origen hacia la conformación de un sistema de conocimientos dirigidos a explicar los fenómenos físicos. Más tarde aparecieron ciencias en las cuales el hombre mismo ha sido objeto de estudio; tales son los casos de las ciencias biológicas y sociales. La religión, por su parte, fue derivando hacia un terreno subjetivo ético inclinándose a establecer normas morales basadas en explicaciones que apelan más a la fe y al dogma que a la razón. La institucionalización, la aparición de instituciones socialmente reconocidas y sustentadas, de la religión y la ciencia acentuó más las diferencias entre los objetivos de ellas y se delinearon con más claridad sus funciones. La ciencia se desentendió de manera tajante y absoluta de todo juicio moral, de todo juicio valorativo en general. En otra vertiente, la religión se integró a la esfera ideológica de las sociedades y, en general, perdió todo sustento racional y terminando por enunciar juicios preceptivos donde la norma es lo existente: esto debe ser así porque así es. La historia nos habla de graves y enconados enfrentamientos entre la religión y la ciencia en los que a veces la primera ha cobrado primacía, y en otras ha sido la segunda; pero 793 El Hijo de El Cronopio No. 72 también han surgido intentos por volver a unir sentimiento y razón, moral y ciencia. Hay en nuestros días un gran movimiento de religiosos y laicos que tratan, de diversas maneras, de lograr no la unión de la ciencia y la religión, entiéndase bien, sino de integrar aspectos de la vida humana que sólo en apariencia se encuentran disociados. Recientemente ha alcanzado proporciones de escándalo el juicio inquisitorial en el cual el Vaticano ha sometido a varios religiosos que sustentan opiniones y tesis conocidas como la teología de la liberación. Para los seguidores de esta corriente, la cuestión es cómo ser un cristiano en un mundo de empobrecidos y miserables. Ya pasó el tiempo de las reformas. Se necesita un proceso de liberación, en el cual los pobres recuperen su dignidad envilecida y ayude a gestar una sociedad, no necesariamente rica, sino justa y más fraterna. (Leonardo Boff, citado en el núm 409 de Proceso) Esto significa no seguir aceptando las cosas como son, sino modificarlas. Y es en este punto en el que se establece un puente con la actitud científica, pues ésta se propone, entre otras cosas, conocer el mundo para transformarlo (la sociedad incluida). Naturalmente, para transformar esta sociedad injusta es menester conocerla y, por ello, no es casual que los teólogos de la liberación sean grandes estudiosos de las ciencias sociales contemporáneas. De modo sorpresivo, los teólogos progresistas no se han conformado con incursionar en las ciencias sociales. Entre otros, tenemos en México el caso del exjesuita José Porfirio Miranda quien, a principios de la década de lo setenta, escribiera el controvertido libro Marx y la Biblia. Porfirio Miranda ha publicado un llamativo texto Apelo a la razón. Teoría de la ciencia y crítica del positivismo (Premiá Ed., 1983), en la cual se da a la dura tarea de esclarecer la manera en que el positivismo, que es sólo una interpretación de la ciencia, ha contribuido a justificar la existencia del capitalismo, poniendo al descubierto también sus falacias epistemológicas y sus serias limitaciones como interpretación filosófica del mundo. Dice Miranda: Saber sobre el mundo más que lo que la simple observación, es saber si lo observado es justo o inicuo, saber si lo observado debe ser o no debe ser. Lo que el positivismo les procura a las clases dominantes es lo que los déspotas siempre han deseado tener: que nadie se abrogue el derecho de juzgar sus acciones y de llamarlas malas. Mientras el explotador sojuzga a un segmento de la humanidad cuyo subyugamiento le permite a él vivir como si fuese superior a los otros seres humanos, el mejor regalo que puede recibir es la proclamación de una doctrina que nos niegue el derecho de afirmar que todos los seres humanos tienen igual dignidad porque la dignidad no es un dato empírico sensorialmente verificable. Cuanto más culpable es un sistema, tanto más tiene que repudiar como anticientífica toda filosofía que lo llame culpable. El positivismo calza demasiado exactamente con las necesidades mentales del capitalismo, es demasiado precisamente la defensa que el capitalismo necesitaba: relativismo pero sin humildad, tachando 794 El Hijo de El Cronopio No. 72 de anticuados y anticientíficos a quienes todavía creen que hay diferencia entre el bien y el mal. Esta intensa polémica entre la religión tradicional y la teología de la liberación rebasa el ámbito de lo puramente religioso y conduce a cuestionar nuestra realidad total, tanto en lo político y social, como en lo intelectual y en lo puramente existencial. El Cabuche (crónicas de la Facultad de Ciencias)/ Einstein Forever II Pues terminó la mentada Semana de Ciencias y la imagen de Einstein descansará, al menos hasta la próxima edición de la semana. En los últimos años la imagen de Einstein ha enmarcado los festejos de aniversario de la Facultad de Ciencias y ha dado nombre a los premios sui generis que los estudiantes, mediante votación, reparten a estudiantes y profesores de la Facultad, justo al cerrar las actividades de la Semana de Ciencias. En esta ocasión unas figurillas doradas como monigotes de dragon ball Z que supongo representan a Einstein cayeron en las manos de al menos una veintena de personajes de la Facultad. Como siempre, la participación entusiasta de los estudiantes da realce a ese tipo de festejos; culminó la Semana con un brillo especial mostrando que después de 38 años mantiene la lucidez y el espíritu con que fue creada. La influencia de Einstein ha sido tremenda, no sólo para la gente en su sano juicio (o sea que no es físico o científico) que lo considera la imagen prototipo del científico, sino para el estudiante en ciernes; no es de extrañar entonces que en las últimas ediciones de la semana aparezca irremediablemente Alberto (el cuate de Miguel Ángel Herrera) adornando los carteles, carpetas, camisetas, reconocimientos y premios. Durante las actividades sociales de la Semana pudimos comprobar, que si bien ha habido cambios (que son naturales) a lo largo de estos 38 años, sustancialmente se mantiene, entre otras cosas, la capacidad de la raza para mover la garganta ante líquidos procesados en base a C2 H5 OH, y haciéndolo, aunque parezca una aberración, sanamente, sin perjudicar a terceros ni llegar a niveles en donde la falta de respeto sea la nota a resaltar. Felicitamos a todos los estudiantes que participaron, tanto en la organización como en los eventos académicos, culturales, sociales y deportivos que se programaron a lo largo de la semana. En especial felicitamos a aquellos que se arriesgaron a que les diéramos una paseada en la cancha de futbolito, sabemos que lo hicieron pensando que sería al revés pero ya ven; para su información parte de ese equipo fue campeón en el I Torneo de Futbol Rápido de Profesores Universitarios (lo de fultbol rápido, sólo tiene el nombre), hace no mucho tiempo casi diez años y anteriormente, cuando aguantábamos, era la base del equipo de futbol de física que disputaba los primeros lugares de la liga universitaria de futbol, en fin. Siguiendo con Einstein; en el antiguo edificio de la Facultad, ahora del Instituto, aún existe la placa que identificaba una de las aulas de la Escuela-Facultad, el laboratorio de electrónica, crónica ya narrada en esta sección en el boletín 41 (qué quieren ese número le tocó, la mención del angelito también es casual, la coincidencia es eso, pura coincidencia) en el artículo Einstein Forever. Así que Einstein ha estado y seguirá presente en la Facultad. No creo que Einstein se incomode por usar su nombre; total una que otra Corona que nos recetemos, será a su salud. Como se lleva un lunar,/todos podemos una mancha llevar/En este mundo tan profano/quien muere limpio, no ha sido humano 795 Boletín El Hijo de El Cronopio Facultad de Ciencias Universidad Autónoma de San Luis Potosí No.73, 10 de abril de 2000 Boletín de información científica y tecnológica de la Facultad de Ciencias Publicación semanal Edición y textos Fís. J. Refugio Martínez Mendoza Cualquier información, artículo o anuncio deberá enviarse al editor e-mail: flash@galia.fc.uaslp.mx Este boletín y números anteriores, pueden consultarse por Internet en la página de la UASLP: Definitivamente es un problema en el que la educación, la divulgación y la democracia deben estar involucrados. Sabemos de la carencia, con honrosas excepciones, de una televisión inteligente, que provoca la falta de reflexión del televidente ante lo expuesto en programas, noticieros, anuncios y pro mocionales. Debemos dar el paso para que la opinión de la gente tenga un importante peso específico; para ello es necesario una población adecuadamente educada. Por un lado la población es la única que puede opinar sobre la conveniencia o la incomodidad que un programa de esa naturaleza, como el cambio de horario, causa a su cotidianeidad y a su convivencia diaria con el resto de la sociedad. Por otra parte, deben de existir las condiciones para que ante argumentos, que promuevan o desmeriten un programa, la población pueda discernir y codificar los mensajes esgrimidos, en pro y en contra. En este punto la educación en general y, en particular, la divulgación de la ciencia tienen un importante papel. Mientras son peras o manzanas, el “Brodi”, y posiblemente solo él, seguirá disfrutando de la posibilidad que le brinda el cambio de horario para darse una vida de la patada (en base a las patadas). http://phobos.dtc.uaslp.mx/publi.html Un buen ejemplo de la necesidad de realizar divulgación científica lo constituye el problema de la decisión unilateral del gobierno federal de imponer el cambio de horario, según la época del año. Después de la imposición, empezó a aparecer una campaña televisiva promoviendo las supuestas bondades del programa. A pesar de las voces, mayoritariamente autorizadas, que opinaban en contra del citado programa, el mismo se impuso y se siguió insistiendo en los desprestigiados e insostenibles argumentos originalmente esgrimidos por los promotores del programa. El “Brodi” tiene una hora más de luz solar para patear el balón (y supongo una buena lana por el anuncio). En este número transcribimos un artículo de Shahen Hacyan, titulado Geografía para funcionarios, que trata precis amente del problema citado, mismo que escribió para el periódico Reforma en su sección Aleph Cero. ____________________________ Todos aquellos interesados en contemplar las pasadas y nuevas imágenes tomadas desde la Mars Global Surveyor sobre la famosa c ara de Cydonia, en Marte, pueden hacerlo en: http://mars.jpl.nasa.gov/mgs/msss/camera/images/4_5 _00_cydonia/index.html ____________________________ El Hijo de El Cronopio No. 73 Aleph Cero/Geografía para funcionarios Por Shahen Hacyan para el periódico Reforma La Tierra es una esfera que gira sobre sí misma en 24 horas. El eje de rotación de la Tierra está inclinado unos 23.5 grados con respecto al plano de la órbita alrededor del Sol, y siempre apunta en la misma dirección: hacia Alfa de la Osa Menor, mejor conocida como la Estrella Polar (Más precisamente, el eje de rotación describe lentamente un cono en el espacio, dando una vuelta completa en 25 mil 800 años; pero este efecto es prácticamente imperceptible). Las estaciones son una consecuencia de la inclinación del eje de rotación. Durante el verano septentrional, el Polo Norte está del lado del Sol, por lo que el hemisferio norte recibe más calor solar. En la misma época, el hemisferio sur está más tiempo en la sombra y allí es invierno. En el verano, los días son más largos que en el invierno. El tiempo que está el Sol encima del horizonte depende de la latitud del lugar. En el Ecuador, los días y las noches son siempre iguales: el Sol siempre está doce horas encima del horizonte. A medida que uno se aleja del Ecuador, ya sea hacia el Norte o hacia el Sur, la diferencia entre la duración del día y la de la noche empieza a aumentar. En los países situados en los trópicos, la salida y la puesta del Sol puede variar hasta por un par de horas, a lo largo del año. Arriba de los trópicos, la diferencia de duración entre día y noche se hace cada vez mayor con la latitud. En los Estados Unidos y Europa, en el verano, el día dura bastante más que la noche (y lo contrario ocurre en invierno). La situación extrema corresponde a las regiones situadas encima del Circulo Polar, donde, en verano, el Sol da vueltas en el cielo sin meterse nunca debajo del horizonte. En los países tropicales, la diferencia entre día y noche es bastante poca. En la Ciudad de México, que se ubica en la zona tropical, el tiempo máximo que el Sol permanece por encima del horizonte es de 13 horas y 20 minutos, lo cual ocurre en el solsticio de verano, alrededor del 21 de junio. En ciudades nórdicas, este tiempo es notablemente mayor: 14 horas y tres cuartos en Washington; 15 horas en Madrid y Nueva York; 16 horas en París; 16 horas y media en Londres... Ante estas circunstancias, tiene sentido recorrer el tiempo oficial una hora, para aprovechar la luz del atardecer, pero sin perder la del amanecer. A la latitud de Harvard o Nueva York, por ejemplo, el Sol se levanta en verano alrededor de las 5 y media y se mete a las 8 y media, con todo y el horario de verano. Algo similar ocurre en Europa: en París, durante el verano, el Sol llega a salir antes de las 5 de la mañana y se mete cerca de las 9 de la noche. En la ciudad de México, en verano, el Sol solía salir a las seis de la mañana y meterse poco después de las siete de la tarde. Pero con el tan discutido horario de verano, ahora sale alrededor de las siete (como a las 7:10 en abril y octubre; a las 6:55 en junio y julio). Justo en la latitud de México, el cambio de horario resulta ser muy crítico porque, para la mayoría de la población, hace toda la diferencia entre empezar el día con sol o a oscuras. No es este caso fuera de la franja del Trópico, donde los habitantes pueden levantarse de madrugada con un Sol radiante, aun si les adelantan los relojes una hora. Aun suponiendo que realmente se gasta menos energía por correr el horario, es evidente a estas alturas que el ahorro es a costa de causar molestias a la mayoría de la población. 798 El Hijo de El Cronopio No. 73 Si se trata de ahorrar sin importar la comodidad de los ciudadanos, entonces, con esa misma lógica, ¿por qué no suspender por completo el suministro de electricidad a los hogares? Habría molestias, pero el ahorro en energía sería fenomenal. Algunos especialistas han señalado que la verdadera ventaja del horario de verano en México es la separación de las horas pico de consumo eléctrico por la industria y los hogares. Si realmente es así, podría ser más conveniente recorrer los horarios de las industrias, o bien cobrar tarifas diferenciadas por la energía eléctrica. En muchos países industrializados, la electricidad es más barata durante la noche; las industrias pueden trabajar de noche y pagar más a sus obreros por sus jornadas nocturnas; el beneficio es para todos. Soluciones racionales se pueden encontrar sin necesidad de engañar a la población con argumentos absurdos, como ése de que se aplica el horario de verano en México porque también lo hacen otros setenta países. Se les olvida a nuestros funcionarios precisar cuántos de esos países se encuentran en el Trópico. Ni parece que hayan estado en Harvard (en verano). Noticias de la Ciencia y la Tecnología La Vía Láctea se formó en un tiempo record A pesar de su lenta evolución, la galaxia en la que vivimos adoptó su forma actual de una manera rápida. La Vía Láctea, nuestra galaxia, se formó en su mayor parte en un proceso rápido, que duró entre 500 y 1.000 millones de años, sólo un 5 por ciento de su edad total. Estos datos contradicen lo que sostenían algunos resultados científicos publicados en los últimos años, que establecían períodos de hasta 4.000 ó 5.000 millones de años. Investigadores del grupo de Poblaciones Estelares del Instituto de Astrofísica de Canarias (IAC) y del grupo de Cúmulos Estelares de la Universidad de Padua (Italia) han llegado a esta conclusión, que ayuda a esclarecer el debate sostenido en los últimos veinte años entre quienes opinaban que la Vía Láctea se formó lentamente y los defensores de un esquema de formación rápida. El estudio aporta además nuevos datos sobre las características del Universo primitivo. Los resultados, efectivamente, concluyen que la Vía Láctea se formó en unos pocos cientos de millones de años –entre 500 y 1.000– y que la mayor parte de nuestra galaxia se originó a partir del rápido colapso de una protogalaxia primigenia. Los investigadores han establecido estas cifras tras estudiar las edades de 52 cúmulos globulares de nuestra galaxia, los conjuntos de estrellas más viejos conocidos. Las conclusiones del estudio aparecen publicadas en la revista especializada Astronomical Journal y dan la razón a los partidarios de un esquema de formación rápida, frente a quienes piensan que el proceso fue mucho más lento. Para los primeros, la formación de la Vía Láctea se produjo tras la rápida caída del material primigenio hacia el centro de la protogalaxia. Durante esta caída se formó la mayor parte de los cúmulos globulares de la Vía Láctea. Para los partidarios del proceso de formación lenta, estos cúmulos se formaron a partir del encuentro fortuito entre nubes de materia que se desplazaban lentamente alrededor y a gran distancia del centro. El esquema de la 799 El Hijo de El Cronopio No. 73 formación lenta, que había acumulado resultados científicos favorables en los últimos años, queda en parte desautorizado por el nuevo estudio. Para llegar a esta conclusión, los investigadores establecieron las diferencias de edad de 52 cúmulos globulares entre sí. Por sus edades, de entre 12.000 y 15.000 millones de años, estos cúmulos constituyen una útil herramienta para estudiar el proceso de evolución inicial de las galaxias. Usando dos telescopios, el "Jacobus Kapteyn" (JKT), en el Observatorio del Roque de los Muchachos, del IAC, y el "Dutch", en La Silla, Chile, los investigadores lograron precisar, con un margen de error mucho menor que el conseguido hasta ahora, que la mayoría de las edades de estos cúmulos difieren entre sí menos de unos 500 ó 1.000 millones de años. Es decir, a escala cósmica, se formaron casi a la par y muy rápidamente, y sus órbitas radiales en torno a la galaxia –que describen un movimiento alternativo hacia dentro y hacia fuera– demuestran que son fruto de un gran y rápido colapso de la materia de la protogalaxia primigenia. Los autores sostienen en su estudio que estas conclusiones también son útiles para explicar cómo se formó el resto de galaxias del Universo. En el estudio han participado Alfred Rosenberg (astrofísico del IAC y autor de la tesis que recoge los resultados), Ivo Saviane (Universidad de Padua), Giampaolo Piotto (investigador principal del grupo de Cúmulos Estelares de Padua) y Antonio Aparicio (investigador principal del grupo de Poblaciones Estelares del IAC). Los investigadores señalan que han encontrado algunos casos de cúmulos globulares claramente más jóvenes y dispersos que la mayoría. Esto les lleva a extender su trabajo a cúmulos globulares situados a distancias mayores del centro galáctico. Hasta ahora, habían analizado los 60.000 años-luz centrales que, de hecho, contienen la mayor parte de los cúmulos globulares de la Vía Láctea. Nuestro Sol se encuentra a 25.000 años-luz del centro. Los científicos aseguran, sin embargo, que encontrar cúmulos globulares de menor edad no invalidará el resultado principal de su trabajo, pues se cree que la Vía Láctea sigue incorporando material estelar procedente de su exterior, que no estaba presente durante su formación. El estudio moderno de la formación de la Vía Láctea comenzó hace cincuenta años, cuando los investigadores pudieron medir, con ciertas garantías de precisión, las edades de los cúmulos globulares. Gracias a estas primeras investigaciones, se pudo determinar que la Vía Láctea y las demás galaxias se formaron poco después del origen del Universo. En 1962, los astrónomos Olin J. Eggen, Donald Lynden-Bell y Allan Sandage propusieron un esquema de formación sencillo. La galaxia se habría formado por una práctica caída libre de la nube de materia original por efecto de la gravedad. Este es el origen de un esquema de formación rápida. Sin embargo, en 1979, Leonard Searle y Robert Zinn plantearon que las condiciones físicas en que se encontraban un cierto tipo de estrellas dentro de estos cúmulos (en concreto, las estrellas de la llamada "rama horizontal": unas estrellas viejas que producen energía mediante la combustión termonuclear del helio de su interior) se debían a que sus edades serían distintas en diferentes cúmulos y, por tanto, el tiempo de formación total de la galaxia sería mayor. Esto dio origen al esquema de formación lenta. La tesis de Alfred Rosenberg demuestra que la mayoría de los cúmulos globulares con ramas horizontales diferentes tiene, no obstante, edades muy similares. Por consiguiente, serían otras variables las que explicarían estas diferencias en la distribución de las 800 El Hijo de El Cronopio No. 73 estrellas. Otros estudios apuntan a la rotación interna de las estrellas, la pérdida de su materia o las fricciones entre las distintas capas que forman la estrella (lo que se conoce como "longitud de mezcla") como responsables de estas diferencias entre unos cúmulos globulares y otros. (IAC) Información adicional en: http://www.iac.es/gabinete/noticias/iacnotas/2000/r15mar.htm Imagen: http://www.iac.es/gabinete/noticias/iacnotas/2000/fr14mar.jpg (Uno de los cúmulos globulares estudiados.) (Foto: IAC) Defensa contra el láser malintencionado Los sensores ópticos, naturales o artificiales, podrán ser protegidos frente a la agresión de láseres externos. Investigadores de la University of Florida han desarrollado un nuevo mecanismo con aspecto de chip cuya superficie pasa de transparente a opaca de forma tan rápida que permite proteger ojos o sensores electrónicos de los ataques cegadores de un láser enemigo. El "párpado" artificial, si se le puede llamar así, tiene aplicaciones claramente militares, y para ello ha sido construido, pero también puede ser usado en aplicaciones civiles, desde gafas de sol programables a cámaras mejores que las actuales. El invento se basa en la utilización de un polímero extremadamente pequeño y películas de electrodos que controlan la transmisión de luz. Se ha diseñado para proteger a los pilotos de combate militares y a otros equipos, como sistemas sensores electrónicos en satélites, que de otro modo pueden ser cegados desde tierra o el aire con rayos láser de gran potencia. Este tipo de ataques ya se han producido en el pasado. Un oficial de la Marina estadounidense y un piloto militar canadiense manifestaron en 1997 que habían sido afectados por un láser mientras estaban fotografiando un navío de carga ruso situado frente a la costa del estado de Washington. El uso de un láser no ha sido probado, pero los pilotos han informado de dolor recurrente en sus ojos, típico de una exposición a este tipo de luz. Los satélites espía, que fotografían el suelo del enemigo desde la órbita, también pueden ser cegados mediante rayos láser, ya que su posición puede ser seguida desde tierra. Si éstos son lo bastante potentes, los sensores y las cámaras pueden estropearse definitivamente. Los científicos que han diseñado el párpado artificial han construido un mecanismo que contiene miles de pequeñísimas aberturas (de 1 milímetro a 50 micrómetros de diámetro). Los prototipos han demostrado que las aperturas pueden abrirse y cerrarse hasta 10.000 veces por segundo. Cuando un láser es detectado, el cierre, rapidísimo, impide que el sensor sufra daño alguno. Las gafas de sol actuales que se ajustan al cambio de las condiciones de luz imperantes necesitan varios minutos para hacerlo. Con el nuevo sistema ello se producirá instantáneamente, con la apertura del número de orificios adecuado. Tales gafas serían tan seguras que permitirían incluso contemplar un eclipse de Sol. Automáticamente, bloquearían la luz solar y permitirían ver la corona. Las cámaras domésticas también podrían emplear la tecnología, eliminado problemas comunes de iluminación de la escena. Información adicional en: http://www.napa.ufl.edu/2000news/eyelid.htm 801 El Hijo de El Cronopio No. 73 Imagen: http://www.napa.ufl.edu/graphics/eyelid.jpg (Una imagen aumentada de un "párpado artificial".) (Foto: University of Florida) Un mes alrededor de Eros La sonda NEAR, ahora rebautizada como Shoemaker, ha cumplido su primer mes de estancia alrededor del asteroide Eros. La NASA ha anunciado que la sonda NEAR pasa a llamarse, a partir de ahora, Shoemaker, en honor del doctor Eugene M. Shoemaker, un geólogo muy conocido por sus aportaciones al estudio de los cuerpos menores y la Luna, y que falleció recientemente (1997) debido a un accidente de tráfico. El científico descubrió junto a Levy muchos cometas, entre ellos el famoso Shoemaker-Levy 9, que en 1994 chocó contra Júpiter. Por su parte, la Shoemaker, en órbita alrededor del asteroide 433 Eros, acaba de cumplir su primer mes de operaciones científicas en dicha posición. La altitud actual es de unos 200 por 209 km con respecto al centro gravitatorio del objeto. El 2 de abril, sin embargo, realizará una corrección de trayectoria que la llevará a una órbita de 200 por 100 km. Este será un primer paso para situarse a unos constantes 100 km, la distancia apropiada para una ronda de observaciones de mayor resolución. Todos los instrumentos a bordo funcionan perfectamente, a excepción de un error de ejecución detectado en el Multispectral Imager (MSI) el 14 de marzo. Se está investigando lo ocurrido. Precisamente, las fotografías transmitidas por este aparato ofrecen una imagen espectacular y clara de la superficie, por otro lado llena de cráteres y otros accidentes geológicos. Durante las dos últimas semanas, la cámara multiespectral ha enviado más de 2.400 imágenes, las más próximas a un asteroide realizadas jamás (se pueden apreciar detalles de hasta 50 metros de diámetro y también que Eros está literalmente cubierto por cráteres de menos de 1,6 km de diámetro). La nave ha observado el asteroide mediante su detector de rayos-X, y ha demostrado la presencia de magnesio, hierro y silicio, así como probablemente de alumino y calcio. Ello fue posible gracias a una protuberancia solar ocurrida el 2 de marzo. El estallido de rayos-X procedentes del Sol permitió a los citados elementos reaccionar y emitir rayos-X fluorescentes detectables por el espectrómetro instalado a bordo de la sonda. El altímetro láser de la NEAR también ha sido usado para medir el terreno, aportando pistas sobre si sus características se deben a la erosión, a líneas de tensión tectónicas, etc. Información adicional en: http://near.jhuapl.edu http://wwwflag.wr.usgs.gov/USGSFlag/Space/Shoemaker/GeneObit.html Imagen: http://near.jhuapl.edu/iod/20000322/20000322.jpg (El aspecto de la superficie de Eros.) (Foto: The Johns Hopkins U.) Primates primitivos Los paleontólogos han descubierto el primate más pequeño conocido, así como a un probable antecesor común de hombres, monos y simios. Los paleontólogos siguen investigando en nuestro pasado como especie, y también en el de nuestros parientes próximos, los monos y simios. 802 El Hijo de El Cronopio No. 73 Un equipo de especialistas de la Northern Illinois University, encabezado por Dan Gebo, ha estudiado fósiles pertenecientes al primate más pequeño conocido. Su antigüedad se cifra en unos 45 millones de años. Los fósiles fueron encontrados en sedimentos chinos, en 1996, y pertenecen en realidad a varias especies, alguna de las cuales tendría representantes de apenas 10 gramos de peso. Tan distantes antepasados de monos, simios y humanos debieron ser presa habitual de depredadores nocturnos, como las lechuzas. El primate más pequeño conocido hasta ahora (31 gramos) era un lémur que vive en Madagascar. Los fósiles hallados pertenecen a una rama de la evolución de los primates que finalmente dio lugar a los humanos. Los primates son mamíferos, caracterizados por tener cerebros más grandes, manos con capacidad de sujetar objetos, uñas en vez de garras y ojos situados en la zona frontal del cráneo. La zona en la que vivían los diminutos primates, en China, pertenece al Eoceno medio y consistía en una selva en la que no se han encontrado restos de criaturas de mayor tamaño. Los paleontólogos han encontrado también restos de una especie de primate llamada Eosimias, cuyo tamaño era similar al del mono más pequeño actual, y que vivía en los árboles. Con anterioridad, los fósiles que se habían hallado de este animal eran demasiado escasos, de tal manera que no podía certificarse con total seguridad que fuera un primate. Las nuevas evidencias sugieren que, en efecto, el Eosimias es un primitivo antecesor del linaje que ha desembocado en todos nosotros. Poseía características pertenecientes a los primates inferiores, pero también otras que sólo se pueden localizar en los primates superiores, más avanzadas. Estos fósiles ayudan a cubrir los inmensos espacios en blanco que aún posee nuestro árbol genealógico. Su presencia en Asia también es significativa, ya que muchos científicos esperan encontrar en África a los ancestros de los primates antropoides. Información adicional en: http://www.niu.edu/pubaffairs/RELEASES/2000/MAR/primate/Tinyprimates.htm http://www.niu.edu/pubaffairs/RELEASES/2000/MAR/primate/Nature.htm Imagen: http://www.niu.edu/pubaffairs/RELEASES/2000/MAR/primate/hi-res/thumb.JPG (El primate más pequeño.) (Kim Reed-Deemer/Northern Illinois University) http://www.niu.edu/pubaffairs/RELEASES/2000/MAR/primate/hi-res/eosimias.JPG (El Eosimias.) (Carnagie Museum of Natural History) Será aun peor La devastación producida por el impacto de un asteroide contra la Tierra será superior a lo que se creía hasta ahora. Los científicos dicen que aún no hemos valorado correctamente el daño potencial que un hipotético impacto de un asteroide o un cometa contra la superficie terrestre podría acarrear para la vida en nuestro planeta. Ya se ha hablado a menudo del "invierno del impacto": el choque pulverizaría una gran cantidad de suelo y rocas, que ascenderían hasta la atmósfera, oscureciéndola y haciéndola opaca a los rayos del Sol. Esta situación se prolongaría durante muchas semanas o meses, de manera que las plantas, imposibilitadas de realizar la esencial fotosíntesis, morirían, rompiendo la cadena de alimentación. Los animales que no 803 El Hijo de El Cronopio No. 73 habrían muerto abrasados por la ola de fuego extendida por la onda de choque, o ahogados por los enormes tsunamis, pronto no tendrían nada que comer y morirían también. Pero esto no es todo. Los investigadores van más allá y hablan ya de la "primavera ultravioleta". Expertos de la Oregon State University y del British Antarctic Survey han examinado los efectos residuales de la desaparición de la capa del ozono, la lluvia ácida y la radiación ultravioleta. Como resultado del impacto, la atmósfera se vería cargada de óxido nítrico, lo que daría lugar a cantidades masivas de lluvia ácida. Lagos y ríos verían reducidos el número de carbones orgánicos disueltos, lo que permitiría una penetración superior de la luz ultravioleta. Al principio, durante la presencia de la nube de polvo, ésta haría de escudo frente a la luz ultravioleta, pero 390 días después del impacto, se habría depositado el suficiente polvo como para dejar pasar el mismo nivel de radiación que antes del choque. A partir de aquí, y gracias a la ausencia de la capa del ozono, dicho nivel crecerá, hasta duplicarse a los 600 días del cataclismo. El daño genético que esta radiación hará sobre los seres vivos supervivientes será unas 1.000 veces superior al normal, unas 500 veces sobre las plantas. Se producirán mutaciones, cáncer y cataratas. Las plantas morirán o su crecimiento será más lento, suprimiendo la fotosíntesis que forma la base de la cadena de alimentos. Curiosamente, los impactos de asteroides más pequeños que el que causó la desaparición de los dinosaurios, hace 65 millones de años, podrían causar más daño, ya que la ausencia de polvo en cantidades suficientes en la atmósfera provocaría una intervención más temprana de la radiación ultravioleta, lo que aceleraría sus efectos perniciosos. Información adicional en:http://osu.orst.edu/dept/ncs/newsarch/2000/Mar00/asteroid.htm Viviendo en el pasado Si usted cree que está viviendo en otra época, quizá tenga razón. Afortunadamente, la ciencia nos indica que el desfase es extraordinariamente pequeño. Lo que usted piensa que está viendo en un preciso instante de su vida está siendo en realidad influenciado por el futuro. O lo que es lo mismo, todos estamos viviendo en el pasado, con un retraso respecto al presente de al menos 80 milisegundos, apenas un poco más de lo que se tarda en parpadear. El cerebro debe engañarnos necesariamente. Lo que perciben nuestros sentidos es transformado en impulsos eléctricos que viajan a una determinada velocidad a través de los nervios hasta llegar al cerebro. La sensación será analizada después y asimilada por nosotros como un acto real y presente. El proceso para llevar a cabo toda esta operación no es instantáneo, así que el cerebro debe "corregir" la sensación para que la sintamos como actual y no como un suceso que ocurrió hace 80 milisegundos. Cuando acercamos la yema de uno de nuestros dedos a la superficie de una mesa y la tocamos, debería existir un desfase entre que completamos la orden y somos conscientes de la sensación que nos ha producido. No obstante, el cerebro realiza el ajuste necesario para evitar confundirnos y no llegamos a ser conscientes del retraso. El cerebro actúa como las cadenas de televisión, que aunque emitan en directo lo están haciendo con unos pocos segundos de margen, lo que da tiempo a manipular y editar la imagen si es necesario. Es decir, el cerebro recoge información en dirección al futuro de 804 El Hijo de El Cronopio No. 73 un evento antes de "aceptar" lo que cree que vio en el momento en que se produjo. En este sentido, el cerebro estaría constantemente "puliendo" el pasado. Información adicional en: http://www.salk.edu; http://www.cnl.salk.edu/~eagleman/flashlag Un agujero negro en la Tierra Los científicos se preguntan si sería posible crear agujeros negros artificiales aquí mismo, en la Tierra. Los agujeros negros son una de las teorías más fascinantes de la física moderna. Teoría que cada día que pasa se ve apoyada por nuevas evidencias. Los agujeros negros son cuerpos tan masivos que su gravedad es extremadamente elevada. Tanto que la velocidad de escape supera los 300.000 m/s, y por tanto ni siquiera la luz puede huir de ellos. Podrían calificarse de invisibles si no fuera por los efectos indirectos que causan a su alrededor. No hay duda de que el estudio de los agujeros negros es esencial para nuestra comprensión del Universo. Sin embargo, la dificultad de su detección o su lejanía nos complica la tarea. Según Michael Brooks, esto se resolvería parcialmente si fuésemos capaces de crear un agujero negro aquí mismo, en la Tierra. Un objeto de este tipo no tiene porqué ser muy grande, basta con que cumpla los requisitos físicos que lo definen, y de hecho es perfectamente posible que existan agujeros negros de tamaño microscópico. El problema es que su inmensa gravedad atrae irremediablemente a cualquier cuerpo que se acerque demasiado a ellos, asimilándolo, y también desconocemos cómo manipular y contener algo así. Sin embargo, Ulf Leonhardt y Paul Piwnicki, del Royal Institute of Technology de Suecia, afirman conocer un modo viable de crear agujeros negros en el laboratorio de una forma segura. Si ello fuese posible, quizá podríamos demostrar que la única e hipotética radiación capaz de escapar de ellos, la radiación de Hawking, realmente existe, y aprender más sobre sus propiedades. También podrían servir como plataforma experimental para avanzar en la teoría de la gravedad cuántica, el intento de unir la mecánica cuántica con la teoría de la relatividad de Einstein. En realidad, Leonhardt, no propone crear un agujero negro real sino uno óptico, uno que sea capaz de atraer la luz y no necesariamente la materia. El truco está en que la luz es constante en el vacío (300.000 km/s), pero cambia en función del medio que atraviesa. Por ejemplo, en el agua, la luz viaja a 3/4 partes su velocidad normal (220.000 km/s). El año pasado, los científicos consiguieron frenar la luz hasta unos 8 m/s, gracias al uso de vapor de átomos de rubidio. Mejor aún, se alcanzó una velocidad de 50 cm/s al atravesar materia en un estado ultrafrío llamado de Bose-Einstein. Cuando el medio que hace avanzar despacio a la luz se mueve a su vez, puede arrastrarla con él. De este modo, si se crea un vórtice en dicho medio, entonces la luz puede verse absorbida como si estuviese cayendo en un agujero negro. Los científicos trabajan para reducir la velocidad de la luz hasta 1 cm/s. Si se consiguen crear vórtices lo bastante rápidos, tendremos un agujero negro óptico en la práctica, disponible para ser estudiado en el laboratorio. (New Scientist) Una serpiente con patas (y no es el Mora) Se ha hallado un fósil de 95 millones de antigüedad que puede poner en duda el origen marítimo de estos animales. 805 El Hijo de El Cronopio No. 73 Las teorías actuales sugieren que las serpientes son reptiles que, aunque adaptados a moverse sobre tierra firme, tienen un origen marítimo. En la actualidad, muchas de ellas viven aún en ambientes húmedos. Sin embargo, los paleontólogos han descubierto en un depósito cerca de Jerusalén un fósil de hace 95 millones de años que podría hacer cambiar definitivamente la impresión anterior. La nueva especie se llama Haasiophis terrasanctus y es en realidad la segunda extraída del yacimiento situado en Ein Yabrud, un lugar cuyos sedimentos sugieren un ambiente primitivo marítimo. Lo interesante es que el citado fósil posee signos indiscutibles de haber poseído extremidades, lo cual pone en duda su verdadero origen. La otra especie descubierta, la Pachyrhachis problematicus, parecía situada en la base del árbol evolutivo de las serpientes. Existen características específicas en su cráneo que hacían creer que se trata de un enlace transitorio entre los mosasauros (reptiles gigantes del Cretáceo que vivían en el agua hace entre 144 y 65 millones de años) y las verdaderas serpientes. Esta visión contrasta con la tradicional que contemplaba a reptiles pequeños y terrestres como los ancestros de las serpientes. El Haasiophis terrasanctus parece un animal cercano al Pachyrhachis. Un análisis más completo sugiere que estas dos especies no son en realidad ancestros primitivos, sino serpientes relativamente evolucionadas como las boas o las pitones, lo que rompe la teoría de que la Pachyrhachis sea el enlace entre los reptiles marinos y las verdaderas serpientes. El principal problema es por qué las dos especies poseían lo que parecen extremidades. Dado el escaso registro fósil sobre serpientes del que disponemos, no se puede excluir la posibilidad de que las extremidades de las serpientes no desaparecieran una sola vez, al principio, sino varias veces a lo largo de su historia. Las patas son demasiado pequeñas en relación al resto del cuerpo como para darles una utilidad de locomoción clara. Pero si los antepasados más antiguos tenían extremidades más desarrolladas, probablemente el origen de las serpientes se encuentre definitivamente en tierra y no en el mar. Hallado el meteorito de Yukón El objeto que cayó sobre Canadá el pasado 18 de enero ha sido localizado y recuperado para su análisis por parte de los especialistas. Cuando el 18 de enero uno de los más importantes meteoros de los últimos 10 años en todo el mundo fue observado sobre los cielos del Yukón, en Canadá, los científicos se apresuraron a investigar por todos los medios sus efectos indirectos. Aviones especiales sobrevolaron la zona y atravesaron para estudiarla la nube de partículas dejada por la caída del objeto. Ahora, además, tendrán la oportunidad de analizar el meteorito propiamente dicho, ya que ha sido hallado por una persona anónima y puesto a su disposición. El meteoro estalló con la energía de 2 a 3 kilotones de TNT, dispersando múltiples fragmentos por una amplia área. Algunos de ellos fueron hallados claramente destacados sobre la nieve, introducidos en bolsas de plástico y mantenidos en estado de congelación. Esto es muy importante, ya que se trata de los únicos restos de meteorito "frescos" que han podido ser capturados y conservados para su estudio sin apenas variaciones respecto 806 El Hijo de El Cronopio No. 73 a su estado original. Se han preservado así los materiales orgánicos u otros compuestos volátiles que pudiera contener. Los fragmentos son pedazos de roca con superficies quemadas y tienen el aspecto de trozos de carbón. Son negros, porosos, bastante ligeros y aún poseen un ligero olor a azufre. Los especialistas dicen que estamos ante un condrito carbonáceo, un tipo raro de piedra espacial que contiene muchas formas de carbono y elementos orgánicos, los ladrillos básicos de la vida. Este tipo de meteoritos supone sólo el 2 por ciento de todos los que caen sobre la Tierra y son difíciles de recuperar porque se rompen fácilmente durante la entrada atmosférica y el choque posterior con el suelo. El último recuperado, el meteorito de Murchison, data de hace 31 años. Se ha recuperado de momento aproximadamente 1 kg perteneciente al meteorito del Yukón. Las pruebas han empezado, sobre todo las centradas en actividades no destructivas. Por ejemplo, se ha obtenido una sección muy fina para analizar la mineralogía de los fragmentos, y se ha medido la radioactividad inducida (a la que habría estado sometido el meteorito durante su estancia en el espacio). Esta prueba puede darnos pistas del tamaño original del meteoroide, con estimaciones que sugieren un diámetro de hasta 15 metros y una masa de más de 55 toneladas. Después se estudiarán los fragmentos desde el punto de vista orgánico, lo cual implicará la destrucción de algunas muestras y precisará de los correspondientes permisos. Este tipo de objetos fue creado hace 4.500 millones de años, a partir de la misma materia básica que dio lugar a los planetas, incluida la Tierra. Su preservación en un estado primigenio nos ayudará mucho a la hora de averiguar más cosas sobre el origen del Sistema Solar y de nosotros mismos. Información adicional en: http://spacescience.com/headlines/y2000/ast16mar_1.htm http://spacescience.com/headlines/y2000/ast25jan_1.htm Imagen: http://spacescience.com/headlines/images/yukon/murchison.gif (El meteorito de Murchison, de 1969, era el último condrito carbonáceo recuperado hasta ahora.) (Foto: New England Meteoritical Services) La Ciencia desde el Macuiltépetl/ Caos Por Manuel Martínez Morales ¿Puede hoy el aleteo de una mariposa en Pekín provocar una tormenta en Nueva York el mes próximo? Una variante de esta enigmática pregunta (que bien pudiera plantearse como koan a algún devoto estudiante de budismo zen), la propone, con vena poética, Gabriel Zaid en La máquina de cantar: El viento se convierte en música en un arpa eólica, en unas campanillas japonesas; saca agua del pozo; gira un molino mayor de mar sol nubes lluvia ríos mar, otra vez; hace feliz la piel y las velas; tuerce destinos, provoca encuentros insólitos, arroja a Ulises a los brazos de Circe; destruye ciudades enteras; arrebata papeles de las manos, pone en las de Cervantes la historia del Quijote. ¿Es una máquina aleatoria? 807 El Hijo de El Cronopio No. 73 El problema al que refiere la interrogación inicial ha sido bautizado por los meteorólogos como “el efecto mariposa”. En términos un poco más precisos la pregunta se reformularía así: ¿Pueden cambios muy pequeños en alguna situación física, biológica o social, dar lugar a cambios enormes en el futuro? La respuesta dada por los estudiosos de estas cuestiones es sí, a veces… y el caos sobrevino. Hasta hace poco tiempo se consideraba que los sistemas naturales o artificiales se clasificaban en dos categorías ajenas: a) sistemas deterministas, cuya evolución en el tiempo es descrita por ecuaciones y su solución exacta es, en principio, obtenible, y b) sistemas estocásticos o aleatorios, descritos por modelos probabilistas o estadísticos. Pero, la contemplación de problemas como “el efecto mariposa” y otros similares surgidos en otras ciencias, ha dado origen a una nueva estirpe de entes matemáticos que son los sistemas caóticos. Estos sistemas son, en principio, deterministas, con la peculiaridad de que su comportamiento en el largo plazo no es del todo predecible, en términos del determinismo clásico; cambios pequeños en las condiciones iniciales pueden provocar alteraciones enormes en los estados futuros del sistema. No obstante, es posible caracterizar y describir algunas de las propiedades macrotemporales de estos sistemas, lo cual generalmente se logra aplicando teorías y métodos probabilistas. Es posible que un sistema caótico permanezca en equilibrio estable por algún tiempo, mas una pequeña perturbación, en un momento determinado, bastaría para lanzarlo a oscilaciones inestables que incluso pueden destruir al sistema (algunas arritmias cardiacas se han explicado empleando modelos caóticos; ver por ejemplo, L. Glass y M.C. Mackey, From Clocks to Chaos: The Rythms of Life, Princeton University Press, 1988.) Una advertencia, caos no es lo mismo que azar. El caos tiene sus propias leyes y, al momento, es un fascinante campo de investigación que apenas comienza a despuntar. Aun los artistas plásticos se han sentido atraídos por las formas del caos. (H.O. Peitgen y P.H. Richter, The Beauty of Fractals, Springer-Verlag, 1986) Para el matemático, el caos ofrece una variada colección de entidades con nombres exóticos, atractores extraños, transformaciones del panadero, conjuntos de Mandelbrot y Julia… Las formas del caos aplicadas a la biología, la economía, la sociología, la psicología y la ecología aún están por desarrollarse plenamente. Se ha encontrado, por ejemplo, que los precios de algunas mercancías varían caóticamente que ciertas alteraciones psíquicas pueden explicarse empleando modelos caóticos. (J. Gleick, Chaos, Making a New Science, Penguin, 1987). Me atrevo a sugerir una posibilidad interesante: la introducción de nuevos artefactos tecnológicos, los videojuegos, por ejemplo, en un grupo social tiene efectos expansivos en todo el entorno cultural, cuya dinámica tal vez pudiera modelarse a través del caos. El caos, este nuevo objeto de la indagación científica, tiene como columna vertebral a la matemática; incorpora bastante de la matemática clásica como topología, análisis, ecuaciones diferenciales y probabilidad, así como nuevas herramientas que, a falta de otro nombre, se les designa como matemáticas del caos (A. Lasota y M.C. Mackey, Probabilistic Properties of Deterministic Systems, Cambridge University Press, 1985). El caos nos abre los sentidos a la “música de las esferas”, a esa intuición milenaria de que todo tiene que ver con todo la posición del planeta Marte en el momento de mi nacimiento determinó, a lo mejor, mi afición por las matemáticas y, de rebote, la escritura de estas líneas. 808 El Hijo de El Cronopio No. 73 El Cabuche (crónicas de la Facultad de Ciencias)/ Un Instituto en el portafolios (dedicado a Juan Fernando Cárdenas Rivero) Las ciencias, disciplinas tan despreciadas en nuestro país, la mayoría de las veces sólo son tomadas en cuenta cuando es necesario dictar un discurso político, por lo que proyectos de creación de instituciones y centros de ciencia responden, otra vez en la mayoría de las veces, más a intereses políticos que a un convencimiento de la autoridad; por lo que encontrar este tipo de instituciones, sobre todo en provincia, encierra toda una historia epopéyica por parte de sus impulsores y consolizadores; nuestras instituciones, lejos de ser una excepción, representan un ejemplo típico de esas epopeyas por la ciencia y, los personajes, si bien no sobran, existen en buen número en una historia que se ha escrito y sigue escribiéndose durante más de cuarenta años. El Instituto de Física de la UASLP inició sus operaciones en 1955 un año antes de que se creara la Escuela de Física, principalmente para dar cobijo a los trabajos de investigación del Dr. Gustavo del Castillo y Gama y permitir la gestación del proyecto de creación de la Escuela de Física impulsado por el propio Gustavo del Castillo, mismo que en diciembre de 1955 fue aprobado por el Consejo Directivo Universitario. La historia no es tan trivial y por lo tanto un poco extensa, pero aquí puedo recomendar que lean, le echen un ojo, al libro Física al Amanecer de Cadelario Pérez Rosales, si lo consiguen pues su edición no fue muy alta, aunque está por salir la segunda edición del libro (ya salió, el artículo fue escrito hace un año); igualmente acaban de salir publicados un par de artículos, uno en la Revista Universitarios Potosinos, que edita la propia UASLP, el artículo, escrito por José Luis Morán López, se intitula: comentarios sobre el libro física al amanecer de Candelario Pérez Rosales; el otro artículo escrito por el propio Candelario Pérez Rosales, acaba de ser publicado en el Boletín de la Sociedad Mexicana de Física y habla precisamente del personaje de quien me ocuparé en esta ocasión. Después de diez años de desarrollar importantes trabajos en física experimental, el Instituto de Física, como tal, estuvo prácticamente inactivo, hasta que a principios de los setenta, cuando Juan Fernando Cárdenas Rivero tuvo que dejar la dirección la escuela, fue retomado por él, el proyecto y el espíritu de lo que aún quedaba en los recintos universitarios de lo que en una ocasión fuera una de las instituciones más productivas en física experimental. A partir de ese momento y ante la imposibilidad de contar con un espacio propio para revivir el Instituto, Cárdenas incorporó con sus objetos personales la documentación, que daba la posibilidad de reincorporar al Instituto en la vida universitaria, a su portafolio. El inseparable portafolios negro de Cárdenas daría cobijo al nuevo instituto en ciernes durante casi una década. Alejado de la actividad de la Escuela, lo conocí en una de sus peregrinaciones por la ciudad, por supuesto, con su portafolio, posiblemente a tratar algún trámite o asunto relacionado con el Instituto. Como ya se narró en algún otro Cabuche, para 1973 se realizaban los trabajos de construcción del edificio del Instituto de Física, y por lo pronto además de existir en el portafolios del profe Juan, como se le conocía, para entonces existía algo de personal que formaba parte del Instituto, además de estudiantes egresados de la Escuela que realizaban sus estudios de Maestría, misma que fue impulsada por el profe Juan. En septiembre de 1978, por fin, fue inaugurado el edificio del Instituto, el cual además empezó contando con algo de equipo conseguido por Cárdenas a través del apoyo económico de la Organización de 809 El Hijo de El Cronopio No. 73 Estados Americanos; dos meses antes cuando se celebraba la FENAPO 78, los alumnos de la Escuela de Física encabezados por Salvador Palomares, habíamos organizado una exposición de aparatos antiguos de laboratorio de física, los mismos que ahora se pueden observar en mi oficina; no podía faltar, mientras atendíamos a las familias y niños que visitaban nuestra gustada exposición, apareció de repente el profe Juan, acompañado del Instituto en pleno, alojado en su portafolios negro, aproveche para preguntarle si se abrirían los cursos de maestría, mismos que se habían interrumpido a nuevas generaciones; su preocupación por lo pronto estaba centrada en iniciar los trabajos en el nuevo edificio y trasladar paulatinamente el Instituto de su portafolio a su nuevo espacio físico; tuve que emigrar a Puebla a realizar mis estudios de maestría y mientras me encontraba por allá reiniciaron los cursos de posgrado y el instituto estrenaba una planta de investigadores que prometía un buen futuro, para 1984 se graduó de doctor en ciencias Pedro Villaseñor y con él se iniciaba en provincia la otorgación de grados de doctorado en física, el tesón de gente como el profe Juan había permitido que en la UASLP se logrará graduar el primer doctor en ciencias en la especialidad en física. La presente dista mucho de ser una crónica exhaustiva de la labor de uno de los personajes que ha allanado el camino para que la física se desarrolle en nuestra universidad y en provincia y con ella la formación, ahora, de profesionistas en ciencias en las áreas de electrónica, matemáticas y física. En dos ocasiones tuvo en sus manos la dirección de las instituciones científicas que ahora nos dignifican, de mediados de los sesenta a principios de los setenta, la Escuela de Física y de principios de los sesenta a principios de los noventa, el Instituto de Física; prácticamente contra su voluntad tuvo que dejar ambos cargos, la más reciente salida, la aprovechó Cárdenas para jubilarse dignamente en la universidad para finalmente fallecer hace justo un año (ahora dos), el 19 de abril de 1998. La salida en esta ocasión está dedicada a recordar a otro personaje de la vida nacional desaparecido hace 42 años y, que al parecer sigue siendo el ídolo del pueblo, Pedro Infante. En cuanto a los versos de la canción, las coincidencias no tienen nada que ver con alusiones personales, son eso, simples coincidencias. Yo soy quien soy y no me parezco a na’iden/Me cuadra el campo y el chiflido de sus aires/y, mis amigos son los buenos animales/Chivos y mulas y uno que otro viejo buey. Juan Fernando Cárdenas Rivero 2 años de su muerte El próximo 19 de abril de 2000 se cumplen dos años de la muerte de Juan Fernando Cárdenas Rivero, quien fuera director de la Escuela de Física y posteriormente director del Instituto de Física. El Boletín, con su edición de esta semana, rinde tributo a su trabajo en pro del desarrollo de la física en San Luis. 810 Boletín El Hijo de El Cronopio Facultad de Ciencias Universidad Autónoma de San Luis Potosí No.74, 1 de mayo de 2000 Boletín de información científica y tecnológica de la Facultad de Ciencias Publicación semanal Edición y textos Fís. J. Refugio Martínez Mendoza Cualquier información, artículo o anuncio deberá enviarse al editor e-mail: flash@galia.fc.uaslp.mx Este boletín y números anteriores, pueden consultarse por Internet en la página de la UASLP: Definitivamente es un problema en el que la educación, la divulgación y la democracia deben estar involucrados. Sabemos de la carencia, con honrosas excepciones, de una televisión inteligente, que provoca la falta de reflexión del televidente ante lo expuesto en programas, noticieros, anuncios y promo cionales. Debemos dar el paso para que la opinión de la gente tenga un importante peso específico; para ello es necesario una población adecuadamente educada. Por un lado la población es la única que puede opinar sobre la conveniencia o la incomodidad que un programa de esa naturaleza, como el cambio de horario, causa a su cotidianeidad y a su convivencia diaria con el resto de la sociedad. Por otra parte, deben de existir las condiciones para que ante argumentos, que promuevan o desmeriten un programa, la población pueda discernir y codificar los mensajes esgrimidos, en pro y en contra. En este punto la educación en general y, en particular, la divulgación de la ciencia tienen un importante papel. Mientras son peras o manzanas, el “Brodi”, y posiblemente solo él, seguirá disfrutando de la posibilidad que le brinda el cambio de horario para darse una vida de la patada (en base a las patadas). http://phobos.dtc.uaslp.mx/publi.html Un buen ejemplo de la necesidad de realizar divulgación científica lo constituye el problema de la decisión unilateral del gobierno federal de imponer el cambio de horario, según la época del año. Después de la imposición, empezó a aparecer una campaña televisiva promoviendo las supuestas bondades del programa. A pesar de las voces, mayoritariamente autorizadas, que opinaban en contra del citado programa, el mismo se impuso y se siguió insistiendo en los desprestigiados e insostenibles argumentos originalmente esgrimidos por los promotores del programa. El “Brodi” tiene una hora más de luz solar para patear el balón (y supongo una buena lana por el anuncio). En este número transcribimos un artículo de Shahen Hacyan, titulado Geografía para funcionarios, que trata precisamente del problema citado, mismo que escribió para el periódico Reforma en su sección Aleph Cero. ____________________________ Todos aquellos interesados en contemplar las pasadas y nuevas imágenes tomadas desde la Mars Global Surveyor sobre la famosa cara de Cydonia, en Marte, pueden hacerlo en: http://mars.jpl.nasa.gov/mgs/msss/camera/images/4_5 _00_cydonia/index.html ____________________________ El Hijo de El Cronopio No. 74 Aleph Cero/Geografía para funcionarios Por Shahen Hacyan para el periódico Reforma Noticias de la Ciencia y la Tecnología Corazón de dragón Los científicos han descubierto el fósil de un dinosaurio de 66 millones de años de antigüedad cuyo corazón se ha preservado de forma extraordinaria. Uno de los milagros de la paleontología es la increíble cantidad de información que los expertos pueden extraer de una reunión, casi siempre incompleta, de huesos fosilizados. Imaginemos por tanto cuánto más seríamos capaces de comprender si además de los esqueletos pudiésemos disponer de las partes blandas de un cuerpo prehistórico. Esto ha ocurrido alguna vez, gracias a especialísimas circunstancias y condiciones de conservación, pero en escasas ocasiones se ha producido un gigantesco avance paleontológico como el presente. Científicos de la North Carolina State University y del North Carolina Museum of Natural Sciences han descubierto el primer espécimen de dinosaurio que aún conserva su corazón fosilizado. La importancia del hallazgo es enorme, ya que podría llegar a resolver muchas de las incógnitas relacionadas con la fisiología de estos animales, desaparecidos completamente hace unos 65 millones de años. Imágenes mejoradas mediante ordenador muestran las interioridades del corazón fosilizado, el cual parece poseer cuatro cámaras o ventrículos y una única aorta sistémica, tal y como si estuviésemos contemplando el corazón de un mamífero o un pájaro y no el de un reptil. La primera conclusión es que el sistema circulatorio de los dinosaurios era mucho más avanzado que el de los reptiles, lo que apoya la hipótesis que sugiere que eran animales de sangre caliente. El dinosaurio herbívoro protagonista de esta historia tiene 66 millones de años de antigüedad y se llama Thescelosaurus. Su tamaño es similar al de un pequeño pony y su peso debió alcanzar los 300 kg. Sin embargo, su cola y su cuello le otorgaban una longitud total de casi 4 metros. Sus restos han sido bautizados como Willo (no es el Angelito), en honor a la esposa del granjero en cuyas tierras fueron hallados en 1933, en el noroeste de South Dakota. Los ventrículos y la aorta de Willo indican que poseía unos sistemas circulatorio y pulmonar totalmente separados, lo que sugiere que su metabolismo era más rápido que lo que podemos apreciar en los reptiles actuales. Los especialistas utilizaron una serie de escaneados mediante tomografía computerizada en dos dimensiones para crear una imagen tridimensional. Gracias a ello confirmaron que la forma rojiza visible dentro de su caja torácica es, efectivamente, un corazón fosilizado. La identificación no fue sencilla, ya que el esqueleto se halla comprimido y en un orden anatómicamente incorrecto. Así permaneció, enterrado durante 66 millones de años en piedra arenisca, un lugar que, gracias a la ausencia de oxígeno, actuó como perfecto ataúd de conservación. 798 El Hijo de El Cronopio No. 74 El Thescelosaurus Willo, probablemente de la especie T. neglectus, es un caso especial de espécimen magníficamente conservado. De hecho, es el primero que presenta un cráneo completo y tejidos blandos. Se han encontrado también, por ejemplo, algunos tendones aún conectados a la columna vertebral, así como cartílago fosilizado unido a las costillas. Willo podría contener otros órganos fosilizados, pero las investigaciones no han llegado todavía tan lejos. Información adicional en: http://www.dinoheart.org http://www.ncsu.edu/news/ http://www.naturalsciences.org/ El cuarto cráter de impacto A pesar de la erosión que los ha hecho a menudo casi invisibles, los científicos siguen descubriendo huellas de pasados impactos contra la Tierra. El último, identificado en Australia, es el cuarto más grande conocido. Basta con echar un vistazo hacia otros cuerpos sólidos del Sistema Solar para descubrir en ellos claros signos de un pasado que fue violento. Objetos más pequeños bombardearon sus superficies, dejando a su paso cicatrices indelebles fácilmente identificables. La Tierra, sin embargo, es un mundo activo, y fenómenos como el vulcanismo o la tectónica de placas, la erosión del viento o de las aguas, han conspirado para borrar u ocultar las huellas de tan primitivos impactos. A pesar de todo, nuestro planeta presenta signos evidentes de cráteres y, aunque difíciles de identificar, su catalogación no ha dejado de avanzar durante los últimos años. En la actualidad se han documentado unos 170 y a menudo los científicos siguen sorprendiéndonos con nuevos anuncios. El más reciente se refiere a un cráter que presenta un tamaño espectacular. Se encuentra en Australia (Woodleigh) y su diámetro alcanza los 120 km, lo que lo sitúa cuarto en el ránking de los mayores cráteres de impacto conocidos en nuestro planeta. El hallazgo no ha sido fácil, puesto que la estructura se encuentra oculta, como muchas otras, bajo una capa sedimentaria plana. El Woodleigh, por fortuna, conserva un pico central y una serie de signos concéntricos que delatan su origen. En realidad, el cráter es conocido desde hace mucho tiempo, pero se han necesitado dos décadas de estudios para confirmar su origen extraterrestre. Durante este período se han realizado extracciones de minerales, análisis de todo tipo, fotografías aéreas, mediciones gravitatorias, etc. Una vez determinada su procedencia real, los científicos se han esforzado en calcular su edad, la cual aún no está del todo clara. Algunas estimaciones la sitúan entre los 365 y los 395 millones de años, coincidente con diversos episodios de extinciones masivas. Quizá lo más interesante de estos estudios sea que los especialistas avanzan hacia una cada vez más sencilla identificación de cráteres enterrados, lo que hace suponer que éste no será ni mucho menos el último que vaya a ser descubierto en poco tiempo. Información adicional en: http://www.dme.wa.gov.au/news/17apr.html 799 El Hijo de El Cronopio No. 74 La broca del futuro Mientras la NASA trabaja para construir herramientas que permitan extraer muestras procedentes de otros planteas, el mismo esfuerzo tecnológico podrá ser aplicado en otros campos aquí mismo, en la Tierra. Los científicos del Jet Propulsion Laboratory, en Pasadena, han desarrollado un dispositivo ultrasónico que puede perforar rocas muy duras, lo que lo hace ideal para extraer muestras que deberán ser analizadas para buscar sustancias químicas específicas o incluso signos de vida en otros planetas. La herramienta, no obstante, podría ser también utilizada de forma masiva en las consultas de los cirujanos ortopédicos y por otros especialistas médicos. Ideados para misiones espaciales, dichos dispositivos son ligeros y pequeños, consumen muy poca energía y son extremadamente fiables, características nada desdeñables en el ámbito de la medicina. Aunque los prototipos no son aún perfectos, la tecnología podrá miniaturizarse para que ocupe sólo la palma de una mano. El mecanismo se llama Ultrasonic/Sonic Drill and Corer y está siendo desarrollado bajo contrato por la empresa Cybersonics. El perforador se mueve gracias a actuadores piezoeléctricos, los cuales sólo poseen dos piezas móviles, careciendo de motores y transmisiones. Este tipo de actuadores están hechos de materiales que cambian su forma bajo la aplicación de un campo eléctrico. El sistema puede ser adaptado para actuar bajo un amplio rango de temperaturas y su potencia es tal que puede perforar las rocas más duras, como el granito o el basalto. El prototipo actual pesa únicamente 0,7 kg y puede realizar agujeros en granito de 12 mm de profundidad usando sólo unos 10 vatios de energía eléctrica. Los perforadores rotativos convencionales precisarían entre 20 y 30 veces más fuerza impulsiva, así como entre 2 y 3 veces más energía. La pieza situada en el extremo de la broca no debe ser afilada y su velocidad de actuación no disminuye en ningún momento. Como no gira, puede ser dirigida a mano con total seguridad. La perforación puede realizarse en secciones circulares, cuadradas o hexagonales. En medicina, podrá ser usado para diagnósticos o para reparaciones de piezas óseas. Información adicional en: http://ndeaa.jpl.nasa.gov Imagen: http://www.jpl.nasa.gov/files/images/browse/ultrasonic_drill_2.gif (La broca ultrasónica.) (Foto: JPL) Comunidad vecinal No hay nada como charlar por encima de la valla de nuestro patio si lo que queremos es acrecentar nuestro sentimiento de implicación en la comunidad de vecinos. Algunas ciudades han crecido tanto que sus habitantes han perdido toda noción de comunidad vecinal. No sólo se conocen apenas entre ellos, sino que además ignoran 800 El Hijo de El Cronopio No. 74 buena parte de lo que sucede en el barrio, propiciando un sentimiento de desconexión y lejanía con respecto a sus conciudadanos. Algunos estamentos han intentado resolver esto a base de publicaciones informativas, pero no es suficiente. La cuestión es lo bastante grave como para propiciar el inicio de estudios sociológicos, como el llevado a cabo por Sandra J. Ball-Rokeach, de la University of Southern California. Dicho estudio llega a una sorprendente conclusión: los habitantes de Los Ángeles, sobre los cuales se ha documentado el trabajo, sienten que pertenecen a una comunidad en proporción directa a la cantidad de tiempo que pasan hablando con sus vecinos. Para ello se han entrevistado a 1.800 residentes. Estadísticamente, los resultados no pueden ser más claros: las viejas relaciones interpersonales, el encuentro en el vestíbulo del edificio de apartamentos, o la charla entre dos vecinos, con la tradicional valla entre ambos, son el camino más rápido y poderoso de sentirse como parte integrante de una comunidad. En tales situaciones, los interlocutores hablan de otros vecinos (no siempre bien, por supuesto), de las historias publicadas por la prensa que más les afectan, de actividades organizadas por los estamentos vecinales, etc. Dichos estamentos, pues, deben hacer lo posible por fomentar la difusión de información vecinal, o de otro modo, se corre el peligro de propiciar el aislamiento y la retirada de la vida pública. En una era globalizada y cada vez más dominada por las relaciones interpersonales que se derivan del correo electrónico e Internet, existe el riesgo de que nuestro sentimiento de aprecio hacia todo lo que nos rodea de forma más inmediata se desvanezca. El estudio, llamado "Proyecto Metamorfosis", busca dilucidar si aún es posible que las grandes áreas urbanas puedan sostener comunidades. La principal conclusión es que las comunicaciones vecinales deben ser potenciadas al máximo si estas comunidades deben poder subsistir en el futuro. También se ha visto que el seguimiento masivo de la programación televisiva general influye en gran medida en la paulatina desintegración del sentimiento de comunidad. Las sociedades que han perdido este sentimiento son precisamente aquellas que presentan mayores índices de criminalidad local, lo cual a su vez dificulta aún más los esfuerzos institucionales por mejorar la zona. Información adicional en: http://www.annenberg.edu/ http://www.usc.edu/ext-relations/news_service/releases/stories/38633.html Imagen: http://uscnews.usc.edu/files/ball-rokeach/Ball-Rokeach1.jpg (Sandra J. Ball-Rokeach.) (Foto: Irene Fertik, USC News Service) Fumar no ayuda en la vejez Aunque algunos estudios habían sugerido que el fumar podría proteger contra enfermedades tales como la demencia senil, una investigación estadística más precisa desmiente esta posibilidad. 801 El Hijo de El Cronopio No. 74 Fumar durante la vejez no va a ayudarnos a luchar contra enfermedades graves como el Alzheimer o la demencia, casi siempre relacionadas con edades avanzadas. Esta conclusión contradice un estudio previo que sugería lo contrario. Para dilucidar este tema, los científicos realizaron un control estadístico de una comunidad concreta, situada en North London. Expertos del londinense Institute of Psychiatry, junto a los que ha colaborado Jorge Cervilla, del Hospital San Luis, de Palencia, analizaron los hábitos de bebida y tabaco de 650 personas de más de 65 años, así como sus capacidades intelectuales. Una vez excluidos aquellos que ya habían dado muestras de deterioro mental, los demás fueron seguidos durante un período de un año, al término del cual se estableció si ese deterioro se había producido o no. Las pruebas fueron similares a las utilizadas habitualmente para determinar el grado de gravedad de enfermedades como las mencionadas Alzheimer o demencia senil. De las 417 personas que pudieron ser sometidas de nuevo a las pruebas al final del período convenido, una de cada 16 había sufrido una reducción significativa de su capacidad intelectual. Después de ajustar los resultados a factores que afectan a la función cerebral de las personas mayores, como la depresión, la salud general, el consumo de alcohol y los niveles educativos, se encontró que los fumadores tenían una probabilidad cuatro veces superior a sufrir deterioro mental que los no fumadores o los que habían dejado el tabaco con anterioridad. Los bebedores moderados, por su parte, tenían una posibilidad de sufrir problemas de este tipo sólo ligeramente mejor que los que consumían mucho alcohol. El fumar contribuye a las enfermedades vasculares y a la arterioesclerosis, que reduce el caudal de las arterias y las endurece, perjudicando a todo el cuerpo pero en especial al cerebro. Los investigadores creen que a pesar de haber alcanzado una edad avanzada, los pacientes deben ser inducidos a dejar de fumar lo antes posible, ya que ello seguramente repercutirá en su estado intelectual con posterioridad. Información adicional en: http://www.cfah.org/ Prototipo en marcha Dicho y hecho, los promotores de un nuevo y revolucionario sistema de detección radioastronómica para trabajos relacionados con la búsqueda de señales extraterrestres inteligentes han presentado por fin el prototipo del sistema. Cuando se cumplen 40 años del inicio de las actividades SETI (Búsqueda de Inteligencia Extraterrestre), miembros de la University of California han dado a conocer el primer prototipo de un nuevo radiotelescopio que promete convertirse en el más poderoso y sensible de los que se han dedicado nunca a esta tarea. El modelo definitivo se llamará One Hectare Telescope o 1hT, y como su nombre indica, consistirá en un sistema de antenas cuya superficie colectora alcanzará una hectárea (unos 10.000 metros cuadrados). El 1hT es una iniciativa conjunta de la mencionada universidad y el SETI Institute. Para validar su diseño, los astrónomos que participan en 802 El Hijo de El Cronopio No. 74 el proyecto han ideado la construcción de sucesivos prototipos, el primero de los cuales fue presentado el 19 de abril. Dicho prototipo posee un total de siete parábolas y es un grito lejano de lo que será el instrumento definitivo, formado por cientos o quizá miles de antenas parabólicas, interconectadas de forma altamente compleja. Por supuesto, un dispositivo como éste tiene también un enorme potencial en otras áreas gracias a su sensibilidad, como la radioastronomía, donde será útil para estudiar el nacimiento de las estrellas. El prototipo tiene el objetivo de demostrar que es posible agrupar una serie de antenas individuales y hacer que trabajen de forma conjunta con total precisión. Servirá también para afrontar problemas como las interferencias (en particular las procedentes de los satélites de comunicaciones), el procesado de señales, etc. Por tanto, no será usado en la investigación SETI. Se probarán diversos tipos de motor y monturas para mover las antenas hacia una sección particular de la bóveda celeste, todo ello en condiciones de campo y no sólo en el laboratorio. Se pretende probar que es posible realizar observaciones simultáneas de diversos objetivos, y otras tareas en las que se mezclen radioastronomía e investigación SETI. El segundo prototipo, más grande, quedará listo en 2002. La versión definitiva del 1hT será instalada en el llamado Hat Creek Observatory hacia el año 2005. En esa fecha, el sistema será el mayor dedicado a trabajos SETI, con un poder de captación de señales similar al del Very Large Array, situado en New Mexico. Con el 1hT se avanzará más allá de la observación de unos pocos centenares de estrellas cada año, tal y como ocurre ahora mismo. Además, podrá ser expandido en función de las necesidades, con la simple adición de un mayor número de antenas. Su precio final será de unos 25 millones de dólares, mucho menos que un sistema convencional. Información adicional en: http://www.seti.org http://www.seti-inst.edu/general/rpa_pr/index.htm http://www.berkeley.edu/news/media/releases/2000/04/19_seti.html Imagen: http://www.seti.org/general/rpa_pr/pages/HatCreekMid.htm (Las antenas prototipo.) (Foto: Seth Shostak/SETI Institute) Tras la pista del rey El análisis de los supuestos restos del rey Felipe II, padre de Alejandro el Grande, revela que corresponden en realidad a otra persona. El antropólogo Antonis Bartsiokas ha demostrado una vez más que las apariencias engañan. Durante mucho tiempo, los estudiosos de la historia griega antigua habían atribuido a un esqueleto conservado en un museo una identidad que en realidad no es la suya. Hasta ahora se creía que los huesos correspondían al rey Felipe II, líder militar y padre de Alejandro el Grande. La razón es que su cráneo presenta una serie de marcas que se 803 El Hijo de El Cronopio No. 74 atribuyeron a las heridas sufridas por Felipe cuando éste recibió el impacto de una flecha en su ojo derecho. Pero Bartsiokas ha demostrado que dichas marcas son sólo un capricho anatómico, acentuado por los efectos de una cremación y de una incorrecta reconstrucción posterior. El antropólogo ha utilizado una técnica llamada macrofotografía, que le ha permitido estudiar el esqueleto con meticuloso detalle. El citado esqueleto fue extraído en 1977, tras ser descubierto en una tumba real en Vergina, punto donde se encontraba la antigua capital Macedonia, Aigai. Casi todas las tumbas de la zona habían sido expoliadas hacía tiempo, pero ésta contenía los restos de un hombre y una mujer que habían sido quemados. Los especialistas identificaron la pareja como el rey Felipe II y su esposa, los cuales reinaron entre los años 359 y 336 antes de Cristo. Las actividades militares de Felipe, que dominó Macedonia y tomó el control de Atenas y Tebas, dejaron el camino expedito para que su hijo Alejandro creara un vasto imperio, lo cual incrementa el interés histórico de su figura. Sin embargo, recientemente se determinó que los utensilios encontrados en la tumba real son de aproximadamente el 317 antes de Cristo, una generación después del asesinato de Felipe en el 336. Por tanto, los inquilinos de la tumba son más probablemente los sucesores de Alejandro el Grande, quien a su vez fue enterrado en Egipto. Tras la muerte de Alejandro, el trono fue a parar a uno de los otros hijos de Felipe II, Felipe III Arrhidaeus. Rey sólo de nombre, ya que los amigos de Alejandro se dividieron el imperio entre ellos, Arrhidaeus estaba mentalmente enfermo o quizá estaba discapacitado. Plutarco nos dice que Olympias, la celosa madre de Alejandro, lo envenenó de pequeño. Para resolver el misterio de la identidad del esqueleto de una vez por todas, Bartsiokas, del Anaximandrian Institute of Human Evolution, tomó varias fotografías de los huesos y las amplió hasta alcanzar la escala de un microscopio óptico convencional. Esto le permitió revisar con detalle toda la superficie ósea, incluyendo los lugares en los que supuestamente se produjeron las heridas. Así, las marcas observadas con anterioridad han sido descartadas como heridas de guerra, negando la identidad asignada al individuo. Bartsiokas también detectó daños en el cráneo durante la cremación, que después fueron resueltos incorrectamente por los enterradores, ya que éstos provocaron una distorsión asimétrica. Bartsiokas investigó finalmente si los huesos habían estado recubiertos de carne antes de la cremación. El cuerpo de Arrhidaeus fue enterrado después de ser asesinado por Olympias o un conspirador, de modo que la teoría de que su sucesor, Cassander, le exhumó para volverlo a enterrar después de la cremación de sus restos, cobra especial relevancia. Cassander habría hecho esto como gesto honorífico que promoviera su propia legitimidad como rey. Como los forenses saben bien, los huesos presentan claras diferencias en función de si han sido quemados inmediatamente o después de transcurrido un tiempo tras la muerte. Los huesos con carne sobre ellos sufren fracturas debido a la acción del calor sobre el colágeno, que se contrae. Los huesos de la tumba real fueron quemados cuando ya no había carne sobre ellos, lo que confirma que pertenecen a Arrhidaeus y no a Felipe II. 804 El Hijo de El Cronopio No. 74 Muchos de los objetos encontrados son probablemente heredados de Alejandro el Grande e incluyen una corona de plata, un yelmo de hierro y un elaborado escudo ceremonial. Para los historiadores, las oportunidades de encontrar al verdadero Felipe II parecen haber disminuido mucho. Aunque las excavaciones continúan, los saqueos vaciaron los contenidos de la mayoría de las tumbas hace mucho tiempo. Información adicional en: http://www.aaas.org/ Bloqueo de satélites e Internet Expertos de la Fuerza Aérea estadounidense han descubierto con desmayo que las instrucciones para bloquear ciertos satélites de importancia estratégica circulan libremente en Internet. El llamado Space Aggressor Squadron es un equipo de especialistas de la US Air Force dedicado a la búsqueda de puntos débiles en los sistemas de comunicaciones y de navegación. Adoptando el papel del enemigo, descubren así aquellas zonas técnicas que deberán ser reforzadas para evitar el desastre. Una de las tácticas más sencillas empleadas por el citado escuadrón es, simplemente, buscar información en Internet, algo que está al alcance de cualquier país o grupo con intenciones dudosas. La conclusión es que, en efecto, la red de redes contiene innumerables datos sobre cómo paralizar este tipo de sistemas con total impunidad. En Internet no sólo podemos hallar información sobre cómo construir y operar un satélite, sino también cómo impedir su funcionamiento correcto. Basta con teclear las palabras oportunas en cualquier buscador para ser perfectamente conscientes de ello. Para comprobar que los resultados de una búsqueda sencilla son fiables, se ordenó a dos ingenieros principiantes del US Air Force Research Laboratory la construcción de un aparato para interferir satélites basado en las instrucciones recolectadas. Por 7.500 dólares, los ingenieros construyeron una fuente móvil de "ruido" de alta energía en UHF, la cual podría ser usada para interferir las antenas de un satélite o los receptores militares que operan en esta gama de frecuencias. Algo así como subir el volumen de tu radio más que los demás. Con diferentes componentes es posible interferir otras frecuencias, como las de los satélites de navegación y posicionamiento global. De hecho, los GPS emiten una señal de muy baja potencia, así que la tarea no es difícil. Los militares encargan ya sus nuevos satélites de comunicaciones en UHF con amplias capacidades para combatir las interferencias. Esto encarece mucho su precio, pero en vista de la situación, la medida no admitirá relajación alguna. (New Scientist) En ruta de colisión Nuestra galaxia, la Vía Láctea, y la cercana galaxia de Andrómeda chocarán catastróficamente dentro de 3.000 millones de años. El amplio catálogo de alternativas que justifican la verosimilitud de un fin del mundo prematuro se ha visto engrosado con un nuevo integrante. Afortunadamente, no hay que 805 El Hijo de El Cronopio No. 74 ponerse nerviosos todavía: según John Dubinski, astrofísico del Canadian Institute for Theoretical Astrophysics, de la University of Toronto, el suceso no ocurrirá antes de dentro de 3.000 millones de años. Recientes observaciones astronómicas indican que la galaxia de Andrómeda se acerca a nuestro propio barrio galáctico a una velocidad de 500.000 km/h. En la actualidad, se encuentra a 2,2 millones de años luz de distancia, siendo la galaxia independiente más cercana a nosotros. Su tamaño es más grande que el de nuestra Vía Láctea, de modo que cuando ambas se encuentren, la primera absorberá a la segunda completamente. La velocidad de aproximación, por otro lado, aumentará debido a la creciente atracción gravitatoria en cuanto la distancia que las separa vaya menguando. La fusión de dos galaxias no es un fenómeno infrecuente en el Universo y de hecho estos fenómenos explican en parte el por qué de la existencia de algunas grandes estructuras cósmicas. Hoy en día las fusiones son menos abundantes que en épocas más pretéritas, pero a pesar de todo aún ocurren, como bien atestiguan imágenes captadas por los grandes telescopios terrestres y espaciales. Tras llegar a esta conclusión, Dubinski ha simulado mediante un ordenador las interacciones de Andrómeda y la Vía Láctea, tomando como punto de partida los movimientos de unos 100 millones de estrellas y de múltiples partículas de materia oscura. La simulación empleó un ordenador IBM SP3 "Blue Horizon" de 1.152 procesadores durante cuatro días. Este sistema puede realizar 1 billón de operaciones aritméticas en un segundo. El resultado ha sido una animación en alta resolución que muestra la colisión y la fusión de las dos galaxias desde el principio hasta el final. Cuando ello ocurra, no es todavía seguro que implique el fin inmediato de la vida en la Tierra. A pesar de la interacción entre las estrellas, es relativamente difícil que haya choques físicos entre cuerpos estelares y planetarios. Sin embargo, sí puede haber distorsiones por efectos gravitatorios debido al paso cercano de estrellas, etc. Esto podría provocar la perturbación de la nube de cometas de Oort y que algunos de ellos caigan sobre la Tierra provocando su destrucción. También podría ocurrir que el Sol y sus planetas salgan despedidos fuera de la galaxia que los vio nacer, o por el contrario, que se vean arrojados al centro galáctico resultante, donde servirán como materia prima para la creación de nuevas estrellas. Lo que sí es seguro es que dentro de 3.000 millones de años, quienes se encuentren todavía sobre este planeta contemplarán la galaxia de Andrómeda desde una perspectiva muy diferente, ya que ésta cubrirá totalmente el cielo nocturno. Durante la fusión, presenciarán además un espectacular despliegue de fuegos artificiales. Las estrellas más masivas empezarán a explotar como supernovas a un ritmo tal que durante la noche será posible leer un periódico sin luz artificial. La radiación de tales explosiones podría ser asimismo el origen de la esterilización de nuestro planeta y, por consiguiente, de la desaparición de la vida. Animación: ftp://holstein.cita.utoronto.ca/pub/tflops/tflops.mpg (Animación de las interacciones entre las dos galaxias.) (Cortesía: U. of Toronto) Naranjas exprimidas 806 El Hijo de El Cronopio No. 74 Un nuevo procedimiento permitirá que el zumo de naranja envasado tenga el mismo sabor que si éstas hubieran acabado de ser exprimidas. Los consumidores lo saben bien. No hay rival, en cuanto a sabor, para un buen zumo de naranja recién exprimido. Las necesidades de almacenaje, transporte y conservación impiden que el zumo envasado que podemos comprar en los supermercados tenga un sabor tan fresco y agradable. Sin embargo, esto podría resolverse en breve, ya que una nueva técnica perfeccionada por Murat Balaban, profesor del Institute of Food and Agricultural Sciences de la University of Florida, promete lo que hasta ahora parecía imposible. El procedimiento implica el uso de dióxido de carbono a alta presión y garantiza un sabor original y un consumo tan seguro como el de la variedad pasteurizada. Las pruebas realizadas hasta el momento indican que las personas no son capaces de distinguir entre un zumo "viejo" elaborado de esta forma y otro recién hecho. El zumo de naranja, una vez extraído de la fruta, es mezclado con CO2 presurizado y pasado a través de un tubo. Al final del proceso, el zumo es despresurizado y separado del gas, lo que mata a los microorganismos peligrosos. Evitada la pasteurización a alta temperatura, el sabor no resulta afectado. Se han hecho pruebas con E-coli, salmonella y otros microorganismos. La reducción de su número basta para superar las limitaciones impuestas por la reglamentación vigente. Además de acabar con los microbios, el proceso inactiva un enzima que causa que el zumo de naranja se separe durante su permanencia en la estantería. Normalmente, cuando la espera se prolonga demasiado tiempo, el zumo envasado adopta una forma acuosa semitransparente, con una masa amarillenta y más sólida en el fondo. Para recuperar la mezcla, se puede sacudir el envase, pero esto no evita que vuelva a ocurrir, dado que el enzima sigue presente. El nuevo procedimiento es asimismo más respetuoso con las vitaminas, especialmente la vitamina C, y otorga una fecha de caducidad al producto similar al actual (unos dos meses, frente a los 14 días del zumo natural). Por supuesto, se espera que el sistema pueda aplicarse en otro tipo de zumos, como el de manzana o el de piña. Las primeras pruebas al respecto parecen satisfactorias. Información adicional en: http://news.ifas.ufl.edu/print/2000/00_0421.html Imagen: http://news.ifas.ufl.edu/print/2000/pics/juice.JPG (El zumo de naranja envasado mejorará su sabor.) (Foto: Eric Zamora UF/IFAS) La Ciencia desde el Macuiltépetl/ Arthur Eddington Por Manuel Martínez Morales Cuando se produce una gran revolución científica suele asociarse el nombre del hombre de ciencia a quien se considera su creador. Así, al hablar de la teoría de la relatividad nos viene a la mente el nombre de Albert Einstein. Pero, si bien lo fundamental de una teoría puede ser enunciado por una sola persona, siempre habrá otros científicos talentosos que, 807 El Hijo de El Cronopio No. 74 desde sus propias especialidades, contribuyan a que la nueva teoría avance y se consolide. Y se da el caso de que los nombres de estos brillante hombres de ciencia no luzcan tanto como el del genio creador de la teoría, tal es el caso de Arthur Stanley Eddington. Astrónomo, físico, matemático, Arthur Eddington, nacido el 28 de diciembre de 1882 en un pueblo del norte de Inglaterra, fue un pionero en el estudio de la teoría de la relatividad, la cosmología y la estructura de las estrellas; fue también un notable divulgador de las ideas científicas y de las implicaciones filosóficas de las mismas. Eddington fue el primero en exponer en inglés la teoría de la relatividad, pues el trabajo original de Einstein había sido escrito en alemán. Durante cierto tiempo se decía que únicamente dos hombres entendían la teoría de la relatividad, Einstein y Eddington. En 1918, publicó el Reporte sobre la teoría relativista de la gravitación, presentado a la Sociedad Física; poco después, en 1920, escribió Espacio, tiempo y gravitación, y en 1923 su gran tratado sobre la Teoría matemática de la relatividad, considerado por el mismo Einstein como la mejor exposición de su teoría. Sir Arthur no fue sólo un divulgador de la relatividad; es famoso también por haber dirigido en 1919 una expedición a la isla del Príncipe, en África Occidental, para confirmar un aspecto de la teoría de Einstein. Ésta predecía que los rayos de la luz se curvarían por efecto de la gravedad. Esto es, que al pasar un rayo de luz cerca de un gran cuerpo celeste, una estrella por ejemplo, su trayectoria cambiaría en una magnitud dada. En ese año hubo un eclipse total de sol que pudo observarse en la isla mencionada y que permitió ver el desplazamiento aparente de la posición de las estrellas, tal como la teoría lo predecía. Además, Eddington contribuyó a modificar la geometría no-euclideana usada por Einstein, y la utilizó para producir su propia teoría del universo, plasmada en El universo en expansión (1933). Otra de sus obras se titula Teoría relativista de protones y electrones, en la cual intentó unificar la teoría de la relatividad y la teoría cuántica. Se le considera también fundador de la dinámica estelar; a los 34 años (1914) publicó Movimientos estelares y la estructura del universo. En lo que se refiere a otros aspectos de su vida, Sir Arthur era pacifista y profundamente inclinado a la religión. En su libro La ciencia y el mundo inobservable. Eddington declara que el sentido del universo no puede alcanzarse por medio de la ciencia, sino por la “aprehensión espiritual de la realidad”. Su teoría de la ciencia lo condujo a elaborar el concepto de “subjetivismo selectivo”, según el cual gran parte de la física refleja simplemente las suposiciones que el físico hace sobre los datos con los que trabaja. Eddington recibió en vida diversos honores, entre otros, títulos honoríficos de diversas universidades. Fue presidente de la Real Sociedad Astronómica (1921-1923), de la Sociedad Física (1930-1932) y de la Asociación Astronómica Internacional (1938-1944). Uno de los grandes anhelos era elaborar una gran teoría unificadora de cuanto se conoce sobre la estructura física del universo; aunque inacabado, este esfuerzo se plasmó en la obra Teoría fundamental publicada póstumamente, en 1946, obra que para muchos es incomprensible y para otros una señal del deterioro mental de Eddington en los últimos años de su vida. En este año se cumplirán 40 años de la muerte de Sir Arthur Eddington. Al recordar este talentoso hombre de ciencia, recordemos también que los logros científicos son posibles en la medida que muchos hombres contribuyan, algunos más otros menos, con su propia y original capacidad e inteligencia. 808 El Hijo de El Cronopio No. 74 El Cabuche (crónicas de la Facultad de Ciencias)/ El boilercito En estas épocas en que la radiación solar causa estragos en el ánimo y agobia la respiración el aire enrarecido por las altas temperatura, la pérdida de líquidos es inevitable; necesario es recuperarlos a fin de estabilizar la temperatura corporal. Por supuesto que hay de líquidos a líquidos, quienes se conformen con recuperarlos con vil y vulgar agua, muy su gusto; quienes consideren, como yo, que el agua es pa`bañarse y pa`las ranas que nadan bien, pues, una o dos cervezas es la solución, más sano además. Por esa y otras razones, más por las otras razones, no faltaba entre la raza en nuestra época de estudiantes, no hace mucho 22 o 23 años, quien empezara a hacer la coperacha para poder mercar algunas, de perdis una, caguamas y mitigar esa incontrolable sed de primavera y verano (algunas veces también de otoño e invierno). No siempre traíamos lana, pero la lucha se hacía. Como en la mayoría de los oficios, se requiere vocación para emprender tan imprescindible faena de colectar morralla, el mentado marcianito alias Gerardo Moreno quien ahora chambea en el Instituto de Física de la Universidad de Guanajuato, agandalló el puesto y periódicamente organizaba la colecta; poniendo una o dos monedas en sus manos haciendo covachita con ambas, las comenzaba a agitar cual maracas y ante el tintineo de las monedas de Morelos y Cuauhtémoc como efigie, empezaba a aumentar el alegre sonido al agregarse algunas Josefas. Cuando la cantidad era suficiente (nunca) o el tintineo llegaba a los decibeles adecuados, una honorable comisión partía a adquirir la preciada mercancía. Así pasaba el verano; aunque el problema fue que se empezó a jugar con nuestros sentimientos. El marcianito salía de la escuela por el ancho acceso que daba al jardín a la avenida Manuel Nava, con el característico juego de manos de provocaba el celestial tintineo, pregonando 809 Boletín El Hijo de El Cronopio Facultad de Ciencias Universidad Autónoma de San Luis Potosí No.75, 8 de mayo de 2000 Boletín de información científica y tecnológica de la Facultad de Ciencias Publicación semanal Edición y textos Fís. J. Refugio Martínez Mendoza Cualquier información, artículo o anuncio deberá enviarse al editor e-mail: flash@galia.fc.uaslp.mx Este boletín y números anteriores, pueden consultarse por Internet en la página de la UASLP: http://phobos.dtc.uaslp.mx/publi.html Noticias del Espacio ♦ Las autoridades sudafricanas han informado del hallazgo de dos objetos metálicos de considerable tamaño, uno con más de 100 kg de peso, que al parecer cayeron de la órbita. Aunque es preciso un análisis, podrían pertenecer a los restos de una misión Delta lanzada en 1986 para colocar en el espacio a un satélite estadounidense Navstar GPS. ♦ Tal como estaba previsto, la primera campaña de recolección de partículas interestelares llevada a cabo por la sonda Stardust finalizó el 1 de mayo. La trampa de aerogel fue cerrada con éxito y así permanecerá durante algún tiempo. Las próximas actividades a bordo de la nave estarán protagonizadas por una pequeña corrección de trayectoria (TCM-3) el 24 de mayo. Se abrirá en esta oportunidad la cubierta de la cápsula de retorno de muestras, para demostrar que podrá permanecer en esta posición en 2004, cuando se efectúen las dos últimas correcciones en dirección al cometa Wild-2. Más información en: http://stardust.jpl.nasa.gov ♦ Aprovechando la rara alineación planetaria que se está produciendo durante este mes de mayo, el observatorio solar SOHO realizará el día 15 una serie de tomas fotográficas inéditas. Mercurio, Venus, Júpiter y Saturno se encontrarán en ese instante simultáneamente en el campo de visión del coronógrafo LASCO, el cual se encuentra siempre dirigido hacia el Sol. La alineación planetaria es difícil de observar desde la Tierra debido a la proximidad del fenómeno con respecto a la deslumbrante figura del Sol, pero esto no es un problema para el SOHO, que ha sido diseñado para ello. El instrumento LASCO tiene un campo de visión de unos 15 grados, suficiente para acomodar en él a los citados cuatro planetas. Más información en: http://sohowww.nascom.nasa.gov/hotshots/ http://sohowww.estec.esa.nl/hotshots/ El Hijo de El Cronopio No. 75 Noticias de la Ciencia y la Tecnología Apunta el telescopio El Instituto Científico del Telescopio Espacial celebra los diez años de funcionamiento del observatorio Hubble invitando al público a elegir y votar el lugar del cielo que desearían fotografiar. Si algo caracteriza al telescopio espacial Hubble, además de su potencia y descubrimientos, es su fantásticamente repleta agenda. Cada año, astrónomos de todo el mundo realizan centenares de propuestas de observación, algunas de ellas muy meritorias, pero sólo una pequeña parte pueden ser puestas en práctica debido al limitado tiempo disponible. Sin embargo, la dirección del Space Telescope Science Institute (STScI), el órgano que controla y gestiona el día a día del telescopio Hubble, ha decidido hacer un hueco muy especial en sus compromisos. La ocasión lo merece, ya que se trata de compartir con el público la celebración de la primera década de operación del observatorio. Hasta el 6 de junio, el Hubble Heritage Project, un grupo de astrónomos que trabajan con él y que edita una nueva y espectacular imagen cada mes, está dispuesto a escuchar tus sugerencias. Si quisieras utilizar el Hubble para observar el cielo, ¿qué punto de la bóveda celeste elegirías? No es posible complacer a todas las peticiones, pero sí que se puede hacer una votación sobre los objetivos más solicitados. Christian Luginbuhl, Keith Noll y Forrest Hamilton elegirán finalmente al ganador. Los tres astrónomos fundamentarán su elección en base a las posibilidades de llevar a la práctica tal observación, su interés científico y su potencial para dar lugar a una nueva imagen espectacular, atractiva para todos. La única condición es que el astro o estructura a contemplar no debe haber sido hasta ahora objeto de atención por parte del Hubble. Información adicional en: http://heritage.stsci.edu http://heritage.stsci.edu/public/observations2000/toplevel_mar00.html Imagen: http://oposite.stsci.edu/pubinfo/pr/2000/04/content/0004w.jpg (La nebulosa NGC 7635, vista por el Hubble.) (Foto: STScI) Insectos y evolución Los científicos han encontrado la explicación de por qué los insectos perdieron la mayor parte de su extremidades abdominales. A principios del siglo pasado, los científicos que estudiaban la evolución habían avanzado más bien poco. Sólo Rudyard Kipling se había atrevido, en sus historias de ficción, a dar explicaciones de por qué el leopardo poseía manchas, o dónde habían conseguido los camellos sus jorobas. Ha sido en tiempos más recientes que los biólogos, utilizando técnicas de genética molecular, han conseguido explicar las razones por las que la mariposa muestra el dibujo de un "ojo" en sus alas, o los motivos de que las serpientes perdieran sus patas. Hablando de patas, Randy Bennett, un investigador de la Brigham Young University, ha añadido una nueva historia a la cadena, en esta ocasión referida a los insectos. 826 El Hijo de El Cronopio No. 75 Como sabemos, los insectos, incluyendo moscas, abejas, escarabajos, etc., poseen seis patas en la región intermedia de sus cuerpos. Sin embargo, los fósiles encontrados delatan que los insectos actuales descienden de animales que se parecían mucho más a los modernos ciempiés, es decir, dotados de muchas patas a lo largo de todo su cuerpo. Con el transcurso de millones de años, dichos animales se especializaron. Algunos segmentos de sus cuerpos aprendieron a hacer ciertas cosas mejor, y todas las patas, menos seis, desaparecieron. Descubriendo los procesos que se encuentran detrás de esta desaparición, Bennet ha conseguido atrasar el reloj biológico y modificar un escarabajo en desarrollo para que de nuevo vuelva a presentar tantas patas como un ciempiés. Bennet y sus colegas estudian diferencias y similitudes en la forma en que los organismos se desarrollan desde la fase de embriones a la etapa de adultos. Con el tiempo, las diferencias son las que se suman para determinar la evolución. Los científicos han descubierto una serie de genes importantes para el desarrollo de las moscas pero que también lo son para humanos, ratones, e incluso gusanos parásitos. Dichos genes sirven de panel de control principal, activando o desactivando otros genes, y están implicados en muchas de las divisiones celulares en las regiones que controlan. Cambiar estos genes fundamentales durante el desarrollo puede causar transformaciones dramáticas en la estructura final de un animal. La cuestión es: ¿qué pasó en términos evolutivos para que los insectos dejaran de tener tantas patas y pasaran a poseer sólo seis? Esto y la aparición de alas son probablemente dos de los acontecimientos que han hecho de los insectos organismos tan exitosos y sin los cuales quizá no estarían hoy aquí. En cuanto levantamos una piedra, podemos encontrar bajo ella ciempiés u otros animales dotados con aún un mayor número de patas. Sin embargo, no los vemos por todas partes, como ocurre con los insectos, así que parece que existe una clara ventaja en el hecho de poseer sólo seis patas y alas. Bennet ha usado un embrión de escarabajo para sus trabajos de investigación. Inyectó en él una sección de ARN que lo invadió, neutralizando dos genes llamados Abd-A y Ubx, que se sabe que están relacionados con el desarrollo de las extremidades en el abdomen de los insectos. El efecto inmediato fue la aparición de múltiples patas donde de otro modo no habrían existido. Por tanto, los "planos" originales para la aparición de muchas patas se encuentran todavía presentes y grabados en los genes de los insectos actuales, pero el gen Abd-A ha evolucionado para desactivar estas instrucciones. Al mismo tiempo, el gen Ubx ha hecho lo propio para modificar las extremidades abdominales en otras cosas (como las alas). Los científicos aún desconocen lo que realmente causa los cambios morfológicos. Sabemos que son determinados genes los responsables de la ausencia de las patas, pero no qué ha modificado estos genes para que realicen esta tarea. Este es el objetivo de Bennet ahora. Dado que el Hombre posee genes similares, los descubrimientos podrían tener una influencia clara en la determinación de las funciones de sus equivalentes humanos. La terapia genética permitirá bloquear un gen productor de una enfermedad, de la misma manera que es posible bloquear a los genes que impiden la aparición de múltiples patas en el escarabajo. El principal problema, sin embargo, es que las funciones de la vida no dependen a menudo de genes individuales, sino de muchos de ellos actuando al unísono, lo que complica increíblemente la tarea. 827 El Hijo de El Cronopio No. 75 Información adicional: http://www.byu.edu/news/releases/Apr/beetle.htm Imagen: http://www.byu.edu/news/releases/Apr/beetles/mutantandwildtype.jpg (Arriba, una larva de escarabajo; abajo, con más patas de lo que es habitual.) (Foto: Randy Bennett) Computación óptica Para conseguir que los ordenadores funcionen más rápidamente, los investigadores se verán obligados a buscar alternativas, como el uso de la luz. Los relojes avanzan segundo a segundo. Los partidos de baloncesto se cronometran en décimas de segundo, y los participantes en carreras, en centésimas. Lo ordenadores solían trabajar en milésimas de segundo, avanzaron después hasta los microsegundos (millonésimas) y ahora se aproximan a los nanosegundos (milmillonésimas) para las operaciones lógicas y a los picosegundos (billonésimas) para los interruptores y puertas lógicas de los chips. Es obvio que la velocidad de los dispositivos informáticos ha mejorado mucho. Sin embargo, todo tiene un límite. Las señales electrónicas, incluso con máxima miniaturización e integración a muy gran escala (VLSI), se ven perjudicadas por muchos aspectos de los materiales sólidos que deben atravesar. La solución pasa por encontrar un medio más rápido, y la respuesta parece residir en algo de lo que disponemos en abundancia: la propia luz. Esta se desplaza en el vacío a unos 300.000 km/s. En un nanosegundo, los fotones avanzarían unos 30 cm, sin considerar la resistencia del aire o la de una hebra de fibra óptica. Los ordenadores totalmente ópticos no estarán disponibles hasta dentro de bastantes años, pero los híbridos electro-ópticos ya son posibles desde 1978. Nuevos avances han producido películas delgadas y fibras ópticas que hacen de las interconexiones y los dispositivos ópticos algo viable. Los científicos se están centrando en el desarrollo de películas hechas con moléculas orgánicas, que son más sensibles a la luz que las inorgánicas. Las primeras pueden realizar funciones como el procesado de señales, interrupción, duplicación de frecuencias, etc., gastando menos energía. El uso de materiales orgánicos junto a inorgánicos, como el silicio, nos permitirá usar tanto fotones como electrones en sistemas híbridos. El rápido crecimiento de Internet, un 15 por ciento mensual, exige una mayor disponibilidad de ancho de banda y de velocidad de lo que los circuitos electrónicos ofrecen. Los límites electrónicos de la red sitúan la velocidad máxima sobre los 50 Gigabits por segundo, mientras que las necesidades reales alcanzarán muy pronto el Terabit por segundo (1 billón de bits/s). Es por eso que debemos buscar alternativas con relativa celeridad. El procesamiento óptico de datos puede realizar diversas operaciones simultáneamente (en paralelo) de forma mucho más rápida que el electrónico. Por ejemplo, un cálculo que implicaría 11 años de procesamiento en un ordenador electrónico podría resolverse en una sola hora en un ordenador óptico. Científicos como Hossin Abdeldayem han desarrollado ya prototipos de circuitos de puertas lógicas totalmente ópticas que posibilitarán el procesamiento de señales a velocidades de 1 Gigabit a 1 Terabit. Se han probado también interruptores ópticos que actúan en menos de un nanosegundo. 828 El Hijo de El Cronopio No. 75 Las puertas lógicas son los ladrillos básicos de cualquier sistema digital. Una puerta lógica óptica es un interruptor que controla un rayo de luz con otro. Estará en posición "on" cuando el dispositivo transmite luz, y en "off" cuando bloquee el rayo. Los ordenadores ópticos del futuro serán una realidad cuando sus componentes individuales hayan sido suficientemente probados. De lo que no hay duda es que serán la base de la transmisión y manipulación de la información y las comunicaciones terrestres y espaciales de las próximas décadas. Información adicional en: http://science.nasa.gov/headlines/images/nanosecond/thepaper.PDF http://science.nasa.gov/headlines/y2000/ast28apr_1m.htm Imagen: http://science.nasa.gov/headlines/images/nanosecond/frazier4.jpg (Donald Frazier controla la luz azul de un láser empleada junto a materiales electro -ópticos.) (Foto: Marshall SFC) No enfermen en el Shuttle Sufrir un accidente o enfermar en la lanzadera espacial implicaría un riesgo superior al considerado hasta ahora. Los viajes del transbordador espacial estadounidense son usualmente cortos, de manera que no existe un peligro excesivo de que alguno de los miembros de la tripulación enferme y deba ser devuelto precipitadamente a la Tierra para ser atendido, ya que todos los astronautas son sometidos a duras pruebas médicas antes de volar al espacio. Sin embargo, siempre existe la posibilidad de que se produzca un accidente o un episodio médico inesperado, como un ataque de apendicitis. La nave transporta un completo botiquín e incluso algunos utensilios para practicar operaciones quirúrgicas de emergencia, pero los científicos se cuestionan ahora si ello no haría colocar al paciente en un riesgo todavía más grande. Un estudio realizado sobre monos sugiere que un astronauta que sufriera una operación de cirugía poco antes del regreso a la Tierra podría llegar a morir. Por otro lado, un grupo internacional de anestesistas manifiesta que el equipo médico instalado en la lanzadera para facilitar la respiración de los astronautas accidentados es inadecuado. El problema podrá entreverse en toda su magnitud cuando la estación espacial ISS entre en funcionamiento. Las estancias de los astronautas se prolongarán durante mucho más tiempo, hasta seis meses, y entonces existirá una mayor probabilidad de que se puedan sufrir enfermedades o accidentes. Astronautas de edad avanzada, como John Glenn, verían aumentadas exponencialmente las posibilidades de padecer un ataque al corazón en órbita, lo que podría resultar fatal. Durante la misión Bion-11, realizada en 1997, una cápsula rusa con algunos experimentos americanos fue enviada al espacio. Unos días después, la nave y sus diversos inquilinos, incluidos dos monos, fue recuperada. Durante su primer día de estancia en la Tierra después de su viaje, los monos recibieron una dosis de anestesia general no probada con anterioridad, para comprobar si sería posible atender inmediatamente a un enfermo después de un viaje orbital. Uno de ellos murió y el otro sufrió diversas complicaciones graves. Parece que el problema se centra en una alteración del flujo sanguíneo tras experimentar un largo período en ingravidez. Dicho flujo se restablece aproximadamente un día después del regreso, pero si un astronauta seriamente enfermo debe ser tratado con urgencia, podría padecer las mismas complicaciones anestésicas y llegar a morir. 829 El Hijo de El Cronopio No. 75 Definitivamente, existe la necesidad de iniciar una investigación en este sentido, una vía que garantice la supervivencia de los astronautas en casos de emergencia, o de lo contrario el inicio de períodos de estancia muy prolongados podría ser la antesala a una problemática de difícil solución. (New Scientist) Lo que pesa la Tierra Los físicos han aumentado la precisión con la que conocemos la masa terrestre. Trabajos recientes de varios científicos de la University of Washington confirman que nuestro mundo, después de todo, es algo más pequeño de lo que pensábamos en términos de masa. El cálculo ha sido posible gracias a una determinación más precisa de la famosa constante de gravitación de Newton. Según Jens Gundlach y Stephen Merkowitz, dos físicos especialistas, la Tierra tiene una masa de: 5.972.000.000.000.000.000.000 toneladas métricas, algo menos de lo esperado. Según esto, existen aproximadamente 1 billón de toneladas por cada persona que habita la Tierra, lo cual no es poco, si tenemos en cuenta que el peso de toda la vida animal y vegetal situada sobre la superficie terrestre es precisamente 1 billón de toneladas. La gravedad es la interacción a gran escala más importante del universo. De ella depende su destino final. A pesar de su carácter fundamental, es fácil de comprender. Si cogemos al Sol y la Tierra como modelos, y quisiésemos sustituir la fuerza gravitatoria que mantiene a nuestro mundo en órbita solar con un cable de acero (sin masa), este último debería tener un grosor dos tercios el diámetro de la Tierra para realizar el mismo trabajo que la gravedad. La constante gravitatoria de Newton nos dice cuánta fuerza existe entre dos masas separadas por una distancia conocida. Esta constante, junto a la de la velocidad de la luz y la constante de Planck (esencial en mecánica cuántica), están consideradas como las tres más importantes de la naturaleza. La medición de las dos últimas ha crecido en precisión de manera continua con el transcurso de los años, pero esto no había ocurrido con la primera. Curiosamente, cálculos recientes aportaban mayor incertidumbre. Los trabajos de Gundlach y Merkowitz, si son aceptados por la comunidad internacional, reducirán dicha incertidumbre casi en un factor de 100. Información adicional en: http://www.aps.org/meet/APR00/baps/vpr/layp11-03.html http://www.washington.edu/newsroom/news/2000archive/04-00archive/k042900.html http://www.npl.washington.edu/eotwash/gconst.html Imagen: http://www.aps.org/meet/APR00/baps/vpr/images/photo.jpg (El instrumento usado para la medición.) (Foto: U. of Washington) Células de combustible en miniatura La aparición de células de combustible realmente diminutas abrirá las puertas a su uso a gran escala en multitud de campos como el de la electrónica de consumo. Una célula de combustible es un ingenio que explota el proceso contrario al de la electrólisis. Son capaces de generar directamente electricidad a partir de la energía química de un combustible, como el hidrógeno o el metanol. La lanzadera espacial usa tres de estos dispositivos para producir la energía eléctrica necesaria para operar los diversos sistemas de a bordo. Para ello utiliza hidrógeno y oxígeno líquidos, almacenados en tanques. 830 El Hijo de El Cronopio No. 75 El tamaño y complejidad de las células de la lanzadera es considerable, lo que limita su aplicación en otros sectores. Sin embargo, investigadores de la Case Western Reserve University han conseguido desarrollar un modelo miniaturizado cuyo volumen no supera los 5 milímetros cúbicos, aproximadamente el tamaño de una goma de borrar incorporada al extremo de un lápiz. Las células de combustible pueden proporcionar más energía por volumen y peso que las baterías. Los futuros automóviles eléctricos seguramente usarán estos dispositivos en vez de baterías, o quizás emplearán las primeras para largas distancias y las segundas para acelerar rápidamente. Además de eficientes, las células son amistosas con el medio ambiente ya que el resultado de la unión de oxígeno e hidrógeno, además de electricidad, es agua pura. Robert Savinell y sus colegas han conseguido tan alto nivel de miniaturización a base de imprimir múltiples capas de componentes de la célula de combustible sobre un sustrato. Su producción será similar al de los circuitos integrados. Su primera aplicación será militar, ya que serán unidas a sensores que precisan de un sistema de alimentación eléctrico muy pequeño y eficiente. Por ejemplo, para detectar agentes químicos y bacteriológicos. En el mercado de consumo, podrán ser aplicadas en cualquier sitio, desde automóviles a teléfonos móviles y ordenadores. Dado que la mayor proporción de volumen y peso en un teléfono móvil corresponde a las baterías, su sustitución por células de combustible promete una revolución en cuanto a tamaño y masa en estos aparatos. Información adicional en: http://www.case.cwru.edu/ Mapas para daltónicos Las personas que tienen dificultades oculares o simplemente no pueden apreciar los colores de forma correcta, pueden ser incapaces de interpretar algo tan normal como un mapa de carreteras. Un 8 por ciento de la población sufre de una enfermedad que llamamos daltonismo y que impide que los afectados puedan identificar correctamente los colores. No estamos sólo ante un problema estético, sino que estas personas pueden encontrarse en serias dificultades cuando se ven abocados a interpretar un simple mapa callejero o de carreteras. Una geógrafo de la Penn State University ha desarrollado una nueva guía de color que debería permitir a la mayoría de los daltónicos superar este obstáculo. Los mapas actuales usan colores basados en la gama proporcionada por el arco iris, ya que son más fácilmente distinguibles y atractivos. Pero según Cynthia A. Brewer, no son necesariamente el mejor modo de representar información para las personas daltónicas. El daltonismo no es un único problema sino una reunión de problemas que afectan a la visión de los colores. Sólo una muy pequeña parte de la población se ve impedida de observar todos los colores y ve la realidad en tonos de grises. La mayoría de los daltónicos carece de sensibilidad hacia determinados colores. El daltonismo más común es el relacionado con el rojo y el verde. Algunas personas carecen de conos receptores de un color y otras del otro. También hay daltónicos de azul/amarillo. Un 8 por ciento no es número grande, pero referido a la población mundial, estamos hablando de muchos millones de habitantes. Brewer está tratando de dirigir sus trabajos hacia los que no ven el rojo y el verde, que es la forma de daltonismo más común. 831 El Hijo de El Cronopio No. 75 A pesar de todo, el problema es más complejo que confundir estos dos colores. También se pueden tener dificultades a la hora de distinguir entre el azul/verde y el rosa o el azul/verde y el púrpura. Una forma de evitar confusiones es alterar el "brillo" o la "oscuridad" de los colores. El daltónico aún verá el mismo color pero podrá decirnos que las áreas coloreadas con dichos colores son diferentes. Una de las grandes dificultades es que nadie sabe a ciencia cierta qué colores ve otra persona, ya que se trata de una impresión muy subjetiva. Sin embargo, si un mapa contiene zonas adyacentes que alguien llega a ver del mismo color, la información almacenada en ellas sería inaccesible para él. Una forma de combatir el daltonismo del rojo/azul es usar el patrón del arco iris evitando emplear el color afectado. Pero Brewer ha localizado otras combinaciones de colores (azules/amarillos, magentas/violetas, etc.) que ayudarán también a los daltónicos a no perderse ningún dato proporcionado por un mapa. Información adicional en: http://www.psu.edu/ur/2000/colorblindness.html La clonación puede rejuvenecer Seis saludables clones de vaca no muestran los mismos síntomas de envejecimiento prematuro que sufre la famosa oveja Dolly, sino todo lo contrario. La clonación de la oveja Dolly fue un gigantesco paso adelante en esta fantástica aventura biológica. Obtener un nuevo ser vivo de una célula adulta abre perspectivas desconocidas. Sin embargo, los autores del experimento pudieron comprobar muy pronto que Dolly parecía sufrir de un envejecimiento prematuro, como si su desarrollo estuviese respetando la edad y el desgaste de la célula original. Si los seres clónicos deben heredar la edad de ésta como punto de partida, su esperanza de vida será muy inferior a la normal. Afortunadamente, los trabajos de Robert P. Lanza, de Advanced Cell Technologies, parecen negar esta posibilidad. Seis clones de vaca recientemente obtenidos no solamente no muestran signos de vejez prematura sino que además sus células se presentan más jóvenes que las de las otras vacas de su misma edad. Los científicos aún no saben si la clonación es la responsable de este fenómeno o si esto se traducirá en una vida más larga para los animales. Al menos, lo ocurrido elimina el temor de que la clonación fuese por sí misma un proceso perjudicial, en términos de duración de la vida. Las células poseen un número finito de ciclos de división. Su final llega cuando dejan de dividirse. Para crear los clones de vaca, los investigadores usaron células adultas próximas al final de sus días. Sorprendentemente, la clonación parece haber devuelto a dichas células a su estado original, disponiendo de nuevo de unos 90 ciclos de división. También los telómeros, las regiones situadas al final de cada cromosoma y que protegen su integridad durante cada división, haciéndose cada vez más cortos tras cada una de ellas, han vuelto a su longitud inicial. De hecho, son más largos que los de los cromosomas de las vacas normales de su misma edad. Los científicos se preguntan por qué los clones de vaca y Dolly son tan diferentes en estos aspectos. Una posible respuesta radicaría en los diferentes métodos de clonación empleados. Las células adultas usadas para crear a Dolly se encontraban en un estado latente mientras que las de vaca estaban activas. La procedencia también es distinta. Las 832 El Hijo de El Cronopio No. 75 de vaca eran fibroblastos (tejido conectivo) mientras que las de Dolly eran células mamarias. En todo caso, las perspectivas de obtener órganos clónicos para transplantes mejoran sustancialmente con este descubrimiento. También se podrán combatir mejor los efectos del envejecimiento natural en las personas. Información adicional en: http://www.noonanrusso.com/ Prediciendo tornados Un cuidadoso estudio de los patrones que rigen la caída de los relámpagos en una gran tormenta puede aportar pistas sobre cuándo se desatará un destructivo tornado. Estados Unidos, el país más afectado por la aparición de tornados, tiene una verdadera obsesión respecto al estudio e investigación de este fenómeno meteorológico. El 3 de mayo de 1999, más de 50 de estos vórtices cruzaron las Great Plains de Kansas y Oklahoma, dejando un rastro de 40 muertos y daños por un valor de 1.200 millones de dólares. Si se hubiesen predicho con tiempo suficiente, al menos se hubieran podido salvar las vidas humanas. Steve Goodman y otros científicos del Global Hydrology and Climate Center, intentando evitar otro 3 de mayo, apuestan fuerte por el hallazgo de nuevos métodos de predicción, y creen que uno de los elementos más peligrosos de las tormentas, los rayos, podrían ser la clave. Goodman y sus colegas, utilizando diverso equipo de vigilancia situado en tierra y en el espacio, han documentado casi una docena de casos en los que el ritmo de aparición de los relámpagos se incrementó dramáticamente durante el desarrollo de una tormenta y la posterior aparición del tornado. Dicho pico puede ser una buena pista para que los científicos dirijan su radar hacia la tormenta afectada, proporcionando una visión más detallada que después utilizarán los meteorólogos para la predicción. Observar los relámpagos de luz no es tan fácil como observar el cielo durante la tormenta. El tipo de luminosidades que se busca se encuentra dentro de las nubes, invisible al ojo humano durante el día. Para una observación apropiada es necesario un instrumento especial, como el que transporta a bordo el satélite Tropical Rainfall Measuring Mission (TRMM), en órbita desde 1997. El sensor sigue la aparición de relámpagos a escala global y su relación con los centros tormentosos. Aún no se tienen suficientes datos para confirmar la relación entre el número de relámpagos y la aparición de los tornados, pero al menos su seguimiento permitirá mostrar los puntos de origen más probables, y esto ya puede constituir una gran diferencia en términos de predicción y seguridad. En la actualidad, el tiempo de adelanto con que se advierte a la población de la formación de tornados es de entre 8 y 12 minutos, pero también se producen un 30 por ciento de falsas alarmas. Esto hace que muchas personas ignoren el peligro y sufran las consecuencias. El universo podría ser plano El experimento BOOMERANG ha sido el detonante de la producción de una gran cantidad de nuevos datos de gran importancia cosmológica. 833 El Hijo de El Cronopio No. 75 Científicos británicos, estadounidenses, canadienses e italianos podrían haber propiciado un considerable avance en nuestra visión del universo y su historia pasada. El experimento BOOMERANG, realizado sobre la Antártida, ha permitido obtener imágenes detalladas que muestran la estructura del Universo cuando éste tenía sólo 300.000 años de edad, después del Big Bang. El análisis de dichas imágenes sugiere que el Universo en realidad es plano (en una proporción del 10 por ciento), lo cual significa que dos rayos láser enfocados hacia el espacio avanzarían de forma paralela para siempre, sin que sus caminos se cruzasen ni divergiesen nunca. Todo ello apoya la teoría "inflacionaria", por la cual el Universo se expandió de una forma masiva, desde el tamaño de una partícula subatómica al de una pelota de baloncesto, en una mera fracción de segundo. Las imágenes muestran que después el Universo frenó gradualmente hasta llegar a un nivel de estabilidad, un estado "plano". Los mapas se obtuvieron mediante un telescopio robótico, el cual, equipado con detectores ultrasensibles, fue lanzado a bordo de un globo cuya capacidad era de 1 millón de litros de gas. El telescopio vagó durante 11 días sobre la Antártida, tomando imágenes de un pequeño porcentaje de la bóveda celeste entre diciembre de 1998 y enero de 1999. Durante el Big Bang, el Universo era una sopa primordial de plasma brillante y radiación casi tan caliente como el Sol. La expansión inmediata convirtió la intensa luz en una casi uniforme radiación de microondas, conocida como el Fondo Cósmico de Microondas, detectable aún hoy en día. El telescopio BOOMERANG ha medido esta radiación con una sensibilidad sin precedentes, mostrando mapas del Universo en los que se aprecia una distribución de puntos calientes y fríos que colapsaron para formar cúmulos y supercúmulos de galaxias o para formar enormes espacios vacíos. Estos son, sin duda, los más distantes objetos vistos por el Hombre. El experimento BOOMERANG (Balloon Observations Of Millimetric Extragalactic Radiation ANd Geomagnetics) es un aperitivo de lo que les espera a los cosmólogos cuando misiones espaciales como el MAP (2000) o el Planck (2007) debuten dentro de algún tiempo. A pesar de todo, se trata de un instrumento de segunda generación, mejor que el satélite COBE utilizado hace algunos años. Para derivar el espectro obtenido con el telescopio BOOMERANG ha sido necesario el uso durante 50.000 horas de un supercomputador Cray T3E de 696 nodos. Como resultado, ahora sabemos que el Universo no está curvado sino que es bastante plano, de acuerdo con un modelo que dice que se encuentra lleno de "energía oscura", la cual podría corresponder a la constante cosmológica propuesta por primera vez en 1917 por Albert Einstein. Combinado todo ello con otros resultados, se puede decir que, además, el Universo se expandirá para siempre y tenderá a enfriarse. Los datos coinciden con diversas investigaciones del Instituto de Astrofísica de Canarias lideradas por Rafael Rebolo, que están ya disponibles en la revista electrónica Astro-ph. Este investigador es también uno de los impulsores del "Experimento VSA", instalado en el Observatorio del Teide, que conseguirá imágenes de mejor calidad que el BOOMERANG. Para Rebolo (Cartagena, 1961), recientemente galardonado con el Premio Iberdrola de Ciencia y Tecnología, "BOOMERANG ha establecido que la densidad de la materia del Universo no es lo suficientemente grande para provocar que llegara a colapsar por la gravedad", lo que se conoce como "gran colapso" o Big Crunch. Estos resultados dan la razón a la mayoría de las interpretaciones sobre el origen y el destino del Universo de los últimos veinte años y auguran un futuro no muy halagüeño 834 El Hijo de El Cronopio No. 75 para el cosmos: "El Universo tendrá, dentro de decenas de miles de millones de años, una vida muy triste, oscura y fría -señala el astrofísico- con temperaturas cada vez más próximas al cero absoluto (273 grados bajo cero)". En medio de un panorama tan desolador, las estrellas actuarán como unos oasis térmicos hasta que agoten su combustible y, como el resto del espacio, se enfríen. Información adicional en: http://spacescience.com/headlines/y2000/ast27apr_1.htm http://sci.esa.int/planck; http://www.nersc.gov/; http://oberon.roma1.infn.it/boomerang/ http://www.nature.com/cgitaf/DynaPage.taf?file=/nature/journal/v404/n6781/full/404955a0_fs.html http://www.physics.ucsb.edu/~boomerang/; http://www.arxiv.org/abs/astro-ph/0004357 http://cfpa.berkeley.edu/~borrill/cmb/madcap.html taf/DynaPage.taf?file=/nature/journal/v404/n6781/full/404955a0_fs.html http://www.iac.es/gabinete/noticias/2000/28abr.htm Imagen: http://www.physics.ucsb.edu/~boomerang/press_images/raw_images/cmb_sky.jpg (El experimento BOOMERANG.) (Foto: UCSB) La Ciencia desde el Macuiltépetl/ Robert Oppenheimer Por Manuel Martínez Morales Ahora que está tan de moda hablar en grande sobre ciencia y tecnología vale la pena recordar a un hombre de ciencia que poseía una gran conciencia social, J. Robert Oppenheimer. Descendiente de alemanes, nació, en abril de 1904, en Nueva York; su biografía consigna que obtuvo su licenciatura, en 1925, en Harvard; luego pasó por el distinguido Laboratorio de Cavendish, el cual dejó para dirigirse a la Universidad de Göttingen, invitado por Marx Born, ahí conoció a otros prominentes físicos como Niels Bohr y Paul Dirac, y fue en esa universidad donde recibió el grado de doctor. Las primeras investigaciones de Oppenheimer estuvieron dirigidas al estudio de los procesos energéticos que se dan en las partículas subatómicas. Al estallar la Segunda Guerra Mundial se unió al grupo de científicos que trabajaron en la construcción de la primera bomba atómica. Oppenheimer siempre sintió que sobre sus hombros pesaba una grave responsabilidad social. Ya anteriormente había manifestado un profundo interés por la política. En 1936, había respaldado a los republicanos en España y se asoció al Partido Comunista. Fue nombrado jefe del célebre Proyecto Manhattan, en 1942, cuyo objetivo primordial era construir armas nucleares. Dado que la filiación e ideas políticas de Oppenheimer eran bien conocidas, los militares no tardaron en acusarlo de espionaje y de ser un peligro para la seguridad de los Estados Unidos de Norteamérica. Como se sabe, el Proyecto Manhattan alcanzó el éxito deseado y el 16 de julio de 1945, el Álamo Gordo, estalló la primera bomba atómica. En octubre de ese mismo año, Oppenheimer renunció a su puesto para ir a dirigir el Instituto de Estudios Avanzados de la Universidad de Princeton. Fue presidente del Consejo Consultivo de la Comisión de Energía Atómica a partir de 1947; debe decirse que este Consejo siempre estuvo en contra del ulterior desarrollo de las armas atómicas. 835 El Hijo de El Cronopio No. 75 Sin embargo, los militares no cejaron en su esfuerzo por retirar a Oppenheimer de puestos clave. Por ello, en diciembre de 1953, en un reporte de seguridad militar, se le acusaba de ser comunista, de tener tratos con agentes soviéticos y de oponerse a la fabricación de la bomba de hidrógeno; aunque Oppenheimer siempre negó dichas acusaciones, éstas bastaron para que fuera despedido de su puesto en la Comisión de Energía Atómica. A pesar de ello, Oppenheimer no renunció a sus principios ni a sus ideas, por esta razón, mundialmente se le considera como símbolo del científico que asume su responsabilidad hacia la sociedad. Dedicó los últimos años de su vida a desarrollar sus ideas sobre la relación entre ciencia y sociedad. Fue precisamente J. Robert Oppenheimer quien, en 1949, dijo, con una razón hoy olvidada: En cierto sentido brutal, que ni la vulgaridad, ni el humor, ni la exageración pueden borrar, los físicos hemos conocido el pecado; y éste es un conocimiento del que no nos será fácil librarnos. El Cabuche (crónicas de la Facultad de Ciencias)/ El efecto Mora A lo largo de los cursos de física o electrónica que han tenido y/o tendrán que cursar, se han familiarizado con toda una serie de fenómenos físicos y sus explicaciones; así han tenido que estudiar fenómenos que llevan asociados el nombre de efectos algo, efecto fotoeléctrico, doppler, joshepson, etc., que dan explicación a cierto comportamiento de regularidad de los sistemas físicos cuando se sujetan a ciertas condiciones. En esta categoría podemos poner la siguiente situación: un individuo se lastima sin explicación coherente alguna, un dedo del pie. Posteriormente al ir caminando se tropieza con cualquier objeto lastimándose la parte afectada, gritando y brincando como gallina en pavimento caliente, una hora después al ir a un supermercado es arrollado por un carrito cargado con senda despensa, no sólo eso sino que el carrito le pasa justo por encima del pie lastimado, propiciando hacer la misma rutina de la gallina pero además mostrando una exagerada mancha de sangre como producto del atropello, del cual lo más seguro él tuvo la culpa. El conductor del carrito prefiere huir despavorido ante tremendo teatro, evitando le cobren al sujeto como si fuera nuevo. Si a eso le añadimos el dato de que el sujeto es el Mora, no es extraño aceptar tal situación. Para quienes conocen a tipos con tamaña suerte, como el Mora, que están sujetos constantemente a ese tipo de situaciones, las situaciones se vuelven regulares y lo pueden asociar a una clase de ley, que en la mayoría de los casos se le llama de otro modo. Pero seamos benévolos y considerémoslo como un simple accidente más y démosle la categoría de efecto. Al Mora siempre le pasan cosas, ejemplos hay en forma abundante, pero no sólo le pasan cosas sino causa situaciones anómalas a su alrededor. Cuando en aquellas épocas de felices estudiantes nos encontrábamos realizando alguna práctica de laboratorio, era suficiente que el Mora se encontrara cerca para que no nos saliera, y no es que le echáramos la culpa al más menso. A fuerza de experimentar con sistemas físicos nos dimos cuenta que el Mora era una más de las variables que teníamos que considerar, a tal grado que había dos clases de experimentos: los que salían y en los que estaba el Mora. En cierta ocasión, recién regresé de Puebla como profesor, nos encontrábamos en el antiguo almacén del 836 El Hijo de El Cronopio No. 75 laboratorio de física (que estaba en lo que fuera el salón de posgrado del instituto de física, cuando la escuela se encontraba frente a la avenida Manuel Nava) probando un equipo de medición recién adquirido; montamos un galvanómetro de D`ansorval para medir corrientes pequeñas y al estar efectuando las mediciones de repente dejó de registrar lecturas, revisamos el arreglo experimental y todo estaba en orden, de repente regresaba la señal para luego desaparecer, después de mucho batallar con el galvanómetro me acorde de ese otra variable que tiempo atrás utilizábamos en nuestro análisis: el Mora, abrimos la puerta y lo primero que vamos viendo es al Mora que tranquilamente vacilaba con la raza de la escuela. Era por demás se había manifestado una vez más el llamado Efecto Mora, como años atrás fue bautizada tremenda anomalía. Y Silvio vuelve a cantar Hay locuras para la esperanza;/hay locuras también del dolor/Y hay locuras de allá donde el cuerpo no alcanza,/locuras de otro color/Hay locuras que son poesía/Hay locuras de un raro lugar/Hay locuras sin nombre, sin fecha, sin cura/que no valen la pena curar. Hay locuras de ley pero no de buscar A LA COMUNIDAD DE LA FACULTAD DE CIENCIAS A MANERA DE EXHORTACIÓN Se hace un llamado a toda la comunidad de la Facultad de Ciencias a conservar los servicios de que disponemos, principalmente utilizar de forma adecuada los baños. Ciertos servicios, que no se prestan en otras escuelas de la universidad, se ofrecen para nuestra mayor comodidad. No los desperdiciemos con hábitos inadecuados. FORO INTERNACIONAL SOBRE LA ENSEÑANZA DE LA FÍSICA (NIVEL MEDIO SUPERIOR) 17-23 JUNIO 2000 UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO 837 El Hijo de El Cronopio No. 75 CONVOCA A Instituciones y Profesores del nivel medio superior a participar en el FORO que se realizará en las instalaciones de Ciudad Universitaria de la UNAM Este foro tiene cuatro metas: 1ª Ofrecer medios de actualización y motivación para profesores en ejercicio. 2ª Desarrollar destrezas y recursos didácticos transferibles al aula. 3ª Analizar problemas curriculares medulares para la modernización del bachillerato, que enriquezca la visión para la toma de decisiones. 4ª Promover la reflexión y el intercambio de experiencias sobre los mejores procedimientos para evaluar la calidad de los cursos de física general, especialmente los de enseñanza media superior. La temática priorizará dos ramas de la física cuya enseñanza requiere esfuerzo: el electro-magnetismo y la física moderna, el foro esta constituido por Cursos, Talleres, Mesas de Debate, Charlas de Intercambio y conferencias sobre experiencias de superación en 5 países. Los expositores son científicos, nacionales y extranjeros, todos de talla internacional, con especialidades diversas y todos con reflexión, experiencia y contribuciones útiles para la enseñanza de la Física. Las inscripciones se abren con esta fecha y se notificará a las instituciones interesadas el agotamiento de los lugares previstos para el segmento al que pertenezcan. La inscripción general cuesta $100.00, pero será necesario que el interesado se inscriba, al menos, a un curso o a un taller, los que costarán $600.00 y $200.00 respectivamente. El derecho a participar en la mesa de Debate, Charlas de Intercambio y Conferencias, así como la carpeta, constancia de participación y servicio de cafetería se adquiere con la inscripción general. Hay costos especiales para paquetes de diversos cursos o talleres y para la inscripción de grupos de asistentes CONTENIDO CURSOS MATUTINOS DE 20 HORAS Paul Hewitt (EU); Electricidad y Magnetismo. Un enfoque conceptual. Pilar Segarra (Mex) Didáctica de la Física. Hans Joachim Prince y Günter Gauff (Alem) Física Nuclear en el Bachillerato. Eugenio Ley Koo (Mex) Interacción radiación - materia. Sergio Aburto (Chile) Temas selectos de Física Contemporánea. Mayo Villagrán (Urug) Óptica Física. Bob Friedhoffer (EU) Aprenda magia para enseñar Física Marie Rose Lecauchois ( Fr.) Las computadores en la enseñanza de la física. 838 El Hijo de El Cronopio No. 75 Rafael Moreno (Mex) Cristalografía Raúl Enriquez (Mex) Resonancia Magnética TALLERES VESPERTINOS DE 6 HORAS SOBRE: Dispositivos y prototipos para la enseñanza de electromagnetismo. Escárcega y Montuy. Prototipos de bajo costo para la enseñanza de mecánica. León Díaz Chanona Una experiencia didáctica sobre teoría cinética. Movimiento Browniano. Fernando Reyes Leyva Laboratorio de Física asistido por computadora. Javier Ramos y Virginia Astudillo Simulaciones con el programa Interactive Physics. Arturo Freire Física en la Contaminación Atmosférica. Héctor Riveros. Metodología, elaboración y uso de videos para la enseñanza de la física. Alejandro González y Pedro Mcumber Microscopía electrónica en el estudio de la materia. Gonzalo González Reyes Física Moderna para el Bachillerato. Beatriz Fuentes Cristalografía, Rayos-X, estructura de la materia. Adolfo Ángel Herrera Enseñanza de la física con ejemplos de astronomía. Miguel Ángel Herrera Sensores de Presión y Temperatura. Claude Rouleau Laboratorio asistido por computadora, Dispositivos termodinámicos recreativos. CONFERENCIAS: Paul Hewitt Günter Gauff Eugenio Ley Koo Pilar Segarra Alberú Marie Rose Lecauchois: Uso de las nuevas tecnologías en la enseñanza de la Física en francia, INFORMACIÓN: Telefónica. 56 16 27 87 ( FAX) 56 16 21 65 ( FAX) 56 22 23 78 con Mireya Martínez o Alejandra Cachuz. Correo electrónico zoilor@dgcch.unam.mx 839 El Hijo de El Cronopio No. 75 chiu@servidor.unam.mx xxmas@yahoo.com.mx Página web www.geocities.com/apfac II Verano de la Ciencia de la Región Centro y VI Verano de la Ciencia de la UASLP del 5 de junio al 18 de agosto Alumnos interesados en participar en los veranos de la ciencia, mediante una estancia con un investigador de instituciones y centros de investigación de los estados de San Luis Potosí, Zacatecas, Aguascalientes, Guanajuato, Querétaro, Coahuila, pueden pasar por información, solicitudes y consulta del directorio de investigadores anfitriones al Laboratorio de Materiales de la Facultad (segundo piso del edificio 1) XVIII FIS-MAT Gustavo Del Castillo y Gama A LOS ALUMNOS INTERESADOS EN COLABORAR EN LAS DIVERSAS ACTIVIDADES DEL XVIII FIS-MAT FAVOR DE REPORTARSE CON LA SRA. LUCHA EN LA SECCIÓN DE CUBÍCULOS DEL EDIFICIO 2. SE INVITA A LOS ALUMNOS QUE DESEEN PROPONER PROBLEMAS Y PREGUNTAS DE FÍSICA Y MATEMÁTICAS EN LOS NIVELES DE PRIMARIA, SECUNDARIA Y PREPARATORIA PARA SER CONSIDERADOS EN EL XVIII FIS-MAT, HACERLOS LLEGAR A LA SRA. LUCHA O AL LABORATORIO DE MATERIALES CON GERARDO ORTEGA O EL FLASH. A LAS PROPUESTAS SELECCIONADAS SE LES ENTREGARÁ UN PEQUEÑO RECONOCIMIENTO Y A TODOS LOS PARTICIPANTES CONSTANCIA DE PARTICIPACIÓN. 840 Boletín El Hijo de El Cronopio Facultad de Ciencias Universidad Autónoma de San Luis Potosí No.76, 15 de mayo de 2000 DERECHO A LA INFORMACIÓN Boletín de información científica y tecnológica de la Facultad de Ciencias Publicación semanal Edición y textos Fís. J. Refugio Martínez Mendoza Cualquier información, artículo o anuncio deberá enviarse al editor e-mail: flash@galia.fc.uaslp.mx Este boletín y números anteriores, pueden consultarse por Internet en la página de la UASLP: http://phobos.dtc.uaslp.mx/publi.html El Jet Propulsion Laboratory pone a disposición de cualquiera que lo desee los planos y las instrucciones para la construcción de un pequeño modelo (escala 1/24) de la sonda Mars Polar Lander. Informació n en: http://mars.jpl.nasa.gov/msp98/mplmodel1.html http://mars.jpl.nasa.gov/msp98/misc/m98lbins.pdf http://mars.jpl.nasa.gov/msp98/misc/m98lbpar.pdf Sabido es el poco espacio destinado a la ciencia y la tecnología en los medios de difusión. A pesar de que en los medios escritos a aumentado considerablemente, en los electrónicos, donde los intereses económicos son notables, su presencia es casi nula. Sin embargo, es común escuchar, sobre todo en fechas recientes, el tan llevado y traído derecho a informar a la población, por los consorcios televisivos. Por supuesto que desde su óptica, pues en realidad pugnan por su derecho a desinformar, que es lo mismo que manipular a su antojo la información abusando del micrófono y utilizando a éste como arma de intimidación y ataque usando los espacios para canalizar sus desprecios y propósitos de desprestigio a ciudadanos seleccionados. Ejemplos de todos los niveles sobran; el micrófono y la cámara convertidas en armas modernas sobre gente pública y no pública. Basta recordar el caso de Lilly Téllez con todo un arsenal (micrófono, cámaras y pistolas), en aras de hacer valer su supuesto derecho a extraer información para darla a conocer “a su manera” (que de hechos no tiene nada). Convirtiendo en escándalo y forzando a la población a participar en sus desmadres. Mientras se destinan horas y horas de sus espacios en chismes y desgarraduras de camiseta, la cultura y la ciencia no tienen cabida. La opción que representaba TV Azteca al privatizarse y competir con Televisa, de propiciar la calidad de la televisión comercial mexicana, con Hechos a demostrado que mientras no se revise lo que entendemos por libertad de expresión y derecho a la información (de la ciudadanía) es difícil avanzar en este propósito El Hijo de El Cronopio No. 76 Noticias de la Ciencia y la Tecnología Una vacuna barata El descubrimiento de una vacuna contra la neumonía y la meningitis más económica que las convencionales da lugar a la primera patente compartida por Cuba y Canadá. El arsenal médico mundial pronto se verá enriquecido con una vacuna contra la meningitis y la neumonía. Este descubrimiento, que es el fruto de diez años de labor en los que aunaron sus esfuerzos investigadores de las universidades de Ottawa y de La Habana, debería ayudar a salvar la vida de miles de niños en los países en desarrollo. La nueva vacuna actúa contra la bacteria Haemophilius influenza de tipo b, comúnmente denominada "bacteria Hib". Según René Roy, especialista en química medicinal de la Universidad de Ottawa y coinventor de la vacuna, ya existen vacunas eficaces contra esta bacteria pero resultan demasiado costosas para ser utilizadas a gran escala en los países en desarrollo. La Organización Mundial para la Salud (OMS) hace constar que estas vacunas, cuyo precio unitario se eleva a 3 dólares USA, son tres veces más caras que las demás, que se usan contra otros tipos de enfermedades. La OMS calcula que la bacteria Hib afecta a unos 3 millones de personas al año, resultando mortal para 400.000 a 700.000 niños de entre 4 y 18 meses de edad; es la causa primordial de la neumonía y de la meningitis bacteriana no epidémica en la temprana infancia. Incluso cuando se consigue emprender un tratamiento antibioterapéutico a tiempo, la infección provocada por la bacteria suele tener graves secuelas de carácter neurológico. Cuba invierte cada año más de dos millones de dólares americanos en la compra de vacunas anti Hib. En 1989, buscando una solución más económica, el gobierno cubano encargó el descubrimiento de una nueva vacuna a Vicente Verez Bencomo, director del laboratorio de antigén sintético de la Facultad de química de la Universidad de La Habana. "La solución estribaba en concebir una vacuna "conjugada", es decir una vacuna unida a una proteína portadora con propiedades inmunogénicas concretas. La solución la teníamos muy clara, pero carecíamos de los recursos técnicos por aquel entonces", explica el profesor Bencomo. El equipo del profesor Bencomo trabaja en colaboración con el de René Roy desde 1994 y, en 1995, la OMS les concedió fondos para un proyecto de investigación común. En base a la labor que ya había sido emprendida en Cuba, el equipo canadiense consiguió desarrollar un concepto cuya producción resultará menos costosa, mientras que el equipo cubano seguía perfeccionando determinadas técnicas, especialmente la que permitía unir la vacuna con la proteína portadora. Hoy por hoy, ambos equipos han alcanzado sus objetivos. "Como no utilizamos los componentes de la bacteria para crear la vacuna, resulta menos peligrosa y es fácil controlar su calidad", señala René Roy. La propiedad intelectual de la vacuna es compartida por igual entre la Universidad de Ottawa y la Universidad de La Habana; se trata del primer ejemplo de patente de biotecnología que comparte la República de Cuba con otro país. En Cuba, ya se ha depositado la patente y se están llevando a cabo las gestiones oportunas para obtener una patente válida en Canadá y en el resto del mundo. Por motivos estratégicos, la Universidad de Ottawa ha cedido a sus colegas cubanos el derecho de buscar una empresa interesada en fabricar la vacuna. Por otra parte, ambas universidades se han 842 El Hijo de El Cronopio No. 76 puesto de acuerdo para renunciar a cobrar sus derechos de autor cuando el producto se venda a clientes que pretenden utilizar la vacuna con fines humanitarios, como por ejemplo en el caso de una epidemia en el Tercer Mundo. Información adicional en: http://www.uottawa.ca/services/markcom/public_html/english/news/mar23_00-s.html Imagen: http://www.uottawa.ca/services/markcom/gazette/images/000310/art03.jpg (Dos de los investigadores de la nueva vacuna.) (Foto: U. Of Ottawa) Fuente de luz avanzada Se han producido por primera vez destellos de luz de una duración de tan sólo 300 femtosegundos. Ciertos fenómenos de la naturaleza, para ser observados, necesitan de una iluminación altamente sofisticada. Ingenieros del Berkeley Lab han desarrollado una fuente de luz procedente de un sincrotrón que produce destellos (como una lámpara estroboscópica) de una duración inferior a 300 femtosegundos (un femtosegundo es a un segundo lo que éste a 30 millones de años), los cuales podrían ser empleados para estudiar con detalle los cambios de estado de la materia. El rango espectral de estos pulsos va desde los infrarrojos a los rayos-X, y se espera que la misma técnica permita obtener destellos de tan sólo 100 femtosegundos en esta última longitud de onda. Se podrán así fabricar cámaras que muestren el movimiento de los átomos durante reacciones físicas, químicas y biológicas en una escala de tiempo increíblemente corta. La técnica es compleja. Se parte de un sincrotrón de electrones (ALS), el cual ha sido diseñado para acelerar estas partículas hasta una energía de 1,9 GeV. Los electrones son mantenidos durante horas en un rayo que evoluciona alrededor de un anillo de almacenamiento de unos 200 metros de circunferencia. Entonces, los científicos utilizan mecanismos magnéticos y de otro tipo para extraer de él rayos ultravioleta y rayos-X de baja energía. Dicha luz es 100 millones de veces más brillante que la producida por el más poderoso de los tubos de rayos-X. El rayo de electrones que circula dentro del anillo no está formado por una corriente continua de partículas, sino por grupos discretos de electrones, lo cual hace que la luz resultante pulse. Cada pulso dura entre 30 y 40 picosegundos (billonésimas de segundo) en un ritmo de repetición óptimo de 500 millones de pulsos. Esto no es suficiente para nuestros objetivos, pero los científicos del Berkeley Lab han conseguido pulsos más rápidos gracias a la intervención en el proceso de un láser óptico. La luz que resulta de este procedimiento puede servir para observar eventos ultra-rápidos como la aparición o rotura de enlaces electrónicos durante reacciones químicas, o el movimiento de átomos durante una transición de fase (de sólido a líquido, y de líquido a gas). Los rayos-X son ideales para investigar la estructura atómica de la materia porque interaccionan directamente con los núcleos y los electrones. Información adicional en: http://www.lbl.gov/Science-Articles/Archive/femto-xrays.html http://www-als.lbl.gov/ Imagen: http://www.lbl.gov/Science-Articles/Archive/images1/femto-pulse-team.jpg (El equipo de investigadores del programa.) (Foto: Berkeley Lab.) 843 El Hijo de El Cronopio No. 76 Nuevo tipo de objeto gamma Gracias a los instrumentos más modernos, la astronomía de rayos gamma no cesa de depararnos sorpresas. Los astrónomos creen haber descubierto un nuevo tipo de objeto en el Universo. No sabemos aún qué son ni sus características, pero sí que son una fuente de rayos gamma distinta a lo que conocíamos hasta ahora (los conocidos y no menos misteriosos productores de estallidos gamma). A diferencia de estos últimos, su producción de rayos gamma es constante. El trabajo, publicado en la revista Nature por los doctores Daryl Macomb, David Bertsch, David Thompson y Robert Hartman, del Goddard Space Flight Center, explica que los rayos gamma, invisibles al ojo humano, son de hecho la más poderosa forma de luz que existe. Los objetos que los generan "brillan" con una intensidad cientos de millones de veces superior a los que emiten luz visible. El catálogo de fuentes gamma obtenido por uno de los instrumentos instalados en el observatorio espacial Compton GRO lista 271 pertenecientes a nuestra galaxia, de las cuales 170 aún no han sido identificadas. De estas últimas, la mitad se encuentran situadas en una banda estrecha a lo largo del plano de la Vía Láctea. Podría tratarse, pues, de objetos de una clase conocida pero que brillan demasiado débilmente en otras frecuencias como para localizarlos. También es posible que las emisiones en otras longitudes de onda se vean oscurecidas por una especie de "niebla" cósmica, que no afectaría a los rayos gamma. El resto de las fuentes desconocidas se encuentra más cerca de la Tierra, siguiendo el llamado cinturón estelar de Gould, y pertenece a la nueva clase de objeto mencionada. Su verdadera naturaleza nos ofrece diversas posibilidades. Podría tratarse de agujeros negros actuando como aceleradores de partículas, cúmulos de púlsares, e incluso estrellas tan masivas (10 a 20 veces la masa solar) que generarían vientos estelares capaces de arrojar y hacer chocar partículas de alta velocidad contra átomos de gas, produciendo rayos gamma. Información adicional: http://pao.gsfc.nasa.gov/gsfc/spacesci/structure/cgro.htm http://science.nasa.gov/headlines/y2000/ast23mar_1.htm Imagen: http://antwrp.gsfc.nasa.gov/apod/image/9811/anticenter_glastsim_big.gif (Simulación del cielo visto a través del espectro gamma.) (Foto: Goddard SFC) El petróleo que tenemos Las estimaciones del U.S. Geological Survey corrigen al alza la cantidad de petróleo no descubierto aún que podría estar disponible para su explotación. En un mundo altamente dependiente del consumo continuado de combustibles fósiles, es tan importante conocer cuánto petróleo, gas, etc., disponemos en la actualidad como cuántos yacimientos quedan aún por descubrir. Las estimaciones varían, pero las últimas realizadas por el U.S. Geological Survey indican una corrección al alza (un 20 por ciento) en relación a la cantidad de reservas de petróleo disponibles, frente a un ligero descenso de los recursos de gas en todo el mundo. Parece haber más petróleo y gas en el Oriente Medio y frente a las costas de África Occidental y Sudamérica Oriental de lo que se suponía con anterioridad. En cambio, hay 844 El Hijo de El Cronopio No. 76 menos petróleo y gas en Canadá y México, y mucho menos gas natural en la antigua Unión Soviética. Con la evolución de la tecnología y la mejor comprensión de los sistemas petrolíferos, los yacimientos conocidos se pueden aprovechar mejor, mientras que los desconocidos pueden ser valorados de forma más exacta. Tales predicciones tienen un importante papel en la determinación de precios, en la seguridad mundial y en la elaboración de políticas energéticas. El informe del USGS (World Petroleum Assessment 2000) divide el mundo en unas mil provincias petrolíferas, basándose principalmente en factores geológicos, para agruparlas después en ocho regiones comparables a las también ocho regiones económicas definidas por el Departamento de Estado estadounidense. De entre este millar de provincias, 406 poseen reservas de petróleo considerables. La extracción y producción de petróleo dentro de campos ya descubiertos permite hallar nuevos depósitos y reservorios desconocidos. Por eso, avances en la tecnología de exploración y sondeo posibilita identificar nuevos objetivos dentro de los campos actuales. La tecnología de perforación permite también aprovechar petróleo y gas que antes no era contabilizado por considerarse que estaba fuera de su explotación económica. Información adicional en: http://www.usgs.gov/; http://energy.usgs.gov/ http://www.usgs.gov/public/press/public_affairs/press_releases/oiltext.html El gran iceberg La Antártida ha dado lugar a un nuevo y gigantesco iceberg que en los próximos días podría evolucionar hacia el mar. Como si quisiera recordarnos que el fenómeno del calentamiento global es una posibilidad más que real, la Antártida permite el periódico desprendimiento de enormes masas de hielo que después evolucionan en el océano hasta fundirse en aguas más templadas. El iceberg que acaba de desprenderse de la plataforma helada de Ross mide nada menos que 272 km de largo por 40 km de ancho. Se trata, por supuesto, de uno de los más grandes conocidos, claramente visible a través de las imágenes transmitidas por los satélites meteorológicos. El hielo perdido por la costa antártica en este episodio podría tardar entre 50 y 100 años en volver a generarse. De hecho, los científicos habían observado la presencia de grietas en la región desde hace tiempo, y parece que la rotura forma parte del proceso normal por el cual se mantiene un equilibrio entre el crecimiento constante de la capa helada y las pérdidas periódicas. El calentamiento global puede acelerar estas últimas, con lo que el equilibrio se rompería, con graves consecuencias para la zona. Antes de avanzar hacia el mar, el iceberg podría chocar varias veces contra la costa. Existe la posibilidad de que ello ocasione su fragmentación. Algunos científicos ya están modelando la trayectoria que podrían adoptar los restos después ya que podrían llegar a adentrarse en una zona utilizada por los científicos para proveer de todo lo necesario a la estación de McMurdo, lo cual dificultaría las operaciones. Las mareas y las corrientes serán las responsables del destino final del iceberg. Información adicional en: http://uwamrc.ssec.wisc.edu/amrc/iceberg.html 845 El Hijo de El Cronopio No. 76 http://www.news.wisc.edu/newsphotos/iceberg.html Imagen: http://www.nsf.gov/od/lpa/news/press/images/newiceberg3.gif (Visión infrarroja desde el espacio del iceberg, tomada el 21 de marzo.) (Foto: NOAA/Space Science and Engineering Center, University of Wisconsin-Madison) Materiales "zurdos" Los físicos han empezado a producir materiales compuestos con un comportamiento muy especial. Físicos financiados por la National Science Foundation han iniciado la creación de nuevos materiales compuestos cuyas propiedades son distintas a lo habitual. A tales materiales se les puede llamar "zurdos" porque presentan invertidas muchas de las características físicas de sus homólogos ordinarios, ante la acción de la radiación electromagnética. Por ejemplo, los materiales "zurdos" tienen la habilidad de invertir el efecto Doppler, el principio que cambia la frecuencia de las ondas cuando la fuente se mueve. Recordemos, por ejemplo, el sonido de un tren, que podemos escuchar más agudo cuando se acerca, y más grave cuanto se aleja del oyente. Las ecuaciones de Maxwell, que describen la relación entre los campos magnético y eléctrico, sugieren que la radiación de microondas o la luz mostrarán un efecto contrario en esta nueva clase de materiales, cambiando hacia frecuencias más bajas cuando la fuente se aproxime. Las ecuaciones de Maxwell también indican que una lente hecha con estos materiales, en vez de dispersar la radiación electromagnética, la enfocará cuando ésta pase por ella. Los científicos Sheldon Schultz y David Smith de la University of California han trabajado en todo ello utilizando un material compuesto producido a partir de una serie de anillos de cobre delgados y de cables también de cobre entrelazados de forma paralela a los anillos. Los resultados verifican que el material posee una permitividad eléctrica y una permeabilidad magnética negativas, cualidades que en la naturaleza suelen ser positivas. Este metamaterial forma parte de una clase nueva en la que la forma en que dos o más materiales son mezclados o distribuidos, a un nivel muy preciso, puede llegar a afectar a las propiedades finales del compuesto. Los científicos piensan que tendrá aplicaciones en áreas tales como las transmisiones de microondas, diseño de antenas y compuestos ópticos. Información adicional en: http://www.nsf.gov/ Planetas flotantes Los astrónomos han descubierto la existencia de varios planetas que no evolucionan alrededor de ninguna estrella. La más completa observación llevada a cabo hasta ahora de una región particular de la Nebulosa de Orión ha puesto de manifiesto la existencia de al menos una docena de planetas "flotantes", situados lejos de la influencia de una estrella, así como de más de un centenar de lo que llamamos enanas marrones. El descubrimiento se produjo mediante la cámara del United Kingdom Infrared Telescope (UKIRT), en Hawai, gracias a los 846 El Hijo de El Cronopio No. 76 trabajos de Philip Lucas, de la University of Hertfordshire, y de Patrick Roche, de la University of Oxford. Las enanas marrones son objetos que iban a convertirse en estrellas pero que nunca acumularon suficiente masa. Con menos del 8 por ciento de la masa de nuestro Sol, no son capaces de producir suficiente calor interno como para desencadenar reacciones termonucleares típicas (consumo de hidrógeno). A pesar de todo, pueden producir algo de energía nuclear durante un corto espacio de tiempo, consumiendo deuterio, un isótopo del hidrógeno, para lo cual sólo necesitan tener una masa de un 1,3 por ciento la del Sol (13 masas jovianas). Más abajo de 13 masas como la de Júpiter el objeto se considerará un planeta (principalmente gaseoso). La exploración en el infrarrojo del cúmulo del Trapecio, en Orión, ha puesto de manifiesto 13 de estos planetas. El más pequeño tiene 8 masas jovianas. Sólo emiten calor residual y permanecen "flotando" libremente en una zona de creación de estrellas, lejos de cualquier dependencia gravitatoria con respecto a ninguna de ellas. Con anterioridad, astrónomos japoneses habían descubierto dos planetas más de este tipo en la nebulosa del Camaleón, lo cual implica que la generación de estos objetos, como el de las estrellas, es un fenómeno relativamente frecuente. Tanto dichos planetas como las estrellas enanas marrones se enfrían muy rápidamente después de su formación, de modo que para poderlos ver es preciso utilizar técnicas infrarrojas, aprovechando que todavía son jóvenes y están emitiendo algo del calor residual del proceso de creación. La edad de los objetos contemplados no supera el millón de años, fácilmente comparable con los casi 5.000 millones que tiene la Tierra. Los espectros obtenidos sugieren la presencia en su superficies gaseosas de vapor de agua a una temperatura de 2.700 grados centígrados. Imagen: http://www-astro.physics.ox.ac.uk/~pwl/trapl.jpg (Una imagen infrarroja de la parte central de la nebulosa de Orión, a partir de tres fotografías tomadas con la cámara UFTI.) (Foto: UKIRT) Finalizado el genoma de la mosca Drosophila Los científicos no sólo se preocupan del genoma del Hombre. El conocimiento del código genético de la mosca de la fruta, mucho más simple, nos ayudará a resolver enfermedades puramente humanas. La secuenciación del genoma de la mosca de la fruta (Drosophila melanogaster) se ha visto completada en un tiempo récord. Durante 90 años, este insecto ha servido para realizar muchos descubrimientos genéticos, incluyendo, en 1916, que los genes se encuentran localizados en los cromosomas. Ahora, además, los científicos conocen las posiciones de los 13.601 genes individuales de la conocida mosca. El genoma de la D. melanogaster se ha convertido en el más grande completamente secuenciado disponible hasta la fecha. La tarea fue iniciada en 1998 por Gerald Rubin, de la University of California y el Howard Hughes Medical Institute (HHMI), y por J. Craig Venter, de Celera Genomics. En esa fecha, los mapas del genoma de la mosca eran incompletos, con sólo un 20 por ciento de la secuenciación finalizada. Los dos científicos emplearon una nueva técnica más rápida que había funcionado en bacterias, obteniendo un rotundo éxito. La D. melanogaster posee 250 millones de bases en su genoma, distribuidas en 5 cromosomas. 847 El Hijo de El Cronopio No. 76 Además de servir como entrenamiento para aplicar dichas técnicas en el genoma del ratón y en el del propio Hombre, la secuenciación del genoma de la mosca Drosophila tendrá aplicaciones inmediatas. En un grupo de 289 genes humanos implicados en enfermedades podemos encontrar 177 muy similares a los genes de la mosca de la fruta, incluyendo algunos que juegan un papel en diferentes tipos de cáncer, enfermedades en la sangre, neurobiológicas, desórdenes del sistema inmunológico, etc. Dado que la química de ambos sistemas es tan similar, la mosca puede aportar pistas para entender cómo resolver los problemas que afectan a las personas. Por ejemplo, será más fácil encontrar genes que eliminen tumores en la mosca que en un ratón o en el propio Hombre. Además, con la mosca se pueden hacer experimentos genéticos impensables sobre pacientes humanos. En la actualidad, el proyecto del genoma humano pretende una resolución con un error por cada 10.000 pares de bases. Sin embargo, los trabajos con la Drosophila sugieren que será posible alcanzar la cota de tan sólo un error por cada 100.000. Información adicional en: http://www.celera.com/; http://www.fruitfly.org/ http://www.lbl.gov/Science-Articles/Archive/drosophila-sequenced.html http://www.hhmi.org/news/rubin3.htm Imagen: http://www.lbl.gov/Science-Articles/Archive/images1/fruitfly-sequenced.jpg (La Drosophila melanogaster) (Foto: Lawrence Berkeley National Lab.) Ciclos oceánicos Recientes investigaciones confirman el rápido desarrollo del calentamiento global en un futuro inmediato, pero esta vez por causas naturales. Científicos de la Scripps Institution of Oceanography han descubierto que los cambios climáticos ocurridos en el pasado pueden ser seguidos con facilidad gracias a los ciclos que han afectado a las condiciones oceánicas durante miles de años. Dichos ciclos sugieren que la Tierra se encuentra en estos momentos en un período de crecimiento natural de las temperaturas globales, lo cual, unido al efecto invernadero causado por las actividades del Hombre, empujará al planeta hacia una era de rápido calentamiento global. Las mareas oceánicas son los motores que impulsan los mencionados ciclos, cuya periodicidad es de unos 1.800 años. En la actualidad, nos hallamos en un proceso de incremento de temperaturas que empezó hace varios cientos de años, que aumentó especialmente durante los años setenta y que continuará durante los próximos cinco siglos, momento a partir del cual debería volver a descender si el efecto invernadero no lo impide. Las mareas fuertes influyen en el clima debido a que éstas son capaces de mezclar verticalmente más agua, transportando la que se encuentra más fría hasta la superficie. Esto enfría a su vez la atmósfera y la tierra, bajando las temperaturas de forma global. El ciclo de 1.800 años responde a los cambios graduales de la alineación astronómica entre el Sol, la Luna y la Tierra. La pequeña edad del hielo del 1400 al 1700 después de Cristo, las capas de polvo depositadas con 1.800 años de diferencia en sedimentos de lagos en Minnesota, las grandes inundaciones en la zona del Amazonas hacia el 2.200 antes de Cristo, etc., son sólo algunos ejemplos de episodios climáticos que parecen respetar estos ciclos. Información adicional en: http://www.nsf.gov/ 848 El Hijo de El Cronopio No. 76 Gases del pasado extraterrestre Los científicos podrán estudiar muestras de gases procedentes del espacio gracias a que quedaron atrapados en estructuras huecas llegadas a la Tierra. Los investigadores han encontrado en arcilla sedimentaria diversas moléculas que encierran en su interior muestras de gases extraterrestres. Las citadas moléculas se denominan coloquialmente bolas o esferas Bucky, en honor a Buckminster Fuller, el diseñador de un domo geodésico que se parece a la estructura de la molécula, también llamada fullereno. El fullereno tiene forma de jaula hueca formada por 60 o más átomos de carbono. El hallazgo de fullerenos en varios lugares del mundo ha permitido su análisis químico. En su interior se han encontrado gases nobles extraterrestres atrapados, entre ellos helio. Los fullerenos estudiados llegaron a la Tierra hace 65 millones de años, durante el impacto del asteroide que se cree acabó con los dinosaurios. La capa de arcilla que se formó del polvo arrojado por el impacto cubrió todo el planeta. El helio procedente de la atmósfera o de las emisiones de los volcanes es muy distinto del encontrado en un meteorito. El helio terrestre posee una pequeña proporción de helio 3 (un isótopo con dos protones y un neutrón) y sobre todo helio 4. En cambio, el helio cósmico es casi todo helio 3. Se trata del helio que existía cuando se formó el sistema solar, y por eso su análisis es tan interesante, ya que además sugiere un origen espacial para los fullerenos. Si éstos se hubiesen formado durante el impacto, habrían contenido helio terrestre. La teoría también sugiere que los gases atmosféricos y los compuestos orgánicos pudieron llegar a la Tierra durante el choque de asteroides y cometas, durante la fase inicial de la historia de nuestro planeta. La capa de arcilla investigada es la misma que contiene iridio, un material de claro origen extraterrestre, así como materiales que han sufrido temperaturas de más de 2.000 grados centígrados y presiones de 400.000 atmósferas debido al impacto sufrido por el objeto que vino del espacio. Información adicional en: http://www.pnas.org; http://www.hawaii.edu/ http://george.arc.nasa.gov/dx/basket/pressrelease/00_20AR.html Imagen: http://spacescience.com/headlines/images/buckyballs/bucky.jpg (Representación gráfica de la estructura de un fullereno.) (Foto: Marshall SFC) La Ciencia desde el Macuiltépetl/ Ramón Llull Por Manuel Martínez Morales En el grabado de Rembrandt, titulado El sabio inspirado, puede verse a un viejo meditabundo que dirige su mirada hacia un círculo cuya superficie muestra ciertas combinaciones de letras. En el centro figuran las letras INRI, monograma de Cristo. Este tipo de rueda, muy popular en la Edad Media, tuvo su origen e inspiración en la tradición judía mística conocida como la cábala. La idea fundamental que originó este artefacto es que las letras representan ciertos elementos o atributos que, combinados de diversas maneras, pueden conducir, a quien conozca el secreto significado de esto símbolos, a un 849 El Hijo de El Cronopio No. 76 estado superior de conocimiento. Se atribuye su invención al filósofo y místico catalán Ramón Llull (1232-1316). Este singular personaje aspiraba a reunir en una sola doctrina las religiones cristiana, musulmana y judía partiendo de los principios comunes a las tres. Para Llull, el principio aceptado en común por cristianos, musulmanes y judíos, sobre el cual basó su arte, fue la teoría de los elementos. Según esta teoría, todas las cosas del mundo natural se componían de cuatro elementos: tierra, agua, aire y fuego. Extendiendo este principio, y siguiendo la tradición cabalística, también el mundo de la Divinidad puede conocerse plenamente si se conocen los Divinos Nombres o Atributos. En una de las versiones más antiguas de la cábala se explicaba la creación como un proceso derivado de diez emanaciones divinas y de las 22 letras del alfabeto hebreo; combinadas, conducían a los 32 caminos divinos de la sabiduría secreta. Llull basó su arte en los atributos de Dios que eran reconocidos al igual por judíos, cristianos y musulmanes. Estos atributos eran: bonitas (bondad), magnitudo (grandeza),eternitas (eternidad), potestas (poder), sapientia (sabiduría), voluntas (voluntad), virtus (virtud o fuerza), veritas (verdad) y gloria. Pero la verdadera aportación de Llull consistió en que asignaba letras a conceptos tan abstractos como lo son los nombres, atributos y dignidades ya mencionadas; en el arte de Llull se convierten en las nueve letras BCDEFGHIK. Llull las coloca en ruedas concéntricas que giran de manera que se obtengan todas las combinaciones posibles. Para decirlo en términos modernos, Llull construyó un álgebra de la divinidad. Uno de sus biógrafos, Frances A. Yates, nos cuenta: Y como la bondad, grandeza, etc., de Dios se manifiesta en todos los niveles de la creación, con las figuras de su arte Llull puede ascender y descender por todo el universo, encontrando siempre de la B a la K y sus relaciones. Las encuentra en la esfera superceleste, a nivel de los ángeles; en la esfera celeste, a nivel de las estrellas; en el hombre, nivel humano; y por debajo del hombre en los animales, plantas y materia toda de la creación. La teoría elemental entra en acción en estos niveles: si los cuatro elementos ABCD, estas letras actúan conjuntamente con BCDEFGHIK, relación que asciende por la escala de la creación hasta las estrellas, en las cuales existen formas de los elementos. Veamos ahora de dónde proviene el encanto y el entusiasmo despertados en Llull por su invento. Para empezar, el número total de permutaciones diferentes que pueden formarse a partir de las nueve letras de la Divinidad son 362 880; de tal manera que si el sabio analizara diariamente digamos 100 de ellas, necesitaría cerca de 10 años de su vida para subir y bajar del universo. Si a esto agregamos que Llull extendió su sistema para incluir más de nueve divinidades y también tres figuras geométricas, nos daremos cuenta de que, para todos los fines prácticos, el catalán obtenía un número infinito de combinaciones. Y para lograr que este método fuera eficaz, era necesario mecanizarlo, lo que Llull logró con su rueda de letras. Haber inventado combinaciones por simple esfuerzo de la imaginación no lo hubiera llevado muy lejos. Actualmente, uno de los aspectos fundamentales, no estrictamente esencial de las matemáticas es la manipulación de símbolos abstractos, según las reglas bien establecidas y, además, se da el caso de que existen programas de computadoras que realizan estas operaciones. Claro que, al igual que las letras en la arcaica rueda de Llull, 850 El Hijo de El Cronopio No. 76 los símbolos de las matemáticas modernas pierden todo sentido si no tienen un referente concreto. Ramón Llull estaba animado por el noble ideal de unir a los seguidores de diferentes religiones, en torno a una doctrina común. Su notable rueda se supeditaba a tal fin. De Llull hemos heredado su ars magna, pero aún tenemos mucho que aprender de su arbor scientiae (árbol del conocimiento) y de la Liber de ascensu et descensu intellectus (Libro de ascenso y descenso del conocimiento). El Cabuche (crónicas de la Facultad de Ciencias)/ Sólo para niños El presente Cabuche realmente es un comercial. Comercial necesario cuando estamos a punto de cumplir dos años de publicar El Hijo de El Cronopio; es oportuno recordar que nace como una versión escrita de lo que era el noticiero radiofónico La Ciencia en San Luis que semanalmente se transmitió durante cinco años en los que se elaboraron 260 guiones. Se transmitía por Radio Universidad AM y FM, los lunes y luego los viernes a las 14:00 y 17:00 horas. Esto significa que ambas actividades suman siete años en los que la Facultad cumple con una de las funciones universitarias que es la difusión. Ahora llevamos publicados 76 números del boletín, como pueden comprobarlo si ven la portada. Esta actividad forma parte de un programa de difusión de educación y cultura científica que hace más de diez años se emprendió en nuestra Facultad y que se trató en algún Cabuche. En este renglón somos, casi la única escuela de la universidad, que dirige sistemáticamente actividades al público en general, incluyendo a los niños. Siguiendo con esta línea a partir de esta semana iniciamos la versión infantil del Boletín que llevará como nombre El Cronopio Infantil, en un formato de cuadernillo en donde se tratará alguna de las notas del boletín adaptadas para su comprensión por los niños. Cada número contendrá una noticia con su respectivo tema o temas desarrollados esperando sean de utilidad en escuelas primarias. El boletín se editará quincenalmente y será distribuido entre el público interesado en utilizarlo y leerlo, para lo cual se solicita lo hagan saber apuntándose con la Sra. Lucha en su oficina del tercer piso del edificio 2 de la Facultad de Ciencias o al teléfono 826 23 87. Esta de moda los espectáculos exclusivos para un género (sólo para hombres, sólo para mujeres) así que este boletín será sólo para niños y niñas (de todas las edades claro). Invitamos a todos los interesados en participar en los boletines en la forma que deseen a fin de poder mantener este esfuerzo de comunicación que ha emprendido la Facultad. Cualquier comentario, sugerencia o contribución favor de hacerla llegar. La canción es la amiga/que me arropa y después me desabriga/La más clara y obscura, la más verde y madura,/la más íntima, la más indiscreta/La canción me da todo aunque no me respeta/Se me entrega feliz cuando me viola/La canción es la ola que me deja y me hunde/que me fragua lo mismo que me funde/La canción compañera virginal y ramera, la canción 851 El Hijo de El Cronopio No. 76 Benemérita Universidad Autónoma de Puebla Facultad de Ciencias Físico Matemáticas Grupo de Investigación Educativa (GrInvEd) VIII Taller Internacional "Nuevas Tendencias en la Enseñanza de Física" 25 a 28 de mayo de 2000, Puebla, Pue, México Biblioteca Niels Bohr y Laboratorios Edificio 8, FCFM, Ciudad Universitaria. CURSOS (dos sesiones de 90 minutos) Contenidos procedimentales y actividades de enseñanza Antonio de Pro Bueno (España) If we could see the free electrones (Sí pudiéramos ver los electrones libres) Atsushi Katsuki (Japón) Enhanced PRISMS - Activities with a purpose (Proyecto PRISMS enriquecido - Actividades con un propósito) Roy Unruh (EUA) Learning with and design of integrated simulation learning environments (Aprendizaje con y diseño de ambientes integrados de aprendizaje con simulación) Ton de Jong (Holanda) Innovations in Austrian physics texts books (Innovaciones en libros de texto de física austriacos) Leopold Materitch (Austria) Powerful ideas in physical science (Ideas poderosas en física) Robert Poel (EUA) FÍSICA NOCTURNA (dos sesiones de 90 minutos) Teaching physical optics using household items: scattering, reflection and refraction (Enseñando óptica física con objetos caseros: dispersión, reflexión y refracción) Eugene Hecht (EUA) 852 El Hijo de El Cronopio No. 76 CONFERENCIAS (una sesión de 50 minutos) Aprendizaje de física en centros interactivos de ciencia María Helena Caldeira (Portugal) On the mythical rol of Edwin Hall: who says there are two kinds of charge (Sobre el mítico papel de Edwin Hall: "¿quién dice que hay dos clases de carga?) Dewey Dykstra (EUA) Teología y enseñanza de la ciencia Salvador Jara Guerrero (México) Física para ciudadanos: ¿qué nos trae internet? Josip Slisko (México) Se entregará memoria del VIII Taller. Las exposiciones que no se realicen en castellano contarán con traducción Inscripción $800.00. Para mayores informes, comunicarse a la Facultad de Ciencias Físico Matemáticas, Tel: (012) 233 25 33; Fax: (012) 234 24 03) Correo electrónico: taller@fcfm.buap.mx NUEVA EXHORTACIÓN Como podrán observar, en estos momentos se efectúan trabajos de remozamiento en la Facultad. Principalmente en lo que se refiere a pintura. Por este medio se hace un llamado a toda la comunidad de la Facultad de Ciencias y visitantes esporádicos, a no colocar ningún tipo de anuncio en las paredes de los edificios de esta Facultad, el pegamento de la cinta scotch (diurex) remueve la pintura y mancha las paredes. Los conminamos a conservar nuestros espacios. La persona que sea sorprendida colocando en las paredes cualquier anuncio, podrá ser sancionada. Exhorta a tus compañeros y maestros a evitar dañar las paredes. En fechas próximas se implementarán espacios adecuados para tal efecto. 853 El Hijo de El Cronopio No. 76 II Verano de la Ciencia de la Región Centro y VI Verano de la Ciencia de la UASLP del 5 de junio al 18 de agosto Alumnos interesados en participar en los veranos de la ciencia, mediante una estancia con un investigador de instituciones y centros de investigación de los estados de San Luis Potosí, Zacatecas, Aguascalientes, Guanajuato, Querétaro, Coahuila, pueden pasar por información, solicitudes y consulta del directorio de investigadores anfitriones al Laboratorio de Materiales de la Facultad (segundo piso del edificio 1) XVIII FIS-MAT Gustavo Del Castillo y Gama SE INVITA A LOS ALUMNOS QUE DESEEN PROPONER PROBLEMAS Y PREGUNTAS DE FÍSICA Y MATEMÁTICAS EN LOS NIVELES DE PRIMARIA, SECUNDARIA Y PREPARATORIA PARA SER CONSIDERADOS EN EL XVIII FIS-MAT, HACERLOS LLEGAR A LA SRA. LUCHA O AL LABORATORIO DE MATERIALES CON GERARDO ORTEGA O EL FLASH. FECHA LIMITE: LUNES 22 DE MAYO A LAS PROPUESTAS SELECCIONADAS SE LES ENTREGARÁ UN PEQUEÑO RECONOCIMIENTO Y A TODOS LOS PARTICIPANTES CONSTANCIA DE PARTICIPACIÓN. 854 Boletín El Hijo de El Cronopio Facultad de Ciencias Universidad Autónoma de San Luis Potosí No.77, 22 de mayo de 2000 Boletín de información científica y tecnológica de la Facultad de Ciencias Publicación semanal Edición y textos Fís. J. Refugio Martínez Mendoza Cualquier información, artículo o anuncio deberá enviarse al editor e-mail: flash@galia.fc.uaslp.mx Este boletín y números anteriores, pueden consultarse por Internet en la página de la UASLP: http://phobos.dtc.uaslp.mx/publi.html Noticias de Espacio La sonda Galileo ha completado un nuevo sobrevuelo de la luna joviana Ganimedes (20 de mayo). El tercer encuentro de la Galileo Millenium Mission ha sido también la quinta vez que la nave ha visitado este satélite desde su llegada a la órbita de Júpiter, y el segundo sobrevuelo más cercano, a unos 808 km de su superficie y a una velocidad de 11,3 km/s. La zona que ha atravesado la Galileo es altamente radiactiva, de manera que los controladores están a la espera de saber si el vehículo ha podido llevar a cabo todas sus tareas programadas sin sufrir ningún contratiempo que haya afectado a sus sistemas electrónicos. Más información en: http://galileo.jpl.nasa.gov http://www.jpl.nasa.gov/galileo También el satélite meteorológico geoestacionario GOES-11 ha tomado fotografías de la Tierra. En realidad, se trata de las primeras desde que fue lanzado al espacio el pasado 3 de mayo. La visión de la imagen inicial no hace sino confirmar que sus sistemas funcionan a la perfección. Estructuras meteorológicas más detalladas que antes están ahora a disposición de los científicos. De momento, el GOES-11 permanecerá "almacenado" en órbita, a la espera de que sea necesaria su participación para sustituir a los actuales GOES-8 y 10. El 21 de mayo, el GOES-11 alcanzará su posición geoestacionaria provisional. Más información e imágenes en: http://pao.gsfc.nasa.gov/gsfc/earth/goesl/goe sl.htm http://www.osei.noaa.gov/Events/Unique/Fu llDisk/UNIgoes11138_G11.jpg http://pao.gsfc.nasa.gov/gsfc/EARTH/PICT URES/GOES/GOESLfirst.jpg El Hijo de El Cronopio No. 77 Noticias de la Ciencia y la Tecnología La detección de ondas gravitatorias La utilización de sistemas láser podría implicar un importante paso adelante en la detección y medición de las misteriosas ondas gravitatorias. Los astrónomos han estado observando el Universo con relativo éxito desde hace siglos. Sin embargo, siempre se han encontrado limitados por su instrumental. Al principio, la única parte del espectro electromagnético a la que podían acceder era la dominada por la luz visible. Más recientemente, por fortuna, los nuevos sensores y telescopios les han permitido acceder a los rayos infrarrojos, X, gamma, ultravioleta e incluso a las ondas de radio, todo ello invisible a nuestros ojos. Los objetos astronómicos que conocemos emiten estas radiaciones con mayor o menor intensidad, lo que posibilita su estudio. Pero aún hay una buena parte del Universo que queda fuera de nuestro alcance. Lo que denominamos materia oscura apenas produce radiación electromagnética, de modo que no podemos conocer su exacta naturaleza con los instrumentos actuales. Sin embargo, hay algo que sí podría ayudarnos: las ondas gravitatorias. Los objetos estáticos, incluso los más grandes, no emiten este tipo de ondas, pero como Einstein predijo, todos aquellos que son acelerados sí las producen, como también cuando fuertes campos gravitatorios interactúan dinámicamente ente sí. Astros como las supernovas, o procesos como la fusión o colisión de estrellas de neutrinos y agujeros negros, son grandes productores de ondas gravitatorias. Si fuésemos capaces de detectarlas y medirlas, obtendríamos información de dichos cuerpos aunque éstos no emitiesen ningún otro tipo de radiación. La citada detección, no obstante, es muy difícil. Las ondas gravitatorias son muy débiles, y si bien al pasar junto a la Tierra pueden llegar a mover objetos, sólo lo harán en un factor equivalente a 1/10.000 veces el diámetro de un protón, y durante menos de diez milisegundos. Su extrema debilidad es un reto para los científicos que desean detectarlas. En la actualidad se barajan dos sistemas. Uno implica el uso de una barra de metal de niobio o aluminio, refrigerada a muy bajas temperaturas, la cual "escucharemos" vibrar debido a la distorsión producida por las ondas gravitatorias. El otro sistema emplea láseres. Un rayo de este tipo es dividido en dos mitades, haciéndolas rebotar adelante y atrás gracias a espejos muy separados, lo cual incrementa la sensibilidad del detector. Los dos rayos separados pueden ser entonces comparados entre sí. Pequeños movimientos causados por el estrechamiento y la opresión del espacio debidos a las ondas gravitatorias deberán afectarles de manera distinta, siendo ello detectable como un patrón de interferencia creado al recombinar los dos rayos láser. La tecnología necesaria para ello es muy avanzada. Es necesario un láser de 100 vatios que sea muy estable y perfecto. Dos grupos universitarios (University of Adelaide y Stanford University) están trabajando en el problema y compiten por obtener una solución lo antes posible. Las peculiaridades de las ondas gravitatorias son tales que un único detector no puede decirnos de dónde procede la señal. Son necesarios al menos dos, y después luchar duramente para filtrar el ruido de fondo. Se necesitarán cuatro detectores, lo más separados posible, para conseguir la información direccional completa sobre la fuente 858 El Hijo de El Cronopio No. 77 que produce las ondas. El coste podría ser elevado, pero los beneficios serán inmensos, ya que está en juego nuestro conocimiento exacto sobre cómo funciona el Universo. Información adicional en: http://www.adelaide.edu.au/PR/gravity_waves00.html Imagen: http://www.adelaide.edu.au/PR/media_photos/mostermeyer.jpg (Martin Ostermeyer instala diodos de láser infrarrojo para proporcionar la energía que necesitará el láser estable.) (Foto: University of Adelaide) Cómo lucha la bacteria Muchos de los microorganismos que producen enfermedades vencen el poder letal del oxígeno gracias a una proteína. El descubrimiento podría llevarnos a obtener antibióticos mucho mejores. El oxígeno es un veneno mortal para algunas de las bacterias que causan enfermedades en el Hombre. Sin embargo, éstas no parecen resultar afectadas, y los científicos se preguntan cómo lo hacen. Los microorganismos anaerobios, aquellos que crecen en ausencia de oxígeno, pueden detectar su presencia en el medio ambiente y huir rápidamente para evitar su muerte. El descubrimiento de una proteína especial podría explicar este proceso. Donald M. Kurtz, Jr., de la University of Georgia, cree que dicha proteína actúa como sensor de oxígeno, poniendo sobre aviso a la bacteria. Este tipo de microorganismos puede producir enfermedades como la gingivitis o la gangrena, de modo que una forma de eliminarlos podría ser la desactivación de su mecanismo de "alarma". Desde el hallazgo inicial, los biólogos han encontrado proteínas similares en doce bacterias distintas, tanto aeróbicas (que pueden usar el oxígeno) como anaeróbicas. Esto es importante, ya que existen bacterias peligrosas aeróbicas, algunas de las cuales pueden crecer también de manera anaeróbica, con lo que podrían ser igualmente vulnerables. Así, sería posible elaborar un medicamento que fuera capaz de desactivar la proteína que detecta el oxígeno, y dejar entonces que este elemento químico natural acabase con la enfermedad sin posibilidad de que desarrolle ninguna resistencia. La proteína en cuestión está presente en otros organismos más desarrollados, como algunos gusanos. En la bacteria, sirve para detectar y evitar el oxígeno, mientras que en el gusano actúa como reserva de almacenamiento de este elemento cuando el animal lo necesita al evolucionar en lugares donde es escaso. Las bacterias debieron desarrollar este mecanismo para su supervivencia. La atmósfera primigenia de la Tierra no contenía apenas oxígeno, con lo que los organismos que aparecieron en ella eran anaerobios. Cuando las plantas y otros seres vivos que desarrollan la fotosíntesis inyectaron oxígeno en la atmósfera de forma masiva, sólo los anaerobios capaces de protegerse y adaptarse pudieron sobrevivir. Información adicional en: http://www.acs.org/ Io ensucia el sistema solar Los volcanes activos de la luna joviana Io expulsan polvo que llega a extenderse por todo nuestro sistema planetario. Los espectaculares volcanes de Io, una de las lunas galileanas de Júpiter, expulsan constantemente gases y polvo incandescente al espacio. Su baja gravedad posibilita que 859 El Hijo de El Cronopio No. 77 este material quede atrapado primero en el sistema joviano, pero que después sea expulsado hacia el resto del Sistema Solar. A esta conclusión han llegado los científicos que trabajan en la misión Galileo, una sonda que se encuentra desde hace varios años en órbita alrededor de Júpiter. Amara Graps, del Max Planck Institute of Nuclear Physics de Heidelberg, y sus colegas, han analizado la frecuencia de los impactos de partículas de polvo contra el subsistema de detección de la sonda. La estadística indica que los picos de actividad coinciden con el período de la órbita de Io (unas 42 horas) y de la rotación de Júpiter (10 horas). El movimiento de las corrientes de polvo expulsado desde los volcanes de Io se ve grandemente influenciado por los fuertes campos magnéticos de Júpiter. Las partículas son muy pequeñas, como las del humo de un cigarrillo, y al ser aceleradas pueden alcanzar distancias de hasta 290 millones de kilómetros del planeta, extendiéndose por una buena parte del Sistema Solar. En algunos casos pueden llegar a escapar incluso de él y unirse a la población interestelar. El fenómeno es particularmente interesante ya que proporciona pistas de cómo era el sistema planetario en sus orígenes. Durante la fase de formación, el polvo era mucho más abundante que ahora, siendo influido por los campos magnéticos solares como ocurre en la actualidad en Júpiter. El comportamiento de estos granos de polvo primitivos podría haber desencadenado procesos que nos habrían llevado a la formación de los planetas y sus lunas. La actividad del polvo joviano aporta información ni directa sobre los volcanes activos de Io, aunque el satélite no esté a la vista de los instrumentos de la Galileo. Información adicional en: http://galileo.jpl.nasa.gov/news/release/press000503.html http://galileo.mpi-hd.mpg.de/~graps/nature2000/press.html Imagen: http://galileo.mpi-hd.mpg.de/~graps/nature2000/io_big.jpg (Io y sus volcanes.) (Foto: JPL) El verdadero reflejo de las emociones Si quiere conocer las verdaderas emociones de su interlocutor quizá deba prestar mayor atención a su rostro. Cuando escuchamos a otra persona que nos habla, solemos prestar una atención preponderante a la zona baja de su cara. Si bien esto es socialmente adecuado, estamos al mismo tiempo perdiendo la posibilidad de conocer sus verdaderos sentimientos. La zona baja, que incluye la nariz, los labios y las mejillas, se muestra menos activa que la alta (ojos, cejas y frente), cuando el interlocutor trata de engañarnos o ocultarnos sus verdaderas emociones. El viejo adagio que dice que los ojos son el espejo del alma, pues, podría no andar demasiado desencaminado, según manifiesta Calin Prodan, un neurólogo del University of Oklahoma Health Sciences Center. Los humanos aprendemos en la niñez a manipular nuestras emociones faciales para hacerlas apropiadas en una determinada situación social. Con el tiempo, esto nos permite también mostrar un comportamiento engañoso. Por ejemplo, el trabajador molesto con su superior no reflejará este sentimiento sino que en su lugar esbozará una sonrisa si de lo que se trata es de pedir un aumento de sueldo. Para entender mejor el sistema de reconocimiento que emplea el cerebro a la hora de procesar las emociones faciales, los investigadores mostraron a varios voluntarios, brevemente, un total de 30 dibujos esquemáticos de caras humanas. Dichos dibujos 860 El Hijo de El Cronopio No. 77 representaban diferentes emociones, como alegría, tristeza, enfado, sorpresa, miedo, neutralidad, etc. Los participantes emplearon en cada caso su campo de visión izquierdo o derecho. La principal conclusión es que casi todos ellos se basaron en las particularidades de la zona baja del dibujo cuando la información visual era procesada por el hemisferio izquierdo del cerebro (sistema social). La zona alta del dibujo, en cambio, era procesada principalmente por el hemisferio derecho (sistema primario). La gente se fija en la zona baja de la cara del interlocutor de forma natural, ya que ayuda a entender la conversación, sobre todo en ambientes ruidosos. También hay algunas convenciones sociales en ciertas culturas que consideran inaceptable mirar directamente a los ojos, ya que ello podría ser interpretado como un comportamiento agresivo o amenazador, como se observa en determinadas especies animales. Sin duda, deberemos educarnos mejor a nosotros mismos, prestando mayor atención a la zona superior del rostro de las personas, si lo que queremos es llegar a conocer su verdadero estado emocional. Información adicional en: http://www.aan.com; http://www.aan.com/neurovista Luchando contra el insomnio Si no puede dormir, hay otras cosas que puede hacer, además de contar ovejas. La ajetreada vida moderna altera tanto nuestro organismo que en ocasiones algo tan fundamental como el dormir se convierte en un auténtico problema. El insomnio debe afrontarse con decisión para garantizar que el cuerpo goce siempre de un oportuno descanso diario. Por supuesto, contar ovejas no es la única solución para estos casos, por otra parte más numerosos de lo que parece. Una de cada tres personas, en países industrializados, puede padecer insomnio. Según un experto de la Washington University School of Medicine, el problema se puede resolver de forma relativamente sencilla. Para Hrayr P. Attarian, el insomnio es una falta de calidad en el sueño, no necesariamente la ausencia de éste, ya que algunas personas pueden dormir pocas horas y a pesar de todo encontrarse perfectamente bien a la mañana siguiente. Si no es afrontado de forma profesional, el insomnio puede producir una gran diversidad de problemas. Por ejemplo, puede desencadenar un uso exagerado de medicamentos, un abuso del alcohol, un excesivo tratamiento con estimulantes, dolores de cabeza, de estómago, accidentes de automóvil o ausencias y disminución de la productividad en el trabajo. Las causas más comunes del insomnio son varias. Una de ellas es el condicionamiento. Por ejemplo, si nos quedamos despiertos durante varias noches, preocupados por el pago de las facturas, una vez resuelto el problema nuestro cuerpo aún se encuentra condicionado y seguirá sin dormir. El estilo de vida también influye. Si no dormimos bien empezaremos a abusar del café para mantenernos despiertos durante el día, y del alcohol para amodorrarnos de noche, lo cual no hace sino empeorar las cosas. Hay personas que tienen sensaciones poco confortables en las piernas cuando se encuentran tumbados en la cama. Esto les hace moverlas constantemente, lo que a su vez dificulta conciliar el sueño. La apnea, por su parte, durante la cual el aire no pasa por las vías respiratorias cuando dormimos, es una condición peligrosa que no sólo interrumpe 861 El Hijo de El Cronopio No. 77 la respiración sino que además puede producir insomnio por la angustia que desencadena. Los ritmos anormales de vida (dormir cuando otras personas están despiertas y viceversa) son un factor a tener en cuenta. Como lo son diversos estados médicos, como el Parkinson y otras enfermedades neurodegenerativas, el dolor, las alergias y el asma, etc. La menopausia perjudica el sueño de casi la mitad de las mujeres de mediana edad, y la vejez puede influir debido a una alteración de las funciones cerebrales (muchas personas mayores dormitan durante el día, se duermen temprano y se levantan también temprano). La toma de medicamentos, como antidepresivos y antiinflamatorios, problemas psiquiátricos como la ansiedad, etc., completan el panorama de causas. Para evitar el insomnio, Attarian recomienda, ante todo, visitar a nuestro médico, quien nos recomendará una serie de medidas, como la documentación de nuestros hábitos de sueño, que después ayudarán al especialista a dar un diagnóstico. Pero Attarian también da algunos consejos para pasar una buena noche. Por ejemplo, debemos restringir el tiempo que pasamos sobre la cama, de manera que sólo nos situemos sobre ella cuando realmente estemos cansados y vayamos a dormir. Tampoco deberíamos realizar siestas durante el día. Otro consejo es abandonar nuestra habitación si permanecemos más de 15 minutos despiertos. No se recomienda realizar trabajos intensivos justo antes de ir a la cama, ya sean físicos o mentales. Deberíamos incrementar el ejercicio realizado diariamente, eliminar todos los relojes de nuestra habitación, intentar distraernos en algo mientras tratamos de dormir, reducir el consumo de café y evitar la nicotina y el alcohol. Es importante ir a la cama y levantarse siempre a la misma hora, incluso los fines de semana o si hemos dormido poco o casi nada. Y, sobre todo, nunca debemos automedicarnos. Información adicional en: http://medicine.wustl.edu/~wumpa/news/index.html El gran electroimán funciona La investigación de la energía nuclear de fusión precisa de tecnologías muy avanzadas. Japón y otros países lo quieren intentar con un nuevo sistema de confinamiento magnético. La carrera hacia la consecución de un reactor nuclear de fusión más eficiente que los actuales prototipos no se ha detenido. Pero para que se haga realidad es necesario antes poner a punto tecnologías muy sofisticadas y que hasta ahora no estaban disponibles. Uno de los puntos que está recibiendo mayor atención en la actual investigación es el sistema de confinamiento magnético que debe mantener el plasma para la reacción de fusión. Para ello se han diseñado gigantescos electroimanes cuyos primeros modelos han empezado a ser probados. Uno de estos inmensos imanes pesa 150 toneladas y está siendo desarrollado y ensayado por un equipo internacional de científicos estadounidenses y japoneses. En estos momentos se encuentra en Japón, donde ha sido probado a pleno régimen. Sus números son impresionantes: el dispositivo ha generado un campo magnético de 13 Tesla, unas 260.000 veces más poderoso que el campo magnético terrestre, y ha almacenado una energía de 650 megajulios en una corriente de 46.000 amperios, tres mil veces más que la que podemos encontrar en el cableado de una casa doméstica. 862 El Hijo de El Cronopio No. 77 Sin duda, es el imán superconductor pulsante más potente del mundo, manifiestan los expertos del MIT. Su objetivo, sin embargo, es sólo demostrar los parámetros de comportamiento y los métodos de fabricación que deberán ser aplicados al modelo final, destinado al llamado International Thermonuclear Experimental Reactor (ITER), un proyecto ambicioso que busca probar que la fusión nuclear puede ser una fuente viable de energía. Durante los próximos meses, los investigadores esperan aumentar la velocidad a la que se alcanza el punto de 13 Tesla partiendo de cero y viceversa. En la serie de ensayos más recientes, se pasó de 0 a 13 Tesla a una velocidad de 0,005 Tesla por segundo, mientras que al contrario se llegó a 0,7 Tesla por segundo. El objetivo es alcanzar 1,2 Tesla en ambos sentidos. El imán está compuesto por dos módulos, uno japonés y el otro estadounidense. En cuanto al programa ITER, en él participan la Unión Europea, Japón y la Federación Rusa. Estados Unidos participó hasta finales de 1998 y ahora sólo colabora en las pruebas. Información adicional en: http://web.mit.edu/newsoffice/nr/2000/magnet.html Imagen: http://web.mit.edu/newsoffice/tt/2000/may03/magnetdiagram.jpg (Gráfico del electroimán con sus dos módulos combinados.) (Foto: Japan Atomic Energy Research Institute/Lockheed Martin) Nuevo analizador químico La tecnología militar es un buen punto de partida para obtener sistemas de aplicación civil. Cuando hace unos años los científicos pusieron a punto la tecnología de búsqueda mediante infrarrojos, utilizándola junto a misiles, poco podían imaginarse que tendría tantas otras aplicaciones. Una de estas aplicaciones, desarrollada por ingenieros de la Purdue University, consiste en un instrumento que acelera de forma dramática la búsqueda de nuevos catalizadores, mejorando los procesos de fabricación química y los sistemas de control de la polución en los automóviles. En el campo de la química combinatoria, los científicos usan equipos automáticos para crear y probar de forma sistemática miles de muestras químicas en el mismo tiempo que hasta ahora gestionábamos una sola muestra con métodos convencionales. El sistema desarrollado en Purdue pueda analizar muchas muestras en segundos, siendo 5.000 veces más rápido que cualquier otra tecnología usada para probar muestras de catalizadores que reaccionan con líquidos, y al menos 20 veces más rápido que las usadas con catalizadores que reaccionan con gases. Estos últimos, por ejemplo, se usan en los sistemas de escape de los automóviles. El nuevo "rapid-scan Fourier transform infrared imaging system", como se denomina el sistema, analiza las muestras químicas en el rango de la luz infrarroja que es invisible al ojo humano. Esta luz revela la firma infrarroja única que corresponde a cada producto químico específico (la huella molecular). Dicha huella identifica las moléculas que han sido absorbidas sobre la superficie del catalizador, información que puede ser usada después para entender los mecanismos moleculares en las reacciones para cada uno de ellos. 863 El Hijo de El Cronopio No. 77 En el corazón del sistema se halla tecnología recientemente desclasificada que había sido desarrollada para la detección de misiles a partir del calor que generan durante el funcionamiento de sus motores. El detector ha sido unido a un diseño óptico con un amplio campo de visión, que permite el ensayo de múltiples muestras de forma simultánea. El instrumento puede probar cientos de catalizadores a la vez en 15 segundos, sin destruir las muestras. Los catalizadores pueden ser usados en automoción para intercambiar los escapes polucionantes por otros cuyos componentes son menos peligrosos. La efectividad de los catalizadores depende de su composición, como por ejemplo, la concentración de metales, de manera que el ensayo de decenas de miles de candidatos puede ser muy difícil sin una técnica como la descrita. También será posible desarrollar catalizadores que empleen metales menos caros que los actuales (platino, paladio, rodio). Los catalizadores se emplean además en operaciones químicas como el procesado de fertilizantes, tejidos, plásticos y otros productos del petróleo. Una ligera mejora en los catalizadores puede suponer millones de dólares de ahorros industriales. Información adicional en: http://news.uns.purdue.edu/UNS/html4ever/0006.Lauterbach.catalysts.html Imagen: http://news.uns.purdue.edu/UNS/images/lauterbach.catalysts.jpeg (Jochen Lauterbach y Gudbjorg Oskarsdottir trabajan en el instrumento de imágenes infrarrojas para análisis de catalizadores.) (Foto: Purdue News Service/David Umberger) Bichos Los ingenieros no dejan de avanzar en la miniaturización de robots móviles que puedan alcanzar considerables distancias. Las nuevas criaturas mecánicas creadas en la Vanderbilt University ya tienen suficiente autonomía como para alcanzar distancias de 800 metros. El logro no sería demasiado llamativo sino fuera porque dichas criaturas tienen un tamaño diminuto, suficiente como para caber en la palma de una mano. Los "bichos" forman parte de los esfuerzos de los ingenieros por crear dispositivos robóticos móviles más o menos autónomos, capaces de llevar a cabo determinadas tareas de indudable interés civil o militar. Michael Goldfarb es el líder del grupo de desarrollo y cree que han construido el robot más pequeño capaz de realizar considerables travesías gracias a la carga de una simple batería. Su objetivo inicial era ver cuán pequeño podía ser un dispositivo de esta clase, y esto es lo que han obtenido. Lo cierto es que Goldfarb ha construido robots incluso más pequeños, pero no eran útiles en la práctica o su autonomía era demasiado limitada. El "bicho" más optimizado mide unos seis o siete centímetros y pesa apenas unos pocos gramos. El programa de desarrollo, que ha durado dos años y medio, ha sido financiado por la Defense Advanced Research Projects Agency (DARPA), en busca de micro-robots móviles para reconocimiento militar y para la obtención de información. La idea básica es que los soldados puedan transportar grandes cantidades de estos robots, y que los usen para investigar el terreno que tienen frente a ellos, detectando tropas enemigas, minas u otros peligros. El micro-robot emplea una batería combinada con un material poco usual llamado cerámica piezoeléctrica (PZT), que se expande físicamente cuando se le aplica un voltaje 864 El Hijo de El Cronopio No. 77 eléctrico. Esto es interesante para la locomoción del robot. Si bien los primeros prototipos avanzaban a una velocidad de 1 mm por segundo, los de ahora han multiplicado por 300 esta cifra (30 cm por segundo), incluso llevando una pequeña carga útil. Con la batería de la cual disponen, pueden avanzar de forma continuada durante 45 minutos, suficiente para recorrer unos 800 metros. Las cámaras de video más pequeñas disponibles comercialmente pesan la mitad de lo que puede transportar el robot, de manera que podría cargar una de ellas sin ningún problema. En el futuro, los ingenieros desarrollarán micro-robots voladores, aunque las pruebas realizadas hasta la fecha han sido infructuosas: ninguno de ellos ha conseguido "despegar" por su elevado peso. Información adicional en: http://www.vanderbilt.edu/News/news/apr00/nr28c.html http://www.vuse.vanderbilt.edu/~meinfo/labs/cim/projects.htm http://www.darpa.mil/MTO/DRobotics/index.html http://www.vuse.vanderbilt.edu/~goldfarb/persinfo.htm http://www.vanderbilt.edu/News/register/Dec8_97/vr1.htm Imagen: http://www.vanderbilt.edu/News/register/Dec8_97/Goldfarb,_Michael.GIF (Goldfarb, uno de los ingenieros del proyecto de micro-robótica.) (Foto: Vanderbilt University) Hallado el hidrógeno que faltaba El telescopio espacial Hubble ha localizado una buena parte de la materia del Universo que había permanecido invisible para nuestros instrumentos. Durante el Big Bang, el gran estallido que dio lugar a la materia que conforma el Universo, se crearon enormes cantidades de hidrógeno. Una parte de este elemento acabaría formando estrellas y galaxias, pero el resto parecía haber desaparecido en la oscuridad vacía del espacio. El hidrógeno faltante supone aproximadamente la mitad de la materia "normal" del Universo. Los científicos ya saben que alrededor del 90 por ciento de la materia, normal o no, se mantiene oculta (se la llama materia oscura), pero lo que es más embarazoso es que no hayamos sido capaces de encontrar al menos toda la que denominamos bariónica (ordinaria, compuesta por protones, electrones y neutrones). El hallazgo del hidrógeno que faltaba es un buen avance en este sentido y ayudará a aportar nueva luz sobre las estructuras a gran escala del Universo. Además, permite confirmar los actuales modelos que calculan la cantidad de hidrógeno que fue creado durante el Big Bang. Los trabajos de detección, llevados a cabo por astrónomos de la University of WisconsinMadison, demuestran que el hidrógeno formó hace miles de millones de años grandes estructuras o nubes, pero que desde entonces se han ido desvaneciendo. Ni siquiera el telescopio Hubble puede localizar este hidrógeno debido a que se encuentra extremadamente enrarecido. Sin embargo, el observatorio sí puede encontrar un elemento que delate su presencia de forma indirecta, el llamado oxígeno altamente ionizado. El hidrógeno debe estar presente en el espacio intergaláctico para calentarlo hasta las temperaturas observadas. Es decir, el descubrimiento de este oxígeno implica que existen grandes cantidades de hidrógeno en el Universo, cuya temperatura es tan elevada que escapa a su detección por medio de técnicas convencionales. 865 El Hijo de El Cronopio No. 77 Las teorías actuales hablan de un Universo en expansión en el que se encuentran redes de filamentos de gas muy intrincados, donde el hidrógeno se concentra a lo largo de vastas estructuras encadenadas. Los cúmulos de galaxias se forman donde los filamentos se interseccionan. Los modelos predicen que las nubes de hidrógeno que fluyen a lo largo de las cadenas deberían colisionar y calentarse. Esto reduciría la formación de más galaxias en las regiones más calientes, de manera que el nacimiento de estrellas debió ser más frecuente en el Universo temprano, cuando el hidrógeno se encontraba lo bastante frío. El oxígeno delator apareció probablemente cuando fue expulsado por estrellas al estallar, después de formarse por fusión nuclear en su interior. Al alcanzar el espacio intergaláctico, se mezcló con el hidrógeno y se calentó hasta alcanzar temperaturas de 100.000 grados Kelvin. Los astrónomos detectaron el oxígeno altamente ionizado utilizando la luz de un cuásar distante. El Hubble fotografió dicho cuásar mediante su espectrógrafo, localizando el oxígeno. En cuanto al hidrógeno, está totalmente ionizado, de manera que sus átomos han perdido sus electrones, sin los cuales no se puede detectar su presencia mediante espectroscopía. Información adicional en: http://oposite.stsci.edu/pubinfo/pr/2000/18 Imagen: http://oposite.stsci.edu/pubinfo/pr/2000/18/content/0018cw.jpg (El cuásar indicado en la imagen ha sido observado por el Hubble para localizar el hidrógeno "perdido" en el espacio intergaláctico.) (Foto: WIYN Telescope) Un asteroide con forma de hueso El asteroide Cleopatra nos descubre su curiosa forma gracias a imágenes obtenidas mediante radar. Por primera vez, los científicos han conseguido fotografiar el aspecto del asteroide del "cinturón principal", situado entre Marte y Júpiter, cuyo nombre es 216 Cleopatra. La roca metálica mide unos 217 km de largo y 94 km de ancho, y fue descubierta en 1880. Su forma exacta, sin embargo, había permanecido desconocida hasta ahora. Los astrónomos han utilizado un potente radar para obtener una imagen del objeto. Su aspecto es el de un típico hueso de perro, lo que sugiere que se trata de un resto procedente de un violento y antiguo choque cósmico. La colisión entre dos asteroides no debió dispersar totalmente los fragmentos, y algunos volvieron a contactar entre sí para adoptar la forma que poseen ahora. Steven Ostro, del Jet Propulsion Laboratory, empleó para la tarea el radiotelescopio de Arecibo de 305 metros de diámetro. Los ecos de radar procedentes de Cleopatra fueron después analizados mediante ordenadores y transformados en imágenes. En ese momento, el asteroide se encontraba a 171 millones de kilómetros de la Tierra. Avanzando a la velocidad de la luz, la señal del radar precisó de 19 minutos para realizar el camino de ida y vuelta. La alta reflectividad del asteroide y su color sugieren que está hecho de metal, quizá de una aleación de níquel-hierro. Tales objetos se calentaron y fundieron tiempo atrás, diferenciándose en estructuras que incluían un núcleo, un manto y una corteza. Colisiones posteriores, tras solidificarse, dejaron al descubierto sus núcleos metálicos. Algunos de estos fragmentos han llegado a caer sobre la Tierra, como es el caso del que formó el Meteor Crater en Arizona. 866 El Hijo de El Cronopio No. 77 Información adicional en: http://www.news.cornell.edu/releases/May00/Arecibo.Kleopatra.deb.html http://spacescience.com/headlines/y2000/ast08may_1.htm Imagen: http://spacescience.com/headlines/images/dogbone/dogbone_big.gif (El asteroide en forma de hueso.) (Foto: JPL) La Ciencia desde el Macuiltépetl/ Descifrar signos Por Manuel Martínez Morales La canción no es el canto. Al canto lo conocen los mudos Jaime Labastida Se nos va la vida descifrando signos, símbolos; una bien torneadas y ondulantes caderas son el anuncio, la promesa, la señal a mis hormonas, el presagio, de un estado de placer extremo, tal vez inalcanzable. Los signos que ahora garabateo son el indicio, con toda seguridad, de una personalidad mal ajustada al principio de la realidad. Nos movemos en un bosque de cifras, criptogramas, símbolos de un más allá que siempre está más allá. Todo símbolo es el signo de otro símbolo; una cosa representa siempre a otra cosa. ¿El conjunto de sensaciones que yo llamo “el árbol”, son solamente el signo codificado de algo más allá de aquéllas, del “árbol en sí”? El hombre es un animal semiótico, vive por y para descifrar signos, como símbolos, defeca en jeroglíficos químicos su historia diaria. La semiología, o semiótica, fue líricamente definida por Ferdinand de Saussure como “la ciencia que estudia la vida de los signos en el seno de la vida social”. La noción de sistemas de signos comprende, además de la lengua y la escritura, otras formas de comunicación social tales como los ritos simbólicos, las ceremonias de cortesía, las señales militares, el llamado lenguaje corporal, etc. En sentido lato, las artes, la literatura y las ciencias son modos de comunicación basados en el empleo de sistemas de signos. Por otra parte, indica Pierre Guirard en La semiología, Hay muchos otros tipos de comunicación que son también parte de la semiología: la comunicación animal (zoosemiótica), la comunicación de las máquinas (cibernética), la comunicación de las células vivas (biónica) Incluyamos también la comunicación interna del cuerpo, de glándula a glándula, de hígado a riñón , a corazón, a cerebro, a mano. El extremo de la alucinación semiótica es proponer que todo está representado en todo, el macrocosmos en el microcosmos y viceversa. Tu vida, tu destino, están representados en las líneas de la mano, estaban escritos en la posición de las estrellas en el momento de tu nacimiento, se reflejan en las tripas de una gallina negra, en el lenguaje combinatorio del Tarot o en código binario del venerable I Ching. Tu cuerpo está dibujado en tu pupila. Luego existe, en alguna parte, el libro sagrado en el cual todo está escrito, el día y la 867 El Hijo de El Cronopio No. 77 forma de mi muerte, las crudas que sufrirás de aquí al último día que estés sobre la tierra. En cierto árbol del bosque de Nemi está plasmado el porvenir de mi patria. Un sigo es un estímulo –es decir, una sustancia sensible- cuya imagen mental está asociada, en nuestro espíritu, a la imagen de otro estímulo que ese signo tiene por fin evocar con el objeto de establecer una comunicación. (Pierre Guirard). Un estímulo que evoca la imagen de otro estímulo, que evoca…¿Existe un punto de referencia último, un punto inmóvil de la serie infinita de signos que se reflejan unos a otros? Si existe ese punto sin movimiento, sería el aleph, el Nirvana, la cosa en sí, el ojo de Dios, la eternidad encapsulada. El buen salvaje aprende a reconocer signos elementales que le representan comida, miedo, placer; elabora un lenguaje corporal e inventa rituales simbólicos para comunicarse, es decir, para estar en comunión con la naturaleza y con sus semejantes. El buen salvaje ilustrado, el cibernántropo moderno, cree entender los mágicos y potentes sistemas simbólicos de las ciencias y el saber; en sus manipulaciones insensatas, este salvaje pierde toda noción del referente, del significado y del sentido de los símbolos cabalísticos de la ciencia. Sólo acierta a hacer ruido, a sacar una chispa aquí o allá, a construir torpes máquinas con las que pretende engrandecerse y estar en posibilidad de dominar, de explotar a la naturaleza y a sus semejantes. La comunicación –insisto, la comunicación- le está negada. Se olvida que cada signo, cada jeroglífico, cada mancha en la pared, pueden leerse de infinitas maneras; solamente una ilusión enajenada y enajenante puede pretender atribuirles un sentido único e inmutable. En consecuencia corrigiendo un poco, un poquito nada más, a Galileo, debemos aceptar humildemente que es la poesía, y no la matemática, el lenguaje en que se expresa la naturaleza. El Cabuche (crónicas de la Facultad de Ciencias)/ Ese otro rostro Ahora la Zona Universitaria tiene otro rostro. Definitivamente la vuelve habitable y disfrutable hasta cierto nivel. Ese rostro ha ido cambiando a lo largo de su existencia, aunque en los últimos años, el cambio ha sido dramático. En tiempos de los setentas, cuando apenas comenzaba a poblarse y existía aún la famosa prepa 1 en lo que ahora es el departamento, la zona no estaba bardeada y en particular los terrenos en los que ahora se enclava nuestra facultad eran más que inhóspitos, aunque existían alrededor de siete canchas de básquetbol, algunas justo en lo que ahora es la facultad y tres canchas de volibol; pero el panorama era desolador y lúgubre, además de que los alrededores de la ahora avenida Salvador Nava estaban totalmente despoblados, ya en los ochenta comenzaron a construirse algunas escuelas y nuevos edificios, desaparecieron parte de las canchas y se bardeó por completo la zona; aunque aún el panorama seguía siendo desolador pues si bien los edificios podían considerarse habitables (al fin nuevos) los alrededores internos de la zona dejaban mucho que desear; en esa época la facultad se traslada a sus actuales instalaciones. En los noventa, del 96 para acá, habitamos una nueva zona universitaria, servicios de iluminación adecuados, poca tierra, espacios agradables, edificaciones de arquitectura moderna, como la biblioteca de área, edificios remozados y en proceso de remozamiento, (a la facultad le ha tocado), en fin un total contraste con épocas pasadas. Sin embargo, este nuevo rostro, (que esperemos se refleje 868 El Hijo de El Cronopio No. 77 en lo académico y en lo participativo (¿nuestro estatuto orgánico está a la altura de los tiempos que vivimos?)) lo tornamos lúgubre con nuestras acciones. Sólo es cuestión de echarle un ojo a nuestros espacios para observar la gran cantidad de basura que se aloja en jardines, maceteras y cualquier adorno que se asemeje a bote de basura; cierto es que no existen suficientes botes para alojar desechos, pero todo es cuestión de cultura. Nada cuesta cargar el bote de refresco, agua y bolsas de papitas o del lonche hasta encontrar un lugar adecuado para depositarlo. Ese “nuevo” rostro de nuestra zona universitaria requiere de nuestra participación para mantenerlo y dejar en el pasado esos rostros lúgubres y desoladores que lo caracterizaron. Demostremos al resto de las escuelas, facultades e institutos que cohabitan está zona que la comunidad de la facultad de ciencias, sí contribuye al mantenimiento de nuestra segunda casa. Evitemos y conminemos a quienes tiren basura a no hacerlo. Si no creyera en la balanza/En la razón del equilibrio/Si no creyera en el delirio/Si no creyera en la esperanza/Si no creyera en mi camino/Si no creyera en mi sonido/Si no creyera en mi silencio/¿Qué cosa fuera la masa sin cantera?/Un instrumento sin mejores resplandores AVISO Como habíamos anunciado, en una exhortación pasada a no colocar ningún tipo de anuncio en las paredes de los edificios de esta Facultad en virtud de que tal acción dañaba las paredes, que en fechas próximas se implementarían espacios adecuados para tal efecto. Se les comunica que a partir de esta semana existen pizarrones para avisos colocados en diversos lugares de la Facultad. Los pizarrones serán clasificados según el tipo de aviso (actividades académicas, avisos oficiales de la escuela, avisos generales, etc.) Consúltalos y úsalos adecuadamente 869 Boletín El Hijo de El Cronopio Facultad de Ciencias Universidad Autónoma de San Luis Potosí No.78, 29 de mayo de 2000 Boletín de información científica y tecnológica de la Facultad de Ciencias Publicación semanal Edición y textos Fís. José Refugio Martínez Mendoza Parte de las notas de la sección Noticias de la Ciencia y la Tecnología han sido editadas por los españoles Manuel Montes y Jorge Munnshe. La sección es un servicio de recopilación de noticias e informaciones científicas, proporcionadas por los servicios de prensa de universidades, centros de investigación y otras publicaciones especializadas. Cualquier información, artículo o anuncio deberá enviarse al editor e-mail: flash@galia.fc.uaslp.mx Números anteriores del boletín, pueden consultarse por Internet en la página de la UASLP: http://phobos.dtc.uaslp.mx/publi.html LIBROS CIENTIFICOS La Oficina de Historia de la NASA ha actualizado la versión online del libro "The Partners hip: A History of the Apollo -Soyuz Test Project" (NASA SP-4209). El texto ahora incluye también las imágenes originales de la publicación. Disponible en: http://history.nasa.gov/SP-4209/cover.htm -"A Fish Caught in Time" por Samantha Weinberg. En inglés. Este trabajo describe la apasionante aventura del descubrimiento del celacanto, el pez fósil. http://www.amazon.com/exec/obidos/ASIN/00601949 52/thesciencebookbo -"Tyrannosaurus Sue: The Extraordinary Saga of the Largest, Most Fought-Over T -Rex Ever Found" por Steve Fiffer. En inglés. Fiffer describe la odisea de Tyrannosaurus Sue, un ejemplar prehistórico hallado en 1990 que finalmente encontró su lugar de descanso en un museo, después de pasar por una sala de subastas. Disponible en: http://www.a mazon.com/exec/obidos/ASIN/07167401 76/thesciencebookbo -"Walking with Dinosaurs: A Natural History" por Tim Haines. En inglés. El libro completa la famosa serie de la BBC que ha batido récords de audiencia. Los dinosaurios nunca fueron tan reales. http://www.amazon.com/exec/obidos/ASIN/07894518 75/thesciencebookbo -"The Book of the Cosmos: Imagining the Universe from Heraclitus to Hawking" por Dennis Danielson. En inglés. Arte, ciencia, y alma son representados a partes iguales por luminarias como Aristóteles, Galileo, Poe, o Hawking. Disponible en: http://www.amazon.com/exec/obidos/ASIN/07382024 79/thesciencebookbo El Hijo de El Cronopio No. 78 El congreso nacional de la Asociación Nacional de Energía Solar (ANES), una oportunidad para la divulgación de la tecnología Por S. A. Palomares Sánchez y Selina Ponce Castañeda El próximo año se celebrará, en la ciudad de San Luis Potosí, el Congreso Nacional de la Asociación Nacional de Energía Solar (ANES). En este congreso participan investigadores de diferentes universidades del país que tienen dentro de sus proyectos de investigación las aplicaciones de la energía solar. Como sabemos, la mayor parte de estas instituciones se concentran en la ciudad de México. Aquí, en San Luis Potosí, existen varios grupos de personas que se dedican de manera romántica a la investigación o aplicación de la energía solar. Pocos son los que cuentan con recursos para desarrollar este tipo de investigación. Casi todos los grupos, formados solamente por una o dos personas, pertenecen a la UASLP. ¿Cómo podría impulsarse el uso de la energía solar, en San Luis Potosí?, ¿Cómo podría conseguirse el apoyo gubernamental suficiente para aplicar esta tecnología?. La mayor parte de las instituciones en las que se lleva a cabo investigación sobre fuentes alternativas de energía están localizadas en la ciudad de México; ahí sí, con apoyos para este tipo de investigación. Otra pregunta que uno se haría es, entonces, ¿qué tipo de investigación se lleva a cabo en esas instituciones, de las cuales nunca nos enteramos?. La pregunta no está limitada al área de las fuentes de energía alternativas. Sabemos que existen institutos donde los conocimientos generados son sólo conocidos por las personas relacionadas con esos temas y ahí permanecen durante muchos años. Son conocimientos generados por y para especialistas; pero, ¿realmente son beneficiosos para alguien más?. O no existe interés en encontrarles una aplicación práctica; o se carece de la visión para considerar que ese conocimiento puede ser aplicado para beneficio de algunos sectores de nuestra sociedad. En nuestro país casi el cien por ciento de la investigación es financiada por el estado, lo que significa, en primer lugar, que es un trabajo por el que pagamos todos los mexicanos. Podríamos también preguntarnos cuál es el porcentaje aproximado de conocimientos que pasan directamente a ser aplicados para beneficio de la sociedad. Claro que el dinero invertido en un proyecto no es directamente proporcional al beneficio social o la cantidad de conocimiento obtenido. Retomemos el tema. Las fuentes alternativas de energía no son nuevas, al menos en sus fundamentos; y son llamadas así pues presentan una manera alternativa para la producción de energía (eléctrica, principalmente) generada por combustibles fósiles. Los conceptos básicos de esta técnica se desarrollaron ya en el siglo XIX, para la producción fotovoltaica de corriente eléctrica y, desde hace muchos siglos, para la eólica. Únicamente han cambiado los métodos y materiales empleados para su producción y almacenamiento. Por ejemplo, cuando se descubrió el efecto fotovoltaico en el selenio, no era suficiente la cantidad de energía eléctrica producida por este material para ser aprovechable. No fue sino hasta alrededor de 1950, cuando hubo la necesidad de desarrollar celdas fotovoltaicas capaces de suministrar corriente eléctrica a los satélites artificiales, que se buscaron materiales más eficientes para la generación fotovoltaica de corriente eléctrica. Después de ese importante paso únicamente se mejoraron las propiedades del material usado como material fotovoltaico: el silicio. 871 El Hijo de El Cronopio No. 78 Para el aprovechamiento de la energía del viento se construyeron, ya en los primeras etapas de nuestra civilización, molinos que eran movidos por la fuerza del viento. Posteriormente se usaría para impulsar barcos en alta mar. En el siglo XIX se construyeron los primeros generadores eléctricos. Estos podían ser impulsados por la energía cinética proporcionada por la caída del agua, ya sea de un río, arroyo o presa, o por un rotor movido por el viento. Posteriormente se desarrollaron sistemas de almacenamiento de energía: las baterías o acumuladores. Con estos elementos se puede ya construir un sistema que nos proporcione energía eléctrica. Ahora es posible encontrar generadores muy eficiente y acumuladores que pueden cargarse y descargarse completamente sin ningún problema. Hace poco tiempo se inició la investigación para la generación de calor y corriente eléctrica basada en un fenómeno descubierto hace más de un siglo: la electrólisis del agua. Esta consiste en la descomposición del agua, por medio de una corriente eléctrica, en hidrógeno y oxígeno. Este efecto es reversible; o sea, se puede mezclar nuevamente hidrógeno y oxígeno para la producción de calor o electricidad. El hidrógeno, que es un gas altamente peligroso, ya puede almacenarse de manera segura para su utilización directa o para transportarse. De la misma manera que en los casos anteriores, el elemento que realiza la descomposición del agua, la celda de combustible, se ha ido perfeccionando sólo para ser más eficiente. En nuestro país, con una insolación mucho mayor que en otras regiones de la tierra, se ha desaprovechado el sistema más simple de almacenar la energía que nos llega del sol. Estamos hablando de los calentadores solares. Considerando que los mexicanos somos uno de los pueblos que acostumbra bañarse más frecuentemente, requieren grandes cantidades de agua caliente para este fin. Para calentar el agua con energía solar puede usarse, desde el sistema más sencillo, que consiste en una manguera o tubo pintado de negro, colocado en una azotea, a través de los cuales circula el agua hacia la regadera o hacia un depósito aislado, hasta el sistema muy sofisticado que tiene sistema de aislamiento de policarbonato y bombas para desplazar el agua. Básicamente, tenemos todos los elementos a la mano para construir nuestro propio sistema que nos permita aprovechar la energía que nos llega del sol. Existe, pues, una tecnología madura para ser aplicada y explotada; sin embargo, esto es algo que un sector muy amplio de la población desconoce. Cuando se celebre el Congreso de la ANES, se puede aprovechar el interés que se pueda generar en otros sectores de la sociedad, que no sea el académico, para divulgar entre esos sectores, en qué situación se encuentra México, respecto a otros países, en cuestiones de fuentes alternativas de energía. Hagamos, pues, algunas sugerencias para el desarrollo de esa área en nuestro país. Primero, los congresos deben estar estructurados de tal manera que incluyan información que pueda ser transmitida al hombre de la calle con el mismo espíritu con el que se crearon los museos interactivos de ciencias; es decir, motivar el interés de la gente por la ciencia y tecnología. Los especialistas cuentan con muchos canales y recursos para comunicar sus conocimientos y para formar grupos de investigación; el pueblo, en general, no. Cuando me refiero al pueblo, quiero decir las personas que no están relacionados directamente con la investigación científica: políticos, empresarios, obreros, estudiantes, etc. 872 El Hijo de El Cronopio No. 78 Debería, además, existir un compromiso de promoverse la asistencia a estas actividades. Es necesario, entonces, también crear una estrategia para inducir a la gente de la calle a interesarse en estos temas. El conocimiento no debe ser exclusivo de los académicos, sino únicamente la forma de generarlo. No hay que esperar a que se organice una semana especial para divulgar la ciencia y la tecnología; en estos congresos se puede tener la oportunidad de entablar relación con especialistas en el área. Además, es necesario motivar a los investigadores de todas las áreas para que se interesen en la difusión del conocimiento o, cuando menos, en la difusión e interpretación del conocimiento generado en otros lugares del mundo. Para esto no es necesario, obviamente, organizar un congreso. En este tipo de congresos, en los que los resultados de las investigaciones pueden impactar directamente, y de forma inmediata, a la sociedad son los que con mayor razón deben salir de los recintos académicos. Noticias de la Ciencia y la Tecnología Otra explicación para el cáncer La curación del cáncer no sólo se plantea en términos de tratamiento, sino también de comprensión médica del problema. Un científico de la University of California en Berkeley cree que uno de los puntales de la investigación del cáncer, la teoría de que éste resulta de una serie casual de mutaciones genéticas que obligan a la célula a desarrollarse y dividirse de forma descontrolada, podría ser erróneo. Peter Duesberg, un biólogo molecular, ya es conocido en los ámbitos científicos más polémicos, ya que mantiene que el virus de inmunodeficiencia no es la causa del SIDA. En nuestro caso, Duesberg mantiene que el cáncer se produce debido a una alteración en el número de cromosomas de la célula afectada, particularmente la duplicación de uno o más cromosomas. Este tipo de anormalidad puede encontrarse en casi todos los casos de cáncer estudiados hasta la fecha, pero siempre se ha considerado que se trata de un efecto colateral del propio cáncer, y no su causa. Duesberg tiene diversos problemas con la teoría de la mutación genética, ya que ésta no puede explicar algunos aspectos concretos del cáncer. Dicha teoría viene dominando el panorama científico y médico durante los últimos 15 años y si resultara errónea supondría un duro golpe para las actuales estructuras de investigación, dictadas por ella, y para la forma en que se detecta y previene el cáncer. Por ejemplo, ahora se intentan detectar mutaciones en las células procedentes de las biopsias antes de declarar o no la existencia de cáncer o su próxima aparición. Según Duesberg, el principal problema con la teoría de la mutación es que nadie ha conseguido convertir una célula humana normal en una cancerígena a base de insertarle genes mutados. Ello probaría de forma definitiva que las mutaciones son la causa del cáncer. El año pasado, Robert Weinberg y sus colegas del Whitehead Institute declararon haber conseguido precisamente esto: tomaron células humanas normales e insertaron en 873 El Hijo de El Cronopio No. 78 ellas genes que causan cáncer (oncogenes), así como otro gen que hace que las células crezcan sin control, y con todo ello generaron células cancerígenas. Sin embargo, Duesberg solicitó muestras y descubrió que también poseían alteraciones numéricas de los cromosomas, con lo que la causa real podría haber sido cualquiera de las dos opciones. Otro argumento en contra de la hipótesis de la mutación genética es que cerca de la mitad de los productos químicos que causan cáncer (carcinógenos) no parece que causen mutaciones. Por ejemplo, el arsénico, algunas hormonas o el níquel inducen cáncer en humanos, pero ninguno produce mutaciones. La hipótesis de la mutación predice que todos los carcinógenos son mutagénicos, pero si la mitad de ellos no lo son, entonces, ¿cómo pueden producir cáncer? Duesberg también dice que si las mutaciones genéticas causan cáncer, entonces éste debería aparecer inmediatamente después de un de estos episodios, cuando en realidad puede surgir décadas después de una exposición a un carcinógeno. Los científicos creen que esto es porque el cáncer es un fenómeno epigenético, que se desarrolla en varias etapas, pero esto es precisamente lo que describe a la teoría de Duesberg. Duesberg opina asimismo que la alteración celular causada por tener demasiadas copias de un cromosoma completo es mucho mayor que la que implica poseer un puñado de genes mutados, siendo más probable que afecte a diversos procesos celulares que ya se sabe que se ven trastornados en las células cancerígenas. Por supuesto, también es posible que ambas teorías sean correctas, y que el cáncer pueda aparecer siguiendo múltiples caminos, incluidos algunos que aún no conocemos. Información adicional en: http://www.urel.berkeley.edu/urel_1/CampusNews/PressReleases/releases/04-052000a.html Imagen: http://rpisun1.mda.uth.tmc.edu/se/sts/post_chemo/patient02/a.jpg (Imagen de un tumor.) (Foto: The Levit Institute) Las bacterias también hacen trampa El viejo adagio que predice que los tramposos no prosperarán no es necesariamente cierto, al menos en el caso de las bacterias. Los científicos sienten una particular fascinación por el estudio de las bacterias ya que pueden contemplar su evolución y comportamiento social a través de miles de generaciones, en poco tiempo y sobre un simple disco de cultivo en el laboratorio. Un grupo de bacterias llamado myxobacterias (Myxococcus xanthus) exhibe un comportamiento social particularmente interesante, ya que incluye tanto la trampa como el altruismo. Los investigadores de la Michigan State University han comprobado que, en efecto, la traición social es una estrategia evolutiva que puede ocurrir al nivel de las propias bacterias. En biología evolutiva, "hacer trampa social" implica un comportamiento que no contribuye a un proceso de cooperación para el bien común, proporcionando en cambio una ventaja reproductiva injusta para el tramposo. La bacteria Myxococcus xanthus vive en el suelo y exhibe diversos comportamientos sociales. Se mueve en grupos a través del suelo, persiguiendo como una manada de lobos a su presa, la cual digerirán y consumirán de forma cooperativa. En épocas de escasez, las bacterias se reunirán formando una estructura multicelular. Dentro del cuerpo resultante, una minoría de células se transforman en esporas esféricas inmóviles, las 874 El Hijo de El Cronopio No. 78 cuales podrán sobrevivir hasta que se encuentre una nueva fuente de alimento y puedan volver a crecer. El anterior proceso implica varias etapas de comunicaciones de célula a célula mediante distintas señales químicas. Durante el procedimiento, muchas células parecen sacrificar la oportunidad de reproducirse en beneficio de las otras. Así, mueren expeliendo sus contenidos y dando la oportunidad a las restantes a alimentarse y convertirse en esporas. Sin embargo, no todas las colonias de Myxococcus son tan altruistas. Investigaciones realizadas en cultivos desarrollados durante 1.000 generaciones en el laboratorio y en otros que han sufrido mutaciones en sus genes de desarrollo, muestran un comportamiento diferente, a pesar de que todas procedían de un tronco "salvaje" común. Alcanzada la fase de la formación de esporas por falta de alimento, ambos grupos manifestaron un comportamiento defectuoso. Después, mezclados dichos cultivos con el original, los mutantes dejaron de pasarlo mal para formar esporas de una manera más eficiente de lo que sería normal, beneficiándose de la tradicional generosidad de los ejemplares "salvajes". Tanto es así que si los tramposos se vuelven muy numerosos, toda la colonia puede llegar a sufrir, de la misma manera que un excesivo fraude puede colapsar a las compañías aseguradoras. Los tramposos pueden ser pues abundantes, pero no tanto como para poner en peligro su propia supervivencia al provocar la eliminación del linaje altruista, del cual dependen. El estudio de las myxobacterias es importante ya que producen una gran variedad de antibióticos, algunos de los cuales tienen aplicaciones médicas, además de jugar un papel esencial en la ecología del suelo en todo el mundo. Miles de agujeros negros Los astrónomos creen que más de 25.000 agujeros negros podrían estar ocultándose en el corazón de nuestra propia galaxia. Los astrónomos sospechan que el núcleo de las galaxias, normalmente más activo que el resto, contiene una gran acumulación de materia que forma un gigantesco y masivo agujero negro, un cuerpo que se alimenta de todo lo que cae sobre él atraído por su inmensa atracción gravitatoria. Sin embargo, expertos estadounidenses piensan que el corazón de nuestra galaxia, la Vía Láctea, no sólo oculta un gran agujero negro central, sino muchos miles más, de menores dimensiones, girando a su alrededor como si fueran un enjambre de moscas. Entre los especialistas de la Ohio State University que han participado en el estudio destaca Jordi Miralda Escudé, un español que trabaja actualmente en dicha universidad. Hasta ahora sólo han sido identificados media docena de candidatos a agujeros negros en toda la Vía Láctea. Sin embargo, los astrónomos creen cada vez más probable que la explosión de estrellas masivas produzca como resultado la aparición de agujeros negros (y no sólo estrellas de neutrones), de modo que su aparición, a lo largo de la historia, sería relativamente frecuente. Miralda y su colega Andrew Gould piensan que miles de ellos podrían estar girando alrededor del centro de la galaxia porque este tipo de objetos tiende a transferir parte de su energía orbital a otros más pequeños cada vez que se produce un encuentro estelar. La pérdida paulatina de energía, más frecuente cuanto más cerca del centro de la Vía Láctea, donde el espacio entre las estrellas es más reducido, implica que los agujeros negros vayan aproximándose al núcleo, donde formarán el mencionado enjambre. 875 El Hijo de El Cronopio No. 78 La migración es muy lenta. Según Miralda y Gould, durante los 10.000 millones de años de la vida de la galaxia, sólo aquellos agujeros negros nacidos a menos de 15 años luz del centro habrían tenido suficiente tiempo para acercarse a él. Asumiendo que un quinto de las estrellas mayores de ocho veces la masa solar pueden formar agujeros negros al final de sus vidas (explosión supernova), el número de las que produjeron este tipo de objeto a las distancias indicadas se acerca a las 25.000. El enjambre de agujeros negros se verá expoliado cuando los más internos caigan sobre el agujero negro central, pero otros podrían estar entrando constantemente desde el exterior gracias a la mencionada migración. Si bien la teoría del cúmulo de agujeros negros es plausible, será bastante difícil lograr su detección, al menos por el momento. Para ello se necesitará antes un instrumento que permita detectar las ondas gravitatorias emitidas por cada agujero negro al caer sobre el núcleo galáctico, como el proyecto de la Agencia Espacial Europea llamado LISA, que no será lanzado antes de 10 años. Pero dado que la caída de los agujeros negros viene propiciada por la transferencia de energía orbital a otras estrellas más pequeñas, es posible empezar a buscar aquellas muy viejas y con escasa masa que habrían sido expulsadas por esta razón. (New Scientist) Tomándole el pulso al océano Ártico Los científicos preparan la instalación de una nueva estación automática en el polo norte. El océano Ártico, según los científicos, ayuda a regular el clima global de la Tierra. Por esta razón, un equipo de expertos internacionales se dispone a instalar en el polo norte una estación automática que sirva de base a un programa de estudio sistemático que durará cinco años, durante los cuales se captarán multitud de parámetros de indudable interés para la Ciencia. El proyecto se llama North Pole Automated Station y estará liderado por James Morison de la University of Washington. Su equipo colocará un sistema de balizas flotantes en el punto convenido, e incluso se espera que más adelante se puedan añadir diversos dispositivos anclados al fondo del océano. Tales dispositivos medirán desde la salinidad del agua hasta el espesor y la temperatura de la capa de hielo. Los científicos retornarán varias veces, durante sucesivas temporadas, a la zona. Desplegarán entonces otras balizas, cada una dedicada a diferentes aspectos científicos. En el plazo de un año, el número de proyectos de investigación se irá incrementando, expandiéndose hacia una gran variedad de disciplinas. La estación automática, sobre todo si intervienen observaciones realizadas a largo plazo, es un método mucho más barato que la instalación de una base ocupada por hombres. Se espera que su presencia permita discernir si el océano Ártico ha resultado afectado durante los últimos años por una progresiva reducción del grosor de la capa de hielo, así como por un cambio en la circulación de las corrientes marinas. Tales modificaciones estarían relacionadas con patrones de cambio ya detectados en la circulación atmosférica en el hemisferio norte (Oscilación Ártica). El movimiento de las aguas, en especial aquellas que fluyen del Ártico hacia Groenlandia, afecta a la circulación en el Atlántico, pudiendo jugar un importante papel en la regulación del clima mundial. Otros parámetros que serán medidos por la estación automática incluyen la presión atmosférica, el viento, la radiación solar, o la temperatura ambiental. 876 El Hijo de El Cronopio No. 78 ADN artificial Los científicos quieren expandir el código genético más allá de lo que la naturaleza ha sido capaz de hacer. La mayor parte de las formas de vida conocidas, presentes o ya extinguidas, deben agradecer sus características definitorias a la enorme capacidad de combinación del código genético. Excepto algunos tipos de virus, todos los organismos llevan su información genética grabada en secuencias de ADN construidas con las mismas cuatro bases, la adenina, que se empareja con la timina, y la citosina, que hace lo propio con la guanina. Todas las proteínas indispensables para la vida de cada especie pueden ser producidas gracias a esta información codificada. Sin embargo, los científicos no tienen bastante y esperan hacerlo aún mejor que la naturaleza. Especialistas del Scripps Research Institute han logrado ampliar el alfabeto genético, añadiendo nuevos participantes al reparto original de cuatro bases del ADN. Al incrementar el número de bases, crecen las combinaciones posibles y con ello la creación de aminoácidos artificiales, que dan paso a proteínas totalmente nuevas. Los investigadores han experimentado con bases no naturales desde los años 80, pero ninguno ha podido incorporarlas al ADN sin convertirlo en inestable. Las barreras, sin embargo, ya han sido derribadas. La implantación de una base nueva artificial en una hebra individual de ADN provocaba al principio una paralización de la replicación, pero una estudio profundo de los enzimas polimerasas (que se encargan de añadir las bases apropiadas para formar pares durante la replicación) y las bases artificiales que combinan bien con ellos ha permitido superar este obstáculo. Aunque se avanza lentamente, ya se ha conseguido replicar hebras de ADN más allá de la formación de un par no natural. Los científicos esperan insertar el ADN artificial en una bacteria para que ésta acabe produciendo proteínas no naturales de forma continuada. Tales proteínas podrían tener aplicaciones en química y medicina. (New Scientist) Nanoexploradores del cuerpo La identificación y tratamiento de las enfermedades será muy distinta en el futuro. Para tratar los síntomas de un resfriado común, la mayoría de la gente se toma una cápsula que contiene cientos de piezas granulares de medicamentos que constituyen el remedio para el estornudo, la tos y la mucosidad de nariz. Las cápsulas del futuro serán de un tamaño similar, pero sus contenidos serán mucho más sofisticados. Por ejemplo, sensores microscópicos capaces de detectar, diagnosticar y tratar las enfermedades directamente en el interior del cuerpo humano. Parece ciencia-ficción, pero ya se trabaja en ello. La NASA, en colaboración con el National Cancer Institute, desea hacer realidad este sueño. Cuando envíe a sus astronautas a lugares tan lejanos como Marte, la agencia quiere disponer de métodos no convencionales que permitan garantizar la buena salud de la tripulación. Las enormes distancias implicadas hacen inviable el retorno inmediato a la Tierra de un tripulante enfermo. El principal problema, naturalmente, es la tecnología, y éste es también el principal frente de ataque para los científicos. El National Cancer Institute está tan interesado en estas técnicas como la NASA, ya que desea definir el cáncer basándose por primera vez 877 El Hijo de El Cronopio No. 78 en las características moleculares de los tumores, para lo cual necesita de un sistema avanzado de análisis. Dado que la NASA desea construir "exploradores microscópicos" que puedan viajar por el interior del cuerpo humano buscando enfermedades, la cooperación entre ambas instituciones parece lógica. El primer paso es la firma de un acuerdo de colaboración, ya en marcha, y la dotación de unos presupuestos económicos suficientes. Información adicional en: http://www.nih.gov/; http://www.sverdrup.com/nasa/sensors.html La clave es la diferenciación La Ciencia ha realizado otro paso adelante para "fabricar" algún día órganos humanos para transplantes. La clave de la aparición de seres tan sofisticados como los seres humanos es la paulatina diferenciación y especialización de las células que los componen a medida que los embriones se desarrollan. Los científicos están aprendiendo a clonar y a hacer crecer tejidos en el laboratorio, pero la principal dificultad en la que se encuentran es que las células adopten su papel definitivo, ya sea como células nerviosas, óseas, musculares, etc. Investigadores de la Ohio State University han desarrollado una técnica de compresión termal que les permite alterar el medio de crecimiento en el interior de un biorreactor y cambiar así la forma en que las células crecen y se reproducen. El biorreactor, diseñado por Shang-Tian Yang, es una alternativa en tres dimensiones a los discos de petri planos que se usan normalmente para cultivar células. Se había utilizado hasta ahora para hacer crecer células tumorales humanas, para producir grandes cantidades de una proteína que es útil para la investigación contra el cáncer. También se empleó para hacer crecer células placentarias saludables, con el objetivo de ensayar sobre ellas los efectos de los medicamentos que una mujer tomará durante el embarazo. Para mantener sujetas las células en el birreactor, los científicos utilizan un bosque de fibras de poliéster microscópicas. Esto les permite crecer y reproducirse como en el cuerpo, adhiriéndose a las fibras como si éstas fueran hebras de proteínas humanas. Nutrientes líquidos se deslizan a través del biorreactor, simulando la circulación de la sangre. Durante los ensayos, los investigadores descubrieron que aumentando o reduciendo los espacios entre las fibras se modificaba la forma en que las células se desarrollaban. Estos cambios se llevan a cabo mediante el calentamiento y la compresión simultánea del poliéster. Este se comporta como un sólido a temperatura ambiente, y como un líquido a alta temperatura. A medio camino entre ambos extremos, exhibe propiedades tanto de sólido como de líquido a nivel molecular, y entonces puede retener la forma que se le quiera dar, así como sus características moleculares especiales. Controlando la presión, la temperatura y el tiempo de compresión, se pueden ajustar los espacios entre las fibras con gran precisión. En esta condiciones, las células placentarias son ideales para hacer pruebas, ya que su tamaño (unos 10 micrómetros) es muy similar a aquellas que formarán los órganos del cuerpo. Cuando dichas células crecieron sobre fibras situadas a unos 30 micrómetros de distancia entre unas y otras, se reprodujeron muy rápidamente, extendiéndose por el biorreactor. Pero cuando crecieron sobre fibras situadas a 40 micrómetros, formaron cúmulos en los 878 El Hijo de El Cronopio No. 78 espacios abiertos, iniciando funciones químicas como las que emprenderían en un cuerpo antes de diferenciarse. Al volver más lenta su reproducción e incrementar su ritmo metabólico, las células consumen más glucosa y producen más ácido láctico. También empiezan a generar estrógeno, una hormona clave. Todo ello son señales inequívocas de los cambios que las afectan. Cuando los espacios entre las fibras son demasiado pequeños, las células pueden fácilmente crear puentes sobre ellos y entonces se reproducen rápidamente. Esto es lo que ocurre en la fase inicial de formación de células. Cuando los espacios son demasiado anchos, empiezan a crecer unas sobre las otras, como hacen en el cuerpo justo antes de empezar a diferenciarse. Los especialistas piensan que la técnica de compresión termal permitirá crear espacios con el tamaño apropiado para que las células se reproduzcan y se diferencien. Para la generación de tejidos es necesario primero un crecimiento rápido, pasando después a la diferenciación propiamente dicha. Pero todavía se desconoce por qué las células que forman cúmulos empiezan a diferenciarse. Quizá sea debido a algún tipo de comunicación química entre ellas. Esta y otras técnicas intentarán en un futuro cercano producir células óseas, de hígado, riñón, córnea, etc., para transplantes. Puede que sea incluso posible producir órganos completos. Información adicional: http://www.acs.ohio-state.edu/units/research/archive/diffcell.htm Transmisiones a alta velocidad Un nuevo avance en el área electrónica permitirá aumentar la velocidad en las comunicaciones de una forma espectacular. Un equipo de investigadores estadounidenses ha creado un dispositivo que opera a menos de 1 voltio y que es capaz de convertir señales eléctricas en transmisiones ópticas a un ritmo de unos 100 gigabytes de información por segundo. A esta velocidad, podría eliminar virtualmente el tiempo de descarga en Internet e incrementar de forma significativa la eficiencia del procesamiento de datos. El aparato, un tipo particular de modulador electro-óptico, puede ser aplicado también en otros campos, como la navegación aérea, o los radares anticolisión de los automóviles de alta gama. Los moduladores son los traductores del mundo electro-óptico de la comunicación, ya que codifican las señales eléctricas en forma de rayos ópticos de información. Mejoras en los materiales electro-ópticos han incrementando la velocidad a la que estos moduladores hacen la traducción, pero a costa de utilizar altos voltajes que limitan la potencia de la señal y aumentan la distorsión. El químico Larry Dalton, de la University of Washington y de la University of Southern California, y sus colegas han construido el modulador a base de una serie de moléculas orgánicas llamadas "cromoforos", aplicadas a una matriz de polímeros. Dichas moléculas poseen un potencial electro-óptico impresionante. Con este modulador será posible tratar señales telefónicas, de televisión, datos de ordenador, o cualquier otro tipo de señal imaginable, enviarla a través de una fibra óptica alrededor del mundo sin casi pérdida, y lograrlo con un ancho de banda virtualmente infinito. Información adicional en: http://www.aaas.org/ 879 El Hijo de El Cronopio No. 78 Dieta microbiana El estudio de los hábitos culinarios de los microbios ayuda al descubrimiento de evidencias sobre la existencia de vida primitiva e incluso extraterrestre. Si bien es difícil determinar si existe vida en ciertos lugares o si estuvo presente en momentos particulares de la historia de la Tierra, los científicos creen que pueden recorrer una ruta alternativa que permite resolver este problema. Sensores cada vez más sofisticados pueden detectar rastros químicos dejados por el metabolismo de los microbios, y así aportar pistas sobre su presencia. Se trata de analizar rocas lo más antiguas posibles, así como pertenecientes a zonas realmente remotas, incluyendo aquellas que procedan de otros astros, como Marte (meteoritos). Los microbios dejan un claro rastro de su afición por "consumir" metales como el molibdeno, el cobre, el hierro o el zinc. En su búsqueda de nutrientes, seleccionan ciertos isótopos sobre otros, dejando la evidencia de su actividad biológica grabada en la roca durante millones de años. La medición de las proporciones de los diferentes isótopos de determinados metales es una forma de saber si una bacteria u otros organismos vivieron allí. Sin embargo, hay que estar muy seguro de que otros procesos químicos no sean capaces de imitar esta actividad biológica. De hecho, en el caso del hierro, existen reacciones sencillas que producen cantidades de subproductos similares a las que antaño creíamos que debíamos atribuir a representantes vivos muy primitivos. Este tipo de investigaciones es fundamental porque antes o después deberemos decidir si hubo vida en Marte a partir de los rastros químicos que encontremos en su superficie o en el subsuelo. Sabemos que los microorganismos pueden vivir en una gran variedad de condiciones y lugares, a menudo en situaciones extremas o letales para nosotros, pero si existen procesos no-biológicos que pueden imitar su comportamiento químico, entonces nos será muy difícil asegurar su existencia. Información adicional en: http://www.rochester.edu/ La cola mas larga Aunque de forma casual, la sonda Ulysses ha descubierto las verdaderas dimensiones de la cola de un famoso cometa. La sonda europea Ulysses, en órbita solar desde hace varios años después de haber sobrevolado los polos de nuestra estrella, disfrutó de un inesperado e interesante encuentro. El 1 de mayo de 1996, el magnetómetro de la nave se encontraba midiendo, como es habitual, el viento solar que se extiende desde nuestra estrella hacia el exterior del sistema planetario. De pronto, el instrumento detectó una poco habitual distorsión del campo magnético. Extrañados por lo sucedido, los científicos examinaron el resultado pero finalmente archivaron la información. Ahora, varios años después, otro científico cree haber encontrado la solución al enigma. La Ulysses, de forma inesperada, atravesó la cola del cometa Hyakutake, y los gases enrarecidos de ésta, mezclándose con el viento solar, distorsionaron el campo magnético. La conclusión no deja de ser sorprendente, ya que el Hyakutake estaba en esos momentos muy lejos de la sonda, lo que a su vez implica que su cola tenía una longitud formidable: al menos 480 millones de kilómetros, la más larga conocida hasta la fecha. 880 El Hijo de El Cronopio No. 78 Los astrónomos han medido las colas de los cometas en función de las limitaciones impuestas por tener a sus instrumentos situados en tierra. La cola del Hyakutake, a esa distancia, es completamente invisible desde nuestro planeta, demasiado débil para ser detectada. Ha sido pues la casualidad, el hecho de que la Ulysses siguiera una trayectoria de intersección con la citada cola cometaria, lo que ha revelado sus verdaderas dimensiones. Por fortuna, la nave se encontraba en el momento justo en el instante apropiado, circunstancias que a veces también juegan un importante papel en el avance de la Ciencia. Además de las anomalías magnéticas, la Ulysses detectó una composición diferente del viento solar al atravesar la cola. Esta era rica en oxígeno y carbono, con algo de nitrógeno, neón y agua, al menos si lo comparamos con el mencionado viento solar, lo que contribuyó a delatar su existencia. El estado de preservación de la cola a la distancia en la que estaba situada la Ulysses sugiere que quizá puedan prolongar su presencia hasta aún más lejos, probablemente hasta el límite de la heliosfera, allí donde el viento solar se encuentra con el medio interestelar. Es probable pues que otros vehículos hayan atravesado la cola de cometas en el pasado, circunstancia que habría pasado desapercibida por completo hasta ahora. Los científicos están dispuestos a revisar los datos enviados por sondas como las Voyager, para ver si pueden confirmar esta teoría. Información adicional en: http://ulysses.jpl.nasa.gov http://www.sp.ph.ic.ac.uk/Ulysses/comet/ http://science.nasa.gov/headlines/y2000/ast06apr_2.htm Imagen: http://www-personal.engin.umich.edu/~nathanas/Distrib/hyak_smallest.gif (Animación sobre el encuentro entre la sonda y la cola del cometa.) (Foto: ESA) La Ciencia desde el Macuiltépetl/ Obsesiones, orquestas e investigación científica Por Manuel Martínez Morales La biología molecular, es sin duda alguna, una de las áreas de investigación más apasionantes de nuestro tiempo. Los investigadores en la materia están tratando de entender los mecanismos básicos de la vida: la reproducción, la evolución, la autorregulación, el origen de múltiples enfermedades, etcétera. La clave para obtener este entendimiento, se cree, reside en la estructura de dos tipos de biomoléculas: los ácidos nucleicos, asiento del código genético y las proteínas, cuya función es regular innumerables funciones internas en los seres vivos. El problema es de tal magnitud que, como tantos otros de la ciencia contemporánea, para realizar investigación en este campo, se hace necesaria la integración de equipos de trabajo transdisciplinarios. En Obsesiones naturales (Natural Obsessions, The Search for the Oncogene, Houghton Mifflin Co., 1988), la periodista Natalie Angier relata, en forma a la vez amena e instructiva, la gran aventura que ha sido la búsqueda de los “oncogenes”, aquellos genes cuya mutación desencadena la formación de tumores, la aparición de temidos cánceres. La acción se desarrolla principalmente en el laboratorio dirigido por el afamado Robert 881 El Hijo de El Cronopio No. 78 Weinberg en el Instituto Whitehaead de Investigaciones Biomédicas, sito en Cambridge, Massachusetts, donde la periodista pasó muchos meses siguiendo las investigaciones ahí realizadas. Angier no sólo nos instruye sobre los aspectos técnicos científicos del asunto y las dificultades metodológicas del trabajo, sino además expone el lado humano de la investigación: el entusiasmo y las amarguras de los investigadores, sus conflictos personales, las envidias, la competencia furibunda entre diversos grupos por obtener resultados primero; en fin, el drama real, las obsesiones que impulsan toda investigación verdaderamente apasionada, comprometida. La investigación científica moderna ya no se lleva a cabo por individuos retraídos y solitarios al estilo de Kepler o Newton; la investigación científica se desarrolla ahora por equipos multidisciplinarios, cuya organización y actuación nos recuerdan a las de una orquesta sinfónica. Una orquesta sinfónica incorpora instrumentos musicales de lo más variado: cuerdas, alientos, percusiones, etc., cuya intervención, en cada obra, debe ser precisa y programada. Cada ejecutante tiene una responsabilidad definida dentro del conjunto, y su participación está claramente señalada en la partitura. No puede integrarse una orquesta solamente con directores, o sólo violinistas o percusionistas. El resultado de esas ejecuciones musicales, armónicamente articuladas, son los maravillosos conciertos sinfónicos. De la misma manera, un equipo de investigación reúne, usualmente especialistas en diversas materias, trabajando en torno a un problema común: por ejemplo, los grupos que trabajan en biología molecular, generalmente incluyen biólogos, bioquímicos, genetistas, matemáticos, físicos, computólogos y una variedad de técnicos y auxiliares. Cada miembro de este equipo tiene asignadas tareas claramente definidas, y todos los integrantes del grupo conocen el desarrollo general del proyecto, conocimiento que obtienen en seminarios y juntas de trabajo. La responsabilidad del director o coordinador del equipo es llevar la batuta, como lo hace un director de orquesta, es decir, concertar las diversas actividades alrededor de un objetivo común al igual que en las sinfónicas, de cuando en cuando hacen aparición los solistas dentro de un grupo de investigadores. Una diferencia sustancial entre un concierto y las actividades de un equipo de investigación es que, en este último caso, la partitura se va estructurando en la medida que se obtienen resultados, y en ocasiones hay que recomponerla completamente (las famosas revoluciones científicas). La creación musical y la creación científica deben buscarse porque sí, por el gusto y la emoción de hacerlo. Orientarlas hacia objetivos puramente utilitarios es drenarlas de su esencia y de su sentido y valor para el hombre. En el prefacio a Obsesiones naturales, Lewis Thomas nos advierte sobre este excesivo utilitarismo: Hacer investigación en problemas biológicos “duros” tiene que ser una gran diversión o no podrá realizarse en absoluto […] la competencia actual (entre científicos, por recursos y premios) ha alcanzado tal punto de ferocidad intelectual que me parece un síntoma grave […] que puede conducir a los investigadores jóvenes a considerar el “éxito” como una cuestión de vida o muerte. La investigación científica, sin duda, rinde frutos que, eventualmente, pueden aplicarse con fines tecnológicos; pero al momento de obtener resultados, es casi imposible decir cómo y cuándo éstos habrán de aplicarse. En el caso de la búsqueda de los “oncogenes”, se han obtenido resultados impresionantes; ha sido posible identificar el lugar preciso en 882 El Hijo de El Cronopio No. 78 que ocurren las mutaciones que desencadenan los procesos cancerígenos y, aún así, está todavía muy lejano el día en que estos resultados se traduzcan en una cura eficaz para el cáncer. No obstante, se sigue apoyando decididamente este tipo de investigación básica. Insistir en la exigencia de que la investigación básica provea resultados aplicables inmediatamente y con redituabilidad económica, es producto de la miopía de quienes nunca han disfrutado de las obsesiones naturales. El Cabuche (crónicas de la Facultad de Ciencias)/ Ma`nqui milleven los pingos Viernes por la tarde, mientras aún se percibía el olor a tierra mojada, mientras corrían por nuestras venas deliciosos tequilas degustados en la comida y antes de perder en futbolito contra economía, se llevó a cabo en el auditorio de la facultad, en el Mejía Lira, el anunciado concurso de poesía al cual se dieron cita en buen número, estudiantes de nuestra facultad, a escuchar y apoyar a otros once estudiantes que desfilaron por el estrado haciendo muecas y señas acordes a las poesías seleccionadas por ellos para su interpretación. Ciertamente los jueces se las vieron negras (para calificar, lo demás no sé) aspectos como la expresión oral, contenido, expresión corporal y mímica, a fin de determinar a los tres mejores interpretes en este género. Los ganadores a la postre fueron María del Rosario Sandoval Cedillo, Jahaira Morales Saldaña y Rosa Angélica Galarza Nieto; les digo los nombres porque se las estoy viendo al chino (la lista de participantes y ganadores, no piensen mal) aprovechando que fue habilitado a la última hora como juez, uniéndose al doc Cisneros y al maestro García Assaf, quienes después de revisar los números que otorgaban a cada participante según los aspectos mencionados arriba, seleccionaron a los tres primeros lugares, ya citados. Según los números que me permito ver en la lista del chino, la competencia estuvo reñida y no sólo por que lo dicen los números, sino por lo que estuve observando ese viernes escabulléndome como espectador en el concurso. Me sorprendió la respuesta al evento, la interpretación de los participantes y el entusiasmo desgranado y vertido por todos los asistentes. Los demás participantes fueron: Alejandro Hernández Carreón, quien por cierto presentó una poesía de su inspiración intitulada: El señor de las bestias, Abel Tello Solares, Irma Tristán López, Maribel Cárdenas Delgado, Víctor Hugo Compeán Jasso, Víctor Manuel Rodríguez, Liliana Paulina Trejo Valencia y Tania Vanesa Loredo Caldera. Bien por los organizadores y por los participantes, su entusiasmo y gusto por las expresiones de arte, que aunque no se vea, de mucho ayuda en la formación de nuestros estudiantes, a quienes conminamos a seguir manifestando esas inquietudes ma`nqui nos lleven los pingos. Y para quienes merecen amor, la salida de hoy. Mi amor/el más enamorado/Es el más olvidado/en su antiguo dolor/Mi amor/abre pecho a la muerte/y despeña su suerte/por un tiempo mejor/Mi amor/este amor aguerrido/Es un sol encendido/¡por quien merece amor! 883 Boletín El Hijo de El Cronopio Facultad de Ciencias Universidad Autónoma de San Luis Potosí No.79, 5 de junio de 2000 Boletín de información científica y tecnológica de la Facultad de Ciencias Publicación semanal Edición y textos Fís. José Refugio Martínez Mendoza Parte de las notas de la sección Noticias de la Ciencia y la Tecnología han sido editadas por los españoles Manuel Montes y Jorge Munnshe. La sección es un servicio de recopilación de noticias e informaciones científicas, proporcionadas por los servicios de prensa de universidades, centros de investigación y otras publicaciones especializadas. Cualquier información, artículo o anuncio deberá enviarse al editor. El contenido será su responsabilidad. e-mail: flash@galia.fc.uaslp.mx Números anteriores del boletín, pueden consultarse por Internet en la página de la UASLP: http://phobos.dtc.uaslp.mx/publi.html Descanse en paz Virgilio Beltrán López El 26 de mayo murió Virgilio Beltrán López destacado físico mexicano, uno de los pioneros en la consolidación de la investigación en provincia. Esto fue en la Escuela de Ciencias Físico Matemáticas de la Universidad Autónoma de Puebla, de la que fue director. En la actualidad era un distinguido investigador del Instituto de Ciencias Nucleares de la UNAM y profesor de la Facultad de Ciencias. En el terreno de la investigación básica, se propuso mantener un equilibrio entre teoría y experimentación en las áreas de la física que cultivó, c omo el estudio de la resonancia paramagnética electrónica o el método para la simulación de espectros, mismo que le valió el reconocimiento y asesoría de científicos de otros países. Uno de sus últimos proyectos fue la construcción y puesta en marcha de un laboratorio de resonancia magnética láser en el Instituto de Ciencias Nucleares, pero el cáncer le ganó el paso. Considerado como un extraordinario maestro por sus propios colegas, impartió más de cien cursos de licenciatura y posgrado; además de que cola boró en revistas especializadas de prestigio internacional, fue autor de 15 libros de texto y de divulgación científica cuyo tiraje rebasa ya los cuatro millones de ejemplares, entre estos Para atrapar un fotón, publicado por el Fondo de Cultura Económica en la serie "La ciencia desde México". Premio Nacional de Periodismo Felicitaciones al grupo de difusión de la ciencia de la Facultad de Ciencias de la UNAM al obtener la revista Ciencias el Premio Nacional de Periodismo en la especialidad de periodismo cultural. La revista Ciencias es una de las mejores revistas de divulgación científica del país y se edita desde hace 18 años. Este premio se suma a los ya obtenidos: Distinción Universidad Nacional para Jóvenes Académicos (1992); Premio Arnaldo Orfila Reynal (1996); y Premio CANIERM al Arte Editorial (1991, 1994, 1998 y 1999). El Hijo de El Cronopio No. 79 El Garambullo (Los polvos de esos caminos)/ La paradoja de Cerro de San Pedro A veinte kilómetros al noreste de la capital potosina, se encuentra enclavado el histórico Cerro de San Pedro, tan traído y llevado en los últimos años por el redescubrimiento de su riqueza en oro. El descubrimiento del mineral de Cerro de San Pedro hace más de cuatrocientos años por el capitán mestizo Miguel Caldera, provocó el establecimiento en el Valle de Tangamanga del actual San Luis Potosí, asumiendo el nombre de las minas del Potosí en Bolivia, al compararse la riqueza de las entrañas de San Pedro. A lo largo de los siglos, tanto Monte Caldera, pequeña población antecesora de Cerro de San Pedro que se encuentra a unos diez kilómetros de Cerro, y el propio Cerro de San Pedro fueron cediendo su crecimiento y desarrollo a la futura capital del estado de San Luis Potosí en plena puerta de la región Guachichila. El descubrimiento de Cerro de San Pedro propició que se cambiará el asentamiento principal de la zona (capital española) de Mezquitic a Cerro de San Pedro y posteriormente a San Luis Potosí. Al “agotarse” las explotaciones mineras, como en todo gran pueblo minero, se echa al olvido. Esta no es la excepción en Cerro de San Pedro, población semi abandonada, una especie de pueblo fantasma, al igual de Real de Catorce, vaya que se echó al olvido. Pocas personas, antes de 1990, lo visitaban, uno que otro pintor le daba vida recreando sus fachadas y callejones en lienzos rematados por tenues colores. Por mucho tiempo, al menos en mi caso, era el conocimiento que tuve de este añejo y abandonado pueblo minero. Antes de 1990, mi hermano que estudiaba geología lo visitaba regularmente para realizar sus prácticas de la carrera. Acampaban en esas noches de frío, dentro de la iglesia, para lo cual era menester sacar borregos y cabras del lugar. Ni quien pelara a tan antiquísima y rica iglesia, que albergaba grandes obras pictóricas. El abandono total. En plena crisis de la industria minera la compañía Peñoles emprendió estudios geológicos en la zona a fin de explorar la posibilidad de encontrar yacimientos de oro. En esa época, mi hermano trabajaba para la compañía Minera las Torres en el mero Guanajuato. De primera mano me enteré de los descubrimientos que el grupo de geólogos de Peñoles realizaba en Cerro de San Pedro. Definitivamente había grandes cantidades de oro, al menos lo suficiente como para emprender una explotación. En mayo de 1989 iniciamos en el Planetario del Parque Tangamanga, el programa de divulgación Domingos en la Ciencia, programa que tuvo mucho éxito y en el cual nosotros mismos, los organizadores del Instituto de Física y de la Facultad de Ciencias , debutamos como expositores ante niños. Una de esas pláticas, me correspondió y tuvo lugar en el mes de enero de 1990, el tema “El encanto de los cristales”, en la plática por necesidad surgió el tema de la minería y al final de la misma, como era ya costumbre, se tenía una reunión con la prensa de los diarios Momento y Pulso. En dicha reunión no aguante la tentación y di la información que me había proporcionado mi hermano, acerca del redescubrimiento de yacimientos de oro en Cerro de San Pedro. Al siguiente día apareció una nota con el encabezado: San Luis, potencia mundial en la producción de fluorita y como subtítulo: Sin embargo, hace falta más apoyo para avanzar en el estudio de su utilización. Un día después aparece en el periódico Pulso, edición del martes 9 de enero de 1990 la nota: Descubren yacimiento de oro en Cerro de San Pedro. Firme posibilidad de que resurja el otrora emporio minero. Ya en el cuerpo de la nota aparecía: un nuevo yacimiento de oro fue descubierto hace un par de meses en el Cerro de San 885 El Hijo de El Cronopio No. 79 Pedro y una empresa particular realiza los estudios previos a la explotación, con la finalidad de determinar si el descubrimiento es importante y resulta rentable. Esta información, por lo pronto, no tuvo una repercusión inmediata. Los directivos de Peñoles declinaron entrarle a explotarlo y cedieron la información oficial al gobierno del estado. Para entonces la vida de Cerro de San Pedro, seguía transcurriendo en el mismo desinterés cultural y social. Esa remota pero real oportunidad de que Cerro de San Pedro fuera el nuevo emporio minero del estado, no importó a ningún sector de la sociedad. El asunto cambia cuando el gobernador en turno Horacio Sánchez, en gira por Canadá ofrece la información a empresarios canadienses, entregada por Peñoles, de la potencialidad del yacimiento de oro encontrado en Cerro de San Pedro. Minera San Xavier aprovecha la oferta ofrecida por el gobierno potosino y se viene todo un reclamo de parte de sectores de la población oponiéndose a su explotación. Comienza a publicitarse a Cerro de San Pedro como patrimonio histórico y a la iglesia del lugar como una de las joyas arquitectónicas y culturales que encierran más de cuatrocientos años de historia. Aparece entonces por arte de magia un letrero en el anillo periférico y en la carretera central que anuncia, con flecha acusatoria Templo de San Pedro, aunque aún hay que sacar las cabras de su interior. Sin embargo, Cerro de San Pedro, el verdadero, no el de papel, sigue en el abandono total. Nace un grupo plural, ecológico y anexas que defiende a capa y espada invaluable patrimonio. Se pierde sospechosamente un retablo del siglo XVII o XVIII y también sospechosamente se “suicida” el alcalde en turno. Continua el desgarramiento de camisetas, por un lado, en la defensa del patrimonio histórico que representa Cerro de San Pedro; imagínense nuestra santa cuna, y por el otro la defensa de un desarrollo económico para el estado y la población. Las posturas se radicalizan, la UASLP participa en un estudio que evalúa el posible deterioro ambiental y la factibilidad de una explotación “sana”. Al conocerse los resultados que la universidad emite, se cuestiona su calidad y su honestidad. Mientras, Cerro de San Pedro sigue en el olvido y abandono; digan lo que digan, los grupos en conflicto. En ese inter, me decido ir a conocer el mentado Cerro de San Pedro, lo encuentro casi como lo imaginaba, resulta extraño conocer mucho tiempo después el lugar en el que se forjó nuestra ciudad. Al igual que muchos potosinos, incluidos quienes participan en el dime y direte, simplemente no lo conocía. Tanto se pregona, en el caso del pueblo minero, la defensa a la ecología y al patrimonio histórico, que resulta paradójico que en pleno pueblo, en una especie cañón-arrollo que pasa justo enfrente al templo, una cantidad exagerada de basura se acumule indiscriminadamente, mientras en la gran ciudad se debate su suerte, alegando un futuro deterioro ecológico. En la pasada semana de pascua, regresé con mi familia a Cerro de San Pedro y Monte Caldera, sólo para descubrir que después de un año de alegatos, confrontaciones y movilizaciones de grupos ecologistas, Cerro de San Pedro siga descaradamente inundado de basura plástica; basura que lejos de disminuir se ha ido acumulando en su lecho; ahora Cerro de San Pedro se puede “vanagloriar”, mientras continua la eterna discusión, de contar además del cerro de oro con ese otro más abundante cerro de basura. Definitivamente existen dos Cerros de San Pedro, el real sobre el que no hay interés de desarrollarlo y que poco importa, no sólo su deterioro, tampoco su deteriorada imagen causada por la basura. El otro el de la disputa, en el que poco importa el pueblo en sí, sólo lo económico y lo político. 886 El Hijo de El Cronopio No. 79 Noticias de la Ciencia y la Tecnología Burbujas de jabón Cuatro investigadores han obtenido la prueba matemática definitiva de la llamada Conjetura de la Doble Burbuja. Cuando dos burbujas de jabón esféricas entran en contacto, forman una doble burbuja. A menos de que ambas sean del mismo tamaño, la superficie entre ellas se arquea ligeramente hacia el interior de la burbuja mayor, otorgando una forma precisa a la estructura resultante. Los matemáticos se preguntaban si la forma obtenida es efectivamente la más apta (mínima superficie) para contener y separar los dos volúmenes de aire. Frank Morgan, del Williams College, Michael Hutchings de la Stanford University, y Manuel Ritori y Antonio Ros, de la Universidad de Granada, han demostrado matemáticamente que así es. La doble burbuja es la forma óptima para ello. Otras posibilidades, como que la burbuja mayor rodee a la menor, etc., no son tan adecuadas. Si se aplica una rotación a diferentes porciones de la burbuja, alrededor de un eje cuidadosamente seleccionado y a distintas velocidades, la estructura se vuelve inestable. En 1995, el caso especial de la unión de dos burbujas idénticas fue demostrado mediante técnicas informáticas por Hass, Hutchings y Schlafly. Las nuevas aportaciones, en cambio, amplían el número de posibilidades, y todo ello con el único uso de lápiz y papel. La cosa no termina aquí, ya que el teorema ha sido extendido hasta todas las burbujas de cuatro dimensiones y hasta ciertos casos particulares referidos a un espacio de cinco dimensiones o más, gracias a los trabajos de varios estudiantes que se encuentran bajo la dirección de Morgan. Información adicional en: http://www.williams.edu/Mathematics/fmorgan/ann.html http://www.williams.edu/News/soapbubbles.html Imagen: http://www.williams.edu/News/sdb2.jpg (Imagen por ordenador de una doble burbuja.) (Foto: John M. Sullivan/University of Illinois) La biomasa podría sustituir a la gasolina Cuando el precio de los combustibles fósiles se encuentra por las nubes, los métodos alternativos de producción de energía vuelven a adquirir mayor importancia. Los promotores de los combustibles de origen biológico, renovables y no fósiles, vuelven a recibir la atención que merecen. El elevado precio de la gasolina, no su poder contaminante, parece ser justificación suficiente como para examinar propuestas alternativas más ecológicas y, sobre todo, baratas. Las investigaciones realizadas en el pasado para reemplazar la gasolina se han centrado sobre todo en el etanol producido a partir del cultivo de cereales. Sin embargo, los especialistas creen que hay otra fuente de energía igualmente interesante y que podría ser explotada muy pronto: los desechos de la biomasa. 887 El Hijo de El Cronopio No. 79 Larry Walker, un profesor de Cornell, y sus estudiantes, han estado utilizando enzimas para convertir los desechos en una forma de energía renovable. Si bien estos desechos son más baratos que el petróleo, el problema es encontrar un modo de lograr que el coste de la conversión en energía no sea un lastre para su comercialización. Para ello es necesario investigar procesos microbianos y enzimáticos rentables y de sencilla implantación. El dióxido de carbono es tomado por la planta a través de su metabolismo. El carbono es entonces usado en sus células. Sólo en los Estados Unidos, se generan cada año 279 millones de toneladas métricas de desechos vegetales a través de la producción agrícola, industrial y comercial. La clave para aprovechar estos recursos es emplear enzimas que sean capaces de "romper" la parte fibrosa del material y convertirla en azúcares fermentables. El equipo de investigadores de Cornell está estudiando el uso de enzimas procedentes de bacterias termofílicas, las cuales pueden ocuparse de la celulosa de los desechos vegetales. La bacteria produce seis enzimas llamadas celulasas, las cuales atacan la biomasa a través de un proceso denominado hidrólisis. Los enzimas procesan la celulosa y la convierten en azúcares fermentables, a partir de los cuales se puede producir combustible o productos químicos industriales. No sólo las plantas representan un fuente renovable de componentes orgánicos, sino que también se producen una considerable cantidad de desechos orgánicos que podrían ser usados como fuente de carbono para las bioindustrias. Por ejemplo, los residuos de árboles urbanos (desde ramas rotas a árboles de Navidad) suponen 38 millones de toneladas métricas disponibles para ser procesadas en los Estados Unidos. Información adicional en: http://www.news.cornell.edu/releases/March00/ACS.Energy.bpf.html No venimos de los Neandertales Un reciente estudio genético confirma que no descendemos directamente de esta especie primitiva. La teoría más aceptada en la actualidad sobre el origen del Hombre moderno establece que éste salió de África hace unos 100.000 años, extendiéndose por Europa y Asia y reemplazando a sus predecesores arcaicos, como los Neanderthales, los cuales habrían salido del continente africano con anterioridad. Los científicos han confirmado esta suposición gracias a un estudio genético de los restos de un espécimen de Neanderthal. Es la segunda vez que se aplican técnicas moleculares sobre este tipo de seres primitivos, pero la primera que se ha hecho sobre un ejemplar que vivió al mismo tiempo que los humanos "modernos". Investigadores del Human Identification Centre, de la University of Glasgow, así como colaboradores rusos y suecos, han usado técnicas moleculares genéticas para comparar el ADN mitocondrial tomado de un niño de Neanderthal que vivió hace 30.000 años, con el ADN del Hombre actual. La prueba ha demostrado que ambas especies se separaron de un tronco común hace unos 500.000 años, de modo que los humanos que reemplazaron a los Neandertales no procedían de ellos sino que habían evolucionado independientemente en África. El niño examinado se ha conservado de forma magnífica en la cueva de Mezmaiskaya, al norte de Cáucaso, donde fue hallado en 1987 por científicos rusos. El nivel de 888 El Hijo de El Cronopio No. 79 preservación del material ha sido tan elevado que ha permitido emplear las citadas técnicas, habituales en el mundo forense para determinar la identidad de las personas. Información adicional en: http://gopher.gla.ac.uk/press/releases/neanderthal.html Se acabaron las inyecciones El suministro de medicamentos a través de inyecciones se acerca a su fin. Son varias las técnicas que permitirán prescindir de su dolorosa aplicación. La tecnología médica avanza sin cesar. Uno de los campos que va a experimentar una revolución dentro de muy poco es el del tratamiento y en especial el del suministro de medicamentos a los pacientes. En este sentido, las agujas hipodérmicas, uno de los métodos más extendidos, se convertirán en obsoletas, siendo reemplazadas por múltiples formas menos dolorosas y más efectivas. Veamos algunas de ellas: *El inhalador electrónico: su objetivo es acceder al torrente sanguíneo a través de los pulmones. Se trata de un dispositivo manual que permite el envío de pequeñísimas partículas líquidas por la boca en dirección a los pulmones. A diferencia de los inhaladores convencionales, envían las medicinas hacia la sangre a través de los alvéolos y pequeños pasos aéreos, con lo que su eficiencia y velocidad son mayores. Será especialmente adecuado para suministrar insulina y medicamentos contra el dolor. *Medicamentos a velocidad supersónica: un dispositivo especial utiliza helio a presión en vez de una aguja para transportar las medicinas, preparadas en forma de polvo. El aparato lanza mecánicamente el producto químico a través de la piel, de forma indolora, gracias a que las partículas alcanzan una velocidad superior a la del sonido. Será adecuado para suministrar pequeñas moléculas, vacunas y potentes drogas biotecnológicas. También puede servir como herramienta de diagnóstico. *Gotas de grasa: los liposomas, gotas de grasa, pueden encapsular medicamentos difíciles de transportar y llevarlos hasta su objetivo. Se han diseñado de manera que puedan adherirse a células específicas, suministrando sus contenidos (vacunas y moléculas para terapias genéticas) de forma muy precisa. *La farmacia en un chip: una señal eléctrica controlada es empleada por un microchip del tamaño de una pequeña moneda para liberar los medicamentos que contiene. A diferencia de los parches y los implantes poliméricos, que lo hacen de forma continua, el chip realiza su trabajo a horas convenidas y en las cantidades adecuadas. *Microagujas indoloras: una placa cubierta por agujas microscópicas, cada una de ellas de un diámetro no superior al de un cabello humano, puede aportar medicación a través de la piel sin causar ningún tipo de dolor. La razón es que las agujas son tan delgadas que no pueden alcanzar las células de los nervios sensoriales. Información adicional en: http://center.acs.org/applications/news//story.cfm?story=333 La estabilidad matrimonial se puede predecir Los psicólogos ya son capaces de pronosticar, el mismo día de su boda, si su matrimonio tiene o no futuro. A nadie le gustaría saber, en el preciso momento en que va a contraer matrimonio, que su vida en pareja tendrá los días contados. Pero lo cierto es que los psicólogos ya son capaces de predecir el éxito o no de una unión con un 87 por ciento de fiabilidad. 889 El Hijo de El Cronopio No. 79 Varios investigadores de la Universty of Washington han estado estudiando por qué se divorcia la gente, examinando decenas de casos y realizando comparaciones estadísticas entre ellos. Han obtenido así los parámetros psicológicos que les permiten predecir con el porcentaje antes citado qué nuevas parejas permanecerán casadas y cuáles se divorciarán en un plazo de 4 ó 6 años. Al mismo tiempo, son capaces de determinar con un 81 por ciento de fiabilidad qué matrimonios sobrevivirán después de los 7 a 9 años. La técnica puede ser empleada por otros expertos para, tras una hora de entrevista, valorar el grado de amistad y afinidad entre una pareja y poner de manifiesto sus percepciones globales con respecto a su matrimonio. Toda la investigación se basa en un formato de entrevista concreto, ideado por John Gottman y aplicando ideas originales de Studs Terkel. El sistema emplea preguntas abiertas, que se centran en la forma en que éstas se responden más que en lo que realmente se dice. La clave, pues, es cómo habla la gente, y no el contenido propiamente dicho. La entrevista explora la historia de la relación de la pareja, la filosofía de sus componentes en cuanto al matrimonio, y cómo se compara el de sus padres con respecto al suyo. También se examinan las diversas épocas vividas por el matrimonio, buenas y malas, así como los momentos del cortejo inicial y la boda. El estudio se ha realizado sobre 95 parejas recién casadas y ha supuesto su seguimiento durante períodos que van de los 7 a los 9 años. Los resultados ponen de manifiesto un patrón que emerge tanto en los matrimonios felices como en los infelices. Los primeros suelen hablar casi al unísono, ya que se encuentran muy compenetrados y conocen bien los deseos del otro. En cambio, la simetría se pierde en los matrimonios malavenidos, donde se aprecia una gran dificultad a la hora de relatar cosas positivas sobre la pareja. Las predicciones también tienen en cuenta otros factores, como el deseo de tener hijos o las amistades comunes. En los Estados Unidos, la media de divorcios durante los primeros cinco años es de un tercio de los matrimonios. Información adicional: http://www.washington.edu/newsroom/news/2000archive/03-00archive/k032700.html Fabrica de neutrinos Los físicos quieren dejar de depender de la generosidad cósmica para poder estudiar las curiosas partículas llamadas neutrinos. Los neutrinos son partículas muy particulares. Aunque producidas por el Sol y las estrellas de forma constante, son casi invisibles para nuestros instrumentos debido a que apenas interaccionan con la materia. En cualquier momento del día, muchos de ellos están atravesando nuestros cuerpos sin que lo notemos, y de hecho, pueden cruzar el globo terráqueo de lado a lado sin prácticamente inmutarse. Se han construido dispositivos especiales para "capturar" a algunos de ellos, pero la tarea es difícil y poco agraciada. Su ínfima masa (aunque no sabemos aún cuánto "pesan"), debería ayudarnos a aclarar importantes cuestiones sobre la física de partículas y la cosmología (antimateria, materia oscura...), de manera que los científicos están interesados en obtener una fuente de neutrinos artificial que no dependa del exterior. Físicos británicos han propuesto la instalación de una verdadera fábrica de neutrinos. Estaría basada en un sencillo pero potente acelerador de protones. La máquina podría ser 890 El Hijo de El Cronopio No. 79 construida íntegramente en Gran Bretaña, pero los costes son demasiado elevados y se está estudiando su promoción como un proyecto internacional. La fábrica de neutrinos produciría un flujo muy intenso que sería más sencillo de detectar que los que proceden del espacio. El acelerador tendría unos 120 metros de diámetro, menos de lo que los actuales dispositivos de este tipo poseen, pero el precio de la factura alcanza los 700 millones de dólares o más. El Rutherford Appleton Laboratory, en Oxfordshire, es un candidato para albergar la instalación si el programa se hace realidad. Produciría el rayo de electrones y lo dirigiría a través del interior de la Tierra en dirección a detectores subterráneos colocados en otros lugares del mundo, como el Gran Saso italiano, el Soudan Laboratory estadounidense, o el Kamioka japonés. Si se demuestra que los neutrinos tienen masa, podría haber una pequeña diferencia entre ellos y su contrapartida, los antineutrinos. Esto nos ayudaría a entender no sólo cuánta masa hay en el Universo, sino también qué pasó con la antimateria que debió ser creada durante su nacimiento y que parece haber desaparecido. Información adicional en: http://hepunx.rl.ac.uk/soudan2/; http://www.lngs.infn.it/ http://hepweb.rl.ac.uk/ppUK/PressReleases/pr_nufactory.html Imagen: http://webnt.physics.ox.ac.uk/documents/images/globe.gif (Mapa de las distancias del laboratorio RAL con respecto a los de Soudam, Gran Sasso y Kamioka.) (Foto: Rutherford A. Lab.) Los latidos del sol Los astrónomos han detectado un nuevo fenómeno periódico en el interior del Sol relacionado con el misterioso ciclo de 11 años de actividad solar. La revista Science acaba de publicar nueva información que arroja luz sobre el extraño ciclo de 11 años de la actividad solar. Los resultados científicos, obtenidos por la red internacional de Sismología Solar GONG, han sido confirmados por el satélite SOHO. El Instituto de Astrofísica de Canarias participa tanto en el GONG, uno de cuyos instrumentos se encuentra instalado en el Observatorio del Teide, como en el satélite SOHO, con dos instrumentos a bordo. El descubrimiento de nuevas variaciones periódicas en el movimiento de la materia situada por debajo de la superficie solar, en una zona crítica de transición de propiedades físicas llamada en inglés "tachocline", sugiere que es precisamente en esta capa donde se podría encontrar el secreto mejor guardado del Sol: el origen del mencionado ciclo de 11 años en la actividad solar, que posiblemente influya de forma directa en el cambio climático. El SOHO pudo confirmar la existencia de variaciones periódicas utilizando un instrumento diferente a los empleados en tierra y aplicando unas técnicas de análisis completamente distintas a las de GONG. Según el Dr. Pere L. Pallé, investigador principal por parte española de la red GONG y coordinador de Investigación del IAC, "este nuevo descubrimiento supone una pieza adicional sólida a tener en cuenta y a reproducir en cualquier modelo que intente explicar la estructura y dinámica del Sol". Como si fuera sangre latiendo en una arteria, las corrientes de gas halladas recorriendo las profundidades de nuestra estrella aumentan su velocidad o la disminuyen a lo largo de un período de 16 meses. 891 El Hijo de El Cronopio No. 79 El hecho de que la zona afectada esté cerca de la llamada dinamo solar, la región en la que se genera el campo magnético del Sol, a su vez responsable de la actividad solar, es muy interesante para los astrónomos. Se cree que las erupciones son el resultado de un incremento y la rápida liberación de tensiones en los campos magnéticos, lo cual alcanza su punto álgido una vez cada 11 años. Las corrientes de gases se mueven a un tercio de la distancia entre la superficie visible de la estrella y su centro, la región de la dinamo o tachocline. El ciclo de 16 a 15 meses en esta zona se refiere al ecuador, pudiendo ser más rápido en latitudes superiores. Ahora, los heliofísicos están estudiando la relación directa que puede haber entre ambos ciclos, el de 11 años y el de 16 meses. A diferencia de la Tierra, los puntos de la superficie solar no giran a un mismo ritmo. Por ejemplo, en el ecuador giran una vez cada 27 días, mientras que en los polos lo hacen cada 35 días. Esta rotación diferencial se extiende a través de la turbulenta capa convectiva, situada a 210.000 km de la superficie. A partir de aquí, la rotación diferencial desaparece. Información adicional en: http://www.gong.noao.edu/ http://sohowww.nascom.nasa.gov/hotshots/ http://pao.gsfc.nasa.gov/gsfc/spacesci/sunearth/sunearth.htm#pulse http://www.nsf.gov/od/lpa/news/press/00/pr0015.htm http://www.noao.edu/outreach/press/pr00/pr0003.html http://www.iac.es/gabinete/oteide/gong.htm Imagen: http://sohowww.nascom.nasa.gov/hotshots/2000_03_30/cut_line.gif (Velocidades de rotación del Sol durante un período de 6 meses.) (Foto: NASA) http://www.noao.edu/image_gallery/images/d3/4103.jpg (Representación por ordenador del Sol visto por la red de telescopios GONG.) Genética del envejecimiento Los errores en la división celular durante la vejez pueden ser los responsables de los problemas médicos que se experimentan durante este último período de la vida. Enfermedades como el Alzheimer o la artritis son más frecuentes cuando se llega al período que denominamos vejez. Un estudio realizado por personal del Skaggs Institute for Chemical Biology y del Genomics Institute sugiere que los cambios genéticos graduales producidos por errores en la división celular podrían ser la causa común de todos estos problemas. Los cambios funcionales se empezarían a producir durante una edad media, aumentando a medida que se envejece. Los científicos solían establecer que el envejecimiento es una enfermedad en la que las células dejan de dividirse. En cambio, el nuevo estudio sugiere que se trata en realidad de una enfermedad relacionada con el control de calidad de dicha función. Conforme nos hacemos mayores, la alteración de la expresión genética implica la producción de células con funciones disminuidas. A diferencia del cáncer, donde las células se enfrentan a una disfunción uniforme, el envejecimiento ocurre siguiendo un patrón en forma de mosaico, a diferentes ritmos en distintos puntos del cuerpo. Los investigadores han estudiado la regulación genética en células que se dividen de forma activa procedentes de donantes jóvenes, de mediana edad y de edad avanzada, así como de personas afectadas por progeria, una rara enfermedad que se caracteriza por un envejecimiento acelerado. Los autores indican que 61 de los más de 6.000 genes 892 El Hijo de El Cronopio No. 79 estudiados mostraron que el número de cambios se duplica desde la juventud a la mediana edad. Lo importante ahora es identificar aquellos genes asociados con las enfermedades más relacionadas con la edad, para explorar posibles formas de prevenirlas o tratarlas. Información adicional en: http://www.scripps.edu/ Los gases de la vida Las emisiones de los volcanes podrían haber constituido el punto de partida para el nacimiento de la vida en la Tierra y otros planetas. Los geólogos de la Washington University han desarrollado cálculos teóricos sobre cómo la vida pudo aparecer en la Tierra, Marte y otros astros a partir de gases volcánicos. Everett L. Shock y Mikhail Y. Zolotov han analizado la composición química de las cenizas, la lava y el magma procedentes de nueve volcanes representativos (por ejemplo, el Mt. St. Helen, el Surtsey, el Etna y el Kilauea) y han llegado a la conclusión de que los gases volcánicos de la Tierra primitiva, después de surgir a unos 1.200 grados Celsius de temperatura, se enfriaban hasta alcanzar entre 150 y 300 grados C. En este rango, las condiciones químicas y medioambientales pueden dar lugar a hidrocarburos básicos a partir del hidrógeno y el monóxido de carbono presente en los gases. En el proceso interviene una reacción catalítica donde el componente del hierro llamado magnetita juega un papel especial como catalizador. Durante décadas, los investigadores han venido observando una fina película de material orgánico sobre las superficies minerales de las rocas. Estas mezclas orgánicas probablemente se condensaron en los gases volcánicos, durante las erupciones. Las condiciones favorables para la síntesis de hidrocarburos también pueden serlo para otros ingredientes de la vida, como aminoácidos y polímeros orgánicos complejos, llegando, quizá, a moléculas autorreplicantes como el ARN, y después llevándonos a todo tipo de células y organismos diversos. Los cálculos tienen en cuenta temperaturas, composición de los gases, estados de oxidación de éstos y condiciones geofísicas de cada volcán. Son útiles porque permitirán realizar experimentos y analizar desde otro punto de vista meteoritos marcianos que han sido recuperados en nuestro planeta. La vida, pues, no sólo podría surgir de los materiales gaseosos de los volcanes actuales, sino que pudo haber surgido con mayor probabilidad hace miles de millones de años en la Tierra primitiva, en Marte y en la luna de Júpiter, Europa. De hecho, en el lejano pasado, la temperatura del magma habría sido 200 grados Celsius más alta que ahora, y la atmósfera estaría mucho menos oxidada. Estas condiciones son mejores para la producción posterior de hidrocarburos. Información adicional en: http://wupa.wustl.edu/nai/feature/2000/Mar00-gases.html Nuevo éxito para los cazadores de planetas Los astrónomos siguen descubriendo mundos situados más allá del nuestro. En esta ocasión, además, su tamaño es inferior a todo lo encontrado hasta la fecha. De los 30 planetas descubiertos hasta hoy alrededor de soles más o menos parecidos al nuestro, todos han resultado ser de igual o superior masa que la de Júpiter. Esto no es 893 El Hijo de El Cronopio No. 79 raro, puesto que nuestras capacidades ópticas aún son limitadas y un planeta más pequeño refleja menos luz de su estrella madre, con lo que es más difícil de localizar. Por eso, el anuncio de que los astrónomos han encontrado dos planetas cuyo tamaño es parecido al de Saturno es una espléndida noticia que nos acerca un poco más al día en que seremos capaces de detectar planetas de las dimensiones de la Tierra, mundos sólidos cuyas condiciones de habitabilidad sean superiores que las de sus hermanos gaseosos. El hallazgo de planetas semejantes a Saturno en cuanto a masa refuerza la teoría que indica que debería haber más cuerpos pequeños que grandes, y que todos ellos pueden aparecer a partir del disco de polvo protoplanetario que rodea a una estrella que acaba de nacer. Geoff Marcy, el campeón del descubrimiento planetario, de la University of California, reconoce que, como en una playa lejana, hasta ahora sólo podíamos ver los peñascos más grandes. Con los últimos descubrimientos, ya tenemos a nuestro alcance a las primeras rocas, y quizá pronto seamos capaces de ver incluso la arena. Júpiter tiene tres veces la masa de Saturno. Es por eso que planetas como este último son más difíciles de detectar. Lo han sido gracias al uso del gran telescopio Keck, instalado en el Mauna Kea, en Hawai. Así, ha revelado la existencia de un cuerpo con una masa de un 80 por ciento la de Saturno girando a 6 millones de kilómetros de la estrella HD46375, a 109 años luz de nosotros, en la constelación de Monoceros, y de otro con una masa del 70 por ciento, orbitando a 52 millones de kilómetros de 79 Ceti (HD16141), a 117 años luz de la Tierra, en la constelación de Cetus. Sus órbitas están, por tanto, muy próximas a sus estrellas. El primer planeta tarda sólo 3,02 días en girar alrededor de la suya, mientras que el segundo lo hace en unos 75 días. Como Saturno, deben ser gigantes gaseosos, principalmente hechos de hidrógeno y helio. El de 79 Ceti debe tener una temperatura superficial de unos 830 grados Celsius y el de HD46375 alcanzará al menos los 1.130 grados C. Demasiado calor para que la vida pueda existir en ellos. Con toda probabilidad, se formaron más lejos de sus estrellas, allá donde pudieron acumular gases fríos, para después migrar hasta sus posiciones actuales. Marcy y sus colegas no han acabado el trabajo. Tienen entre manos un proyecto que supone la investigación de 1.100 estrellas situadas en un radio de 300 años luz de la Tierra. Información adicional en: http://origins.stsci.edu/news/2000/01 http://www.spacescience.com/headlines/y2000/ast30mar_1.htm Imagen: http://origins.stsci.edu/news/2000/01/content/4x5w.jpg (Visión artística del planeta de 79 Ceti.) (Foto: Greg Bacon/STScI) La Ciencia desde el Macuiltépetl/ Las dos culturas Por Manuel Martínez Morales Para los griegos, la creación de una obra de arte era el producto de dos actos inseparables: mimesis y methexis. La mimesis corresponde al acto de imitar, de recrear lo visto, lo sentido, lo vivido; y la methexis, al acto mediante el cual el artista se 894 El Hijo de El Cronopio No. 79 compromete con la realidad, se compenetra de ella para así poder representar no sólo la forma, sino también la esencia, lo sustancial de lo representado en su obra. Con el paso del tiempo, esos dos actos han sido tajantemente separados, a tal grado que en muchas ocasiones se llama arte al simple ejercicio de una técnica, al llano simbolismo, al elemental dominio de un método. De la misma manera, se han separado dos modos de abordar la realidad por el hombre, modos que en su esencia deben ser inseparables. Me refiero a lo que se ha dado en llamar las dos culturas. Por una parte se tiene el núcleo de las humanidades que incluyen las artes, la literatura, la filosofía, etc., y, por otro lado, se ubica a las ciencias con sus fríos modelos e insensibles máquinas. Para las humanidades existen valores éticos y estéticos, esto es, la moral, la belleza y la justicia; pareciera que las ciencias dentro de la concepción moderna tienen que ser, a tal grado, “objetivas” que no deben permitir en sus dominios los juicios de valor . Esta situación se refleja obviamente en las características psicológicas y hábitos de quienes se han formado en una u otra cultura. Le sugiero una experiencia interesante: invite a tomar café a un “humanista” y a un “científico”; plantéeles un tema de conversación cualesquiera y note su manera de hablar, de juzgar, de analizar y de exponer conclusiones. En el fondo, la separación entre lo humanístico y lo científico es artificial y conlleva serios riesgos si no es superada adecuadamente. Más de uno de los grandes científicos de nuestra era ha dicho que no sólo buscaba que su teoría fuese correcta, sino que, además, fuera bella. Bella en el sentido de que presentara regularidades en su estructura, ciertas simetrías. Un destacado divulgador de la ciencia, J. Bronowsky, dice: Uno de los prejuicios contemporáneos más nefastos ha sido el que el arte y la ciencia son cosas diferentes y en cierto modo incompatibles. Hemos caído en el hábito de contraponer el sentido artístico al científico; incluso los identificamos con una actividad creadora y otra crítica. En una sociedad como la nuestra, que practica la división del trabajo, existen naturalmente actividades especializadas como algo indispensable. Es desde esta perspectiva, y sólo desde ella, que la actividad científica es diferente de la artística. En el mismo sentido, la actividad del pensamiento difiere de la actividad de los sentidos y la complementa. Pero el género humano no se divide en seres que piensan y seres que sienten, de ser así no podría sobrevivir mucho tiempo. (El sentido común de la ciencia, Península, 1978) Hay que agregar que no sólo se ha contrapuesto el arte a la ciencia, sino que tal contraposición se ha hecho extensiva a muchos dominios de las humanidades. Desde luego que la creatividad, esencial en cualquier arte o ciencia, exige un cierto grado de especialización. Conjuntar nuevamente mimesis y methexis no implica formar “todólogos”, es decir, no se necesita se músico profesional para disfrutar y apreciar la buena música, ni es necesario ser científico para estar al tanto de los adelantos de la ciencia, lo que se requiere es una reintegración de esos aspectos de la actividad del hombre. El divorcio entre humanidades y ciencias está enraizado, en última instancia, en la enajenación que produce un sistema fincado en la división de la sociedad en clases y en 895 El Hijo de El Cronopio No. 79 la explotación del trabajo humano. Para los fines de tal sistema, el hombre tiene que ser, debe ser, parcelado, es decir, mutilado, y solamente debe atender al desarrollo de aquellas facultades que son directamente útiles en la producción. Además, no produce para sí, sino para satisfacer los requerimientos de un mercado lejano y abstracto. El productor, obrero, artista o científico, siente que su obra encierra poderes que lo dominan, que poseen una suerte de vida propia. Se habla del arte, de la ciencia, de la filosofía como entidades con vida autónoma que dictan leyes para ser obedecidas por los hombres. Lejos estamos todavía de entender que esas grandiosas obras del arte, de la ciencia y de la filosofía, son producto de la actividad humana y que es el hombre mismo quien puede darles el sentido apropiado para que esas obras sean verdaderas fuentes de satisfacción, de belleza, de entendimiento y de paz. Así, lo que muchos deseamos y todos necesitamos es que llegue el día en que no haya más obreros pintores o científicos, sino simples hombres que, entre muchas otras cosas, produzcan, pinten o hagan ciencia. El Cabuche (crónicas de la Facultad de Ciencias)/ Esos pioneros La física, como disciplina es nuestro país es joven, y por lo tanto lo son la mayoría de los profesionales que la cultivan (también existimos más jóvenes aún). A principios de los años cincuenta comenzaron a fincarse instituciones de formación de estos nuevos ejemplares de la ciencia en provincia. Puebla y San Luis figuran entre estas instituciones. De aquellos personajes que contribuyeron a su consolidación han y están pasando de jóvenes a personas mayores y eventualmente dejan este mundo; aunque, existen lamentables casos de accidentes que, prematuramente, han dejado a la física sin sus valiosas contribuciones. El 26 de mayo Virgilio Beltrán López fue vencido por el cáncer, yéndose así uno de los pioneros de la física en provincia. Virgilio Beltrán formó parte de ese importante grupo de físicos que a principios de los sesenta engalanaba a la universidad poblana. Junto con Eugenio Ley Koo y García Colín, entre otros, se desarrollaban en ese ambiente difícil y hasta hostil que representa emprender trabajos de investigación en entornos un tanto cerrados, muy propios de universidades y sociedades conservadoras. En aquellos tiempos el ímpetu de la universidad poblana contrastaba con su mojigata sociedad. Consecuencia de esas confrontaciones fue la total destrucción (así literalmente) de la escuela de física, a manos de los retrogradas caballeros de colón (no merecen ponerles mayúsculas). La ahora Facultad de Ciencias Físico-Matemáticas de la UAP ha sabido reponerse a esos obstáculos y figura como una de las instituciones importantes del país. En San Luis la facultad ha tenido que enfrentarse a ese tipo de presiones, aunque de forma más sutil; aunque en número de profesores e investigadores no podemos compararnos con la facultad poblana, su desarrollo en épocas tempranas fue tan glorioso como el caso de Puebla; tan glorioso que podemos vanagloriarnos de que en nuestras aulas se formó el primer grupo de física experimental en provincia y que tal grupo alcanzó niveles insospechados en aquella época, no igualados sino hasta la época actual. Gustavo del Castillo y Gama, fundador de la escuela y de la física en San Luis, apenas el quinto doctorado en física de México, formado, como los anteriores, en el extranjero, jugo un papel clave. Ante los embates del centro, poco es conocido su papel y contribuciones, tanto a la física como disciplina, como a la formación y consolidación de grupos de investigación en provincia. Se hace necesario destacar el papel de estos pioneros. Por lo pronto los trabajos del XVIII Concurso Regional de Física y 896 El Hijo de El Cronopio No. 79 Matemáticas, mejor conocido como Fis-Mat, está dedicado a Gustavo Del Castillo y Gama como un modesto y justo reconocimiento a su labor. Labor que contradice, al igual que el mural plasmado en un bar por el rector de Cuénamo, en la novela de Jorge Ibargüengoitia “Estas ruinas que ves”, que fue maravillosamente llevada a la pantalla grande y difundida por la chica, en una película del mismo nombre. En el mural el rector (en la película encarnado por Rafael Banquels, el famoso gutierritos, que no pertenecía al HUMO, esa sociedad de nuestra facultad que reúne a los maridos oprimidos y de la cual, sobra decir, formo parte) pintó figuras de la ciencia que evolucionan en imágenes desde cuando el hombre fue primate hasta culminar en Einstein, posados sobre un colorido arcoiris que representa la luz, mientras que en la parte inferior aparece un grupo de personajes con garrotes que aseguran, aunque el mundo les demuestra lo contrario: “La ciencia no existe” y firman C.C. Cuando interroga al rector uno de los profesores que lo acompaña en la faena, qué significa C.C., éste explica, -la frase, la firman los caballeros de colón. Siempre que se hace una historia/Se habla de un viejo, de un niño, o de sí,/pero mi historia es difícil/no voy a hablarles de un hombre común/haré la historia de un ser de otro mundo/de un animal de galaxia./Es una historia que tiene que ver/con el curso de la Vía Láctea,/es una historia enterrada/es sobre un ser de la nada SEGUNDO ANIVERSARIO DE: EL HIJO de EL CRONOPIO El ejemplar que tienes en tus manos, puedes considerarlo un número de aniversario. Con esta entrega, cumplimos dos años de editar el Boletín. Esperamos tus comentarios, sugerencias y contribuciones. Por lo pronto, nosotros mismos nos felicitamos y agradecemos la participación de todos aquellos que se han atrevido a enviar algún artículo; a la Administración de la Facultad, a cargo de Alicia Robledo, que atiende su impresión y distribución. En especial a Ruth y a la Sra. Lucha (entre otras cosas por la abrumadora tarea de separar hojas, encuadernarlo y lidiar con la raza), al Berna (el responsable de que salga derecho o chueco cuando se pelea con el copyprinter), a Octavio y en ocasiones Enrique o el juanillo, que eventualmente lo carga en su maletín negro, en las entregas dirigidas al centro (de la ciudad). A todas las víctimas de El Cabuche. Esperamos seguir, algunos años más. Ayuda a tu Facultad. Llévate quince años de historia. Adquiere los mosaicos de la otrora área de cubículos de la Facultad. En ella trabajaron grandes personajes, otros no tanto. Mosaicos completos: $100.00, rotos: $50.00 y echos cachitos: $25.00 Es broma, pero podría resultar este émulo del programa universitario de reconstrucción del edificio central. Posters, no tenemos. 897 Boletín El Hijo de El Cronopio Facultad de Ciencias Universidad Autónoma de San Luis Potosí No.80, 12 de junio de 2000 Boletín de información científica y tecnológica de la Facultad de Ciencias Publicación semanal Edición y textos Fís. José Refugio Martínez Mendoza Parte de las notas de la sección Noticias de la Ciencia y la Tecnología han sido editadas por los españoles Manuel Montes y Jorge Munnshe. La sección es un servicio de recopilación de noticias e informaciones científicas, proporcionadas por los servicios de prensa de universidades, centros de investigación y otras publicaciones especializadas. Cualquier información, artículo o anuncio deberá enviarse al editor. El contenido será su responsabilidad. e-mail: flash@galia.fc.uaslp.mx Números anteriores del boletín, pueden consultarse por Internet en la página de la UASLP: Noticias de la Ciencia y la Tecnología El robot polimórfico Una nave interestelar Hace 555 millones de años La flor dentro de la flor Dos mejor que una Ancestros humanos fuera de África La llama espiral Perdido y encontrado Descifrado el cromosoma 21 Enanas marrones http://phobos.dtc.uaslp.mx/publi.html La Ciencia desde el Macuiltépetl/ René Descartes El Cabuche (crónicas de la Facultad de Ciencias)/ La otra Fiesta del Chivo El Hijo de El Cronopio No. 80 Noticias de la Ciencia y la Tecnología El robot polimórfico No es el robot metálico de la película Terminator 2, pero su adaptabilidad no deja de ser sorprendente. Una máquina que pueda cambiar su forma para adaptarse a la tarea que deba realizar en cada momento es un sueño perseguido por muchos ingenieros. Las denominamos robots polimórficos y no están tan lejos de la realidad. Investigadores de Massachusetts trabajan en ello. El prototipo, de momento, es muy simple y carece de sensores, de manera que desconoce lo que ocurre a su alrededor, pero pronto recibirá sustanciales mejoras. Sus diseñadores, encabezados por Hod Lipson y Jordan Pollack, de la Brandeis University, utilizan termoplástico, un material altamente adaptable, para dar forma a su estructura. La idea, como el famoso androide de la película Terminator 2, es que el robot pueda "moldearse" a sí mismo, adaptando su estructura para realizar cada tarea específica. Una vez finalizada, dicha estructura podrá ser "fundida" y reciclada de inmediato para construir otras adaptadas a trabajos totalmente distintos. Sistemas de este tipo podrían ser interesantes para misiones de exploración espacial, o para el rescate de personas y objetos, cuando sea necesario afrontar ambientes impredecibles y extraños. Por ejemplo, imaginemos que la tarea asignada al robot consiste en encontrar una forma que le permita moverse con una sola pierna y un único motor. Un ordenador intentará diseñar el cuerpo que permita cumplir la orden con la mayor eficiencia. Para ello, estará unido a un dispositivo llamado impresora 3D, que emplea una tobera por la que se depositan sucesivas capas de termoplástico, creando de esta forma, muy lentamente, la estructura requerida. Cuando este tipo de impresoras pueda miniaturizarse, podrán ser incorporadas al propio robot, de manera que las diversas partes de su cuerpo, diseñadas en ese preciso instante, puedan adaptarse a las necesidades del momento. El extremo de un brazo de termoplástico podría cambiar de forma hasta conseguir la herramienta utilizable en cada situación, como una navaja suiza. En lugares remotos, como el espacio, esto significará que no será necesario transportar todo un surtido de herramientas. El robot polimórfico examinará la situación, diseñará y creará aquellas que necesite y las incorporará a su cuerpo. Los materiales termoplásticos son reciclables, ya que su dureza depende de la temperatura que se les aplica. Cuando dejan de ser útiles, pueden ser fundidos y servir como materia prima para una nueva estructura. Los investigadores están buscando materiales conductores, no conductores o incluso semiconductores, con las mismas propiedades que los termoplásticos. Esto quiere decir que se podrían construir de una pasada, sin ensamblaje, cables, motores o circuitos lógicos. Para cada tarea asignada, el robot polimórfico adoptará una forma no conocida de antemano. La estructura física, y la red neural que constituirá el cerebro del robot, serán tratados como información genética que puede ser combinada y mutada de forma simulada, con el objetivo de conseguir diseños totalmente nuevos. La evolución se detendrá cuando la configuración resulte apta para el trabajo que deba realizarse. 899 El Hijo de El Cronopio No. 80 El algoritmo actual trabaja sólo con componentes básicos simples, como barras de plástico de dimensiones determinadas, así como motores eléctricos que pueden extender o disminuir la longitud de las barras. Las juntas son también muy sencillas y fáciles de reproducir. Pero estamos sólo ante el primer paso. El único problema, por ahora, radica en conseguir plásticos más fuertes y otros materiales más adecuados a la metodología desarrollada. (New Scientist) Información adicional: http://www.demo.cs.brandeis.edu/golem Video: http://www.demo.cs.brandeis.edu/golem/simulator/poscilate1.mov (Prototipo de robot en movimiento.) (Foto: Lipson/Pollack) Una nave interestelar Los ingenieros de la NASA ya están diseñando la primera y verdadera sonda que viajará hacia las estrellas. Aunque las sondas Voyager-1 y 2 y Pioneer-10 y 11 ya han sobrepasado los límites físicos del Sistema Solar, adentrándose en el llamado espacio interestelar, en realidad su velocidad es tan lenta que se habrán vuelto demasiado viejas cuando queramos mantener el contacto con ellas a distancias realmente significativas. Ni siquiera se dirigen hacia algún punto de destino concreto, como una estrella, sino que su trayectoria viene determinada por su ya finalizada misión de exploración de los planetas gigantes del Sistema Solar. Algunos científicos creen incluso que, aunque hayan superado ampliamente la distancia que nos separa de Plutón, el más alejado de los planetas tradicionales, no se encuentran aún en espacio interestelar. Ello ocurrirá sólo cuando hayan superado la heliopausa, el punto, probablemente variable, donde la influencia del Sol deja de sentirse de forma definitiva. Es por eso que los ingenieros ya están desarrollando naves más rápidas que puedan desempeñar una misión en espacio interestelar antes de que transcurra demasiado tiempo. De momento, su mayor apuesta, en el ámbito de la propulsión, se encuentra en las denominadas velas solares. El Marshall Space Flight Center de la NASA avanza con decisión en este terreno. El objetivo más próximo es el lanzamiento de una o mas sondas interestelares que, consiguiendo adentrarse en el espacio más allá de nuestro Sistema Solar, demuestren la tecnología necesaria para mayores empresas. Equipadas con grandes velas que aprovecharán el empuje de la presión fotónica procedente de nuestra estrella, podrían alcanzar distancias de hasta 250 unidades astronómicas (una UA es equivalente a 150 millones de km) en apenas 15 años. Su velocidad máxima de crucero será de unos 93 km/s, suficiente para cubrir la distancia entre Madrid y Barcelona en apenas 6 segundos. El lanzamiento de un primer prototipo podría producirse en 2010. Viajando cinco veces más rápido que las Voyager, superaría la distancia de éstas hacia el 2018, cubriendo en 8 años lo que habrá llevado 41 a las viejas sondas. La nave, además, será la más grande construida nunca, con una vela solar que una vez desplegada tendrá un diámetro de más de 400 metros. Será construida con un material reflectante, basado en fibra de carbono, y se desplegará adoptando la forma de las palas de un ventilador. Si la tecnología resulta adecuada, durante la siguiente década los ingenieros se centrarán en desarrollar vehículos capaces de alcanzar las estrellas más próximas. Las velas solares, que no necesitan combustible para acelerar, pueden ser nuestra puerta hacia las estrellas. 900 El Hijo de El Cronopio No. 80 Información adicional en: http://www1.msfc.nasa.gov/NEWSROOM/news/releases/2000/00-150.html Imagen: http://www1.msfc.nasa.gov/NEWSROOM/news/photos/2000/2000images/9906265_m.j pg (Concepto de vela solar.) (Foto: Marshall SFC) Hace 555 millones de años Los primeros animales complejos que vivieron en la Tierra y que han dejado señales de su existencia eran parecidos a los gusanos. Investigadores del Massachusetts Institute of Technology, del Instituto Paleontológico de Moscú y del California Institute of Technology han anunciado que han conseguido determinar la época en la que vivieron alguno de los primeros animales complejos que poblaron la Tierra. Los rastros fósiles (marcas en el sedimento) examinados pertenecen a la llamada fauna de Ediacara y se hallan en Rusia. Un examen radiológico de la capa de ceniza volcánica que cubre las rocas en las que se encuentran nos ha proporcionado una edad de unos 555 millones de años. Tales rastros fueron hechos probablemente por criaturas con aspecto de gusanos que se movían a través del sedimento en el fondo marino. Estos desplazamientos implican un cierto nivel de complejidad morfológica, como la existencia de un cuerpo rígido y de un intestino. El mismo lugar contiene un fósil conocido como Kimberella, que sólo se encuentra allí y en Australia y que tiene todo el aspecto de ser un molusco primitivo. 555 millones de años sería la nueva edad mínima a partir de la cual aparecieron este tipo de organismos. Los científicos creen ahora que la aparición de los primeros organismos multicelulares es anterior a hace 600 millones de años. Esto debe relacionarse con la llamada explosión del Cámbrico, ocurrida hace 543 millones de años, momento que registró la aparición de un gran incremento de especies. La zona rusa del Mars Blanco es particularmente interesante por la calidad y la conservación de los fósiles. No se descartan nuevos descubiertos durante los próximos años. Información adicional en: http://web.mit.edu/newsoffice/nr/ La flor dentro de la flor En ocasiones, las plantas presentan deformidades curiosas, como flores que surgen del interior de otras flores. Los científicos han identificado los genes responsables de esta extraña situación. Biólogos de la University of California creen haber resuelto parte del misterio de las flores que crecen dentro de otras flores. Durante años, se han buscado en vano los genes responsables de esta deformidad, establecida desde hace mucho tiempo como una anormalidad de origen desconocido. Dicha deformidad fue descrita por primera vez hace 2.000 años, dando lugar a lo que conocemos por "flor monstruosa". Por supuesto, su mayor atractivo la convirtió en un premio codiciado en la industria y el comercio de flores. Muchas rosas, camelias, etc., pueden producir flores dobles. Crecen a partir de extremos podados, ya que las plantas, habiendo perdido sus órganos reproductivos, se vuelven estériles. 901 El Hijo de El Cronopio No. 80 Las plantas no producen este fenómeno de forma habitual, al menos en el campo, debido a que para ello es necesario que muten tres genes virtualmente idénticos dentro de sus células. Surgirá entonces la flor dentro de la flor dentro de la flor..., en un proceso que puede repetirse de manera indefinida y que será detectable sólo hasta que los órganos más pequeños de la flor dejan de ser visibles. Las flores normales consisten en una serie de cuatro anillos concéntricos. El más exterior está hecho de sépalos, el órgano verde con forma de hoja que normalmente rodea el capullo de la flor antes de que se abra. Dentro de los sépalos se encuentra el anillo de pétalos, el anillo de estambres (las estructuras reproductivas masculinas), y por último, en el centro, los carpelos (o pistilos), las estructuras reproductivas femeninas. Cuando los tres genes encontrados por los científicos mutan, los pétalos, estambres y carpelos se convierten en sépalos, proporcionando la forma de doble flor. El papel de dichos genes había permanecido oculto para los genetistas debido a que son prácticamente iguales, con lo que ha sido necesario mutarlos uno a uno y después combinarlos en una única planta, una técnica que ha precisado de años de trabajos en el laboratorio, para ver sus efectos. La planta utilizada por los científicos para esta investigación es la Arabidopsis, muy apreciada por los genetistas. Los botánicos han propuesto desde hace cientos de años que los sépalos, pétalos, estambres y carpelos no son sino hojas modificadas. Pero a pesar del progreso realizado durante los últimos años, nadie había podido convertir hojas en cada uno de estos órganos. El descubrimiento de los genes podría ser la pieza del rompecabezas que faltaba, ya que ahora sabemos que son necesarios para la formación y definición de las diferentes partes de la flor. Quizá en el futuro podremos activar a voluntad tales genes, produciendo nuevas variedades de plantas repletas, por ejemplo, de pétalos de colores allá donde antes sólo había hojas verdes. Información adicional en: http://ucsdnews.ucsd.edu/newsrel/science/mcflower.htm Imagen: http://ucsdnews.ucsd.edu/graphics/images/Image4.jpg (Una doble flor Arabidopsis.) (Foto: Soraya Pelaz, UCSD) Dos mejor que una De la misma manera que las personas oyen mejor con dos orejas que con una, los futuros dispositivos para comunicaciones sin hilos utilizarán no una sino dos o más antenas. Cada vez más gente accede a los servicios de transmisión de datos y voz sin cables. Este tipo de servicios pueden llegar a proporcionar un acceso a Internet más rápido o una mejor calidad en las comunicaciones habladas, además de una mayor libertad de movimientos para el usuario. Sin embargo, el crecimiento exponencial en el uso de estos sistemas amenaza su calidad inherente. Una forma de evitar su degradación consistirá en añadir una segunda antena a los dispositivos empleados. Pruebas recientes demuestran que dos antenas se comportan mejor que una sola, aunque para ello haya que emplear técnicas sofisticadas de procesado de señales. Esto último no parece que vaya a ser un problema en el futuro, de manera que ya podemos entrever la aparición de una nueva generación de equipos para las comunicaciones celulares, todos ellos equipados con dos o más antenas. Según Michael 902 El Hijo de El Cronopio No. 80 Zoltowski, de la School of Electrical and Computer Engineering de la Purdue University, su uso mejorará el acceso a Internet, posibilitando el envío de grandes cantidades de datos, video, etc. El principal inconveniente de las comunicaciones sin hilos son las interferencias. Dichas interferencias se verán reducidas precisamente de forma drástica si añadimos una o más antenas, ya que la fiabilidad de la conexión se incrementará entonces en unas 100 veces. Esto, además, permitirá que el triple de usuarios pueda compartir la misma banda de frecuencias. Las antenas adicionales son "inteligentes" porque rechazan las interferencias y compensan los efectos causados por el reflejo de las señales que rebotan en los edificios y en otras estructuras. El objetivo final será que cualquier usuario, con su ordenador portátil y su teléfono celular, pueda conectarse a Internet desde el coche o en un tren en marcha y bajar información de la web sin encontrar dificultades de ningún tipo. Información adicional en: http://ECE.www.ecn.purdue.edu/ECE/Fac_Staff/Faculty/zoltowski Ancestros humanos fuera de África Los paleontólogos han descubierto restos humanos que podrían pertenecer a los más antiguos localizados fuera del continente africano. Tienen 1,7 millones de años y pertenecen a uno de nuestros más lejanos ancestros. Los paleontólogos opinan que los restos de cráneo fosilizado hallados en Dmanisi, en la República de Georgia, son además los más antiguos localizados fuera de África y que podrían pertenecer a las primeras especies de homínidos que salieron de dicho continente para emigrar a Eurasia. El descubrimiento ha sido protagonizado por investigadores de Georgia, Alemania, Francia y los Estados Unidos. Su interés radica en que la edad y características de los fósiles los relacionan con la especie humana llamada Homo ergaster, probablemente la versión africana del conocido Homo erectus. Si esto fuera así, nuestros antepasados habrían salido de África hace 1,7 ó 1,8 millones de años, poco después de que la evolución les dotara de cuerpos relativamente grandes y mayores cerebros. Sin embargo, aún no habían realizado avances notables en cuanto a la tecnología de las herramientas de piedra. Muchos científicos creen que el Homo erectus fue la primera especie de homínido que dejó el continente africano, pero su identidad exacta y el momento elegido para ello sigue debatiéndose. El escenario clásico sugiere que el Homo erectus, armado con una herramienta avanzada, el hacha manual, fue el primero en ser capaz de extenderse a través de una serie de lugares fuera de África. Los fósiles de Dmanisi, dos fragmentos de cráneo, parecen contradecir esta teoría. Las herramientas de piedra halladas junto a ellos son menos sofisticadas de lo esperado, lo que sugiere que la emigración desde África pudo ser anterior a la época dominada por las hachas. Los cráneos fueron hallados durante diversas excavaciones arqueológicas en un castillo medieval. El análisis de los isótopos del basalto otorgan una edad de 1,77 millones de años al lugar, pero la firma paleomagnética del sedimento es menos precisa, de manera que se ha utilizado la bien conocida datación de ciertas especies animales contemporáneas para aumentar la fiabilidad. 903 El Hijo de El Cronopio No. 80 Se cree que la tecnología pétrea más avanzada apareció en África hace 2.4 millones de años. Por tanto, su no presencia en Dmanisi nos hace preguntarnos qué razones impulsaron a los homínidos a salir del continente. Los científicos piensan que el principal motivo fue el hambre. La expansión de la sabana africana proporcionó una mayor cantidad de proteínas a sus habitantes. Con la aparición del Homo ergaster, no obstante, los cuerpos crecieron y requirieron mayor cantidad de energía para moverse. Su dietas tuvieron que cambiar y permitir el acceso a fuentes de proteínas animales. La necesidad de seguir a sus presas y abarcar su mayor campo de acción les hizo alejarse cada vez más, cubriendo más y más territorio. Finalmente, pasaron a Eurasia y se extendieron por este continente. Información adicional en: http://www.napa.ufl.edu/2000news/hominids.htm http://www.aaas.org/ Imagen: http://www.napa.ufl.edu/graphics/hominid1.jpg (Uno de los cráneos hallados.) (U. of Florida) La llama espiral La presencia de la gravedad o la acción de las corrientes de aire proporcionan a la llama procedente de una combustión su conocida estructura. Pero en microgravedad, las cosas son muy distintas. Los investigadores están muy interesados en estudiar el comportamiento del fuego. De ello depende que sepamos cómo combatirlo mejor o aprovechar la energía que desprende. Conocemos bastante bien qué forma adopta la llama de un fuego sobre la Tierra, su temperatura, los gases que produce, etc. Pero estamos, en realidad, ante un sencillo caso particular, definido por la presencia de la gravedad y de la atmósfera. A bordo de una astronave situada alrededor de nuestro planeta, una llama se comporta de una forma muy distinta. En la Tierra, la gravedad es la causante de un fenómeno convectivo, el cual a su vez da a la llama su tradicional forma de gota. Además, el hollín producto de la combustión asciende, dando una coloración amarillenta a la parte superior de la llama. En cambio, en microgravedad no hay flujos convectivos. La llama se vuelve esférica, azulada y sin presencia de hollín. Esto puede ser beneficioso, pero también reportar problemas, en caso de un incendio. La seguridad de los astronautas depende de nuestro conocimiento sobre estas situaciones que se escapan de lo normal. Afortunadamente, hemos conseguido algunas pistas con experimentos realizados en la superficie terrestre. Por ejemplo, se provocó la combustión de un disco de plástico algo mayor que un CD, utilizando para ello un soplete. A continuación, se hizo girar el disco lentamente (de 2 a 20 revoluciones por segundo) en un ambiente de aire en calma. La llama, entonces, empezó a moverse siguiendo una estructura en espiral, en dirección opuesta al giro del disco. Cuando las llamas disminuyeron su actividad, sus puntas exhibieron un comportamiento extraño, moviéndose alternativamente de un lado a otro. Los científicos saben ahora que este fenómeno ocurre también en microgravedad. Empezar un fuego en el centro de un disco inmóvil es como lanzar una piedra en un estanque tranquilo. Produce un frente de llamas que avanza en forma de círculo, disminuyendo a medida que el combustible (el disco) se consume. Si hacemos girar el 904 El Hijo de El Cronopio No. 80 disco, sin embargo, las llamas circulares se convierten en espirales bajo ciertas condiciones. Las espirales son pues una forma abundante en la naturaleza. Desde el ADN a las galaxias, desde los movimientos atmosféricos a los impulsos neuronales. El estudio de cada una de sus manifestaciones representa para el Hombre una fuente inagotable de sorpresas. Información adicional en: http://mgnwww.larc.nasa.gov/db/combustion/combustion.html http://microgravity.nasa.gov/Combustion.html http://science.nasa.gov/headlines/y2000/ast12may_1.htm Imagen: http://mgnwww.larc.nasa.gov/db/understanding_ug/ugflamesm.jpg (Una llama en ingravidez.) (Foto: Langley RSC) Perdido y encontrado El asteroide 718 Albert, desaparecido desde 1911, ha sido por fin hallado de nuevo. Los astrónomos del programa Spacewatch, dedicado a la detección de cuerpos que puedan algún día chocar contra la Tierra y operando desde el observatorio de Kitt Peak, creen haber redescubierto un asteroide que se vio por última vez en 1911. Johan Palisa, astrónomo del Observatorio Imperial de Viena, lo encontró el 3 de octubre de dicho año. Fue observado de nuevo al día siguiente y también desde el observatorio de Copenhague. Sin embargo, 719 Albert, llamado así en honor al barón que había contribuido generosamente al mantenimiento del Observatorio de Viena, no volvió a ser localizado. El 1 de mayo de 2000, sin embargo, Jeff A. Larsen utilizó el telescopio Spacewatch de 0,9 metros en una rutinaria búsqueda de nuevos cuerpos menores. Durante la sesión, catalogó a uno con el nombre de 2000 JW8, un cuerpo muy débil, en los límites de lo que el telescopio puede apreciar. El objeto fue observado otra vez los días 3 y 6 de mayo, confirmando que se trata de un asteroide que se aproxima a la Tierra de forma regular. El 9 de mayo, se empleó el telescopio de 2,1 metros de diámetro de Kitt Peak, y se obtuvo suficiente información como para calcular su órbita. El resultado fue sorprendente: ésta coincidía plenamente con la del desaparecido 719 Albert. Ochenta y nueve años después, el viejo asteroide había sido redescubierto. El Albert tarda 4.28 años en dar una vuelta alrededor del Sol. Habitualmente, se pasa casi todo el tiempo a una distancia con respecto a nuestra estrella de más de 480 millones de kilómetros. Cada 30 años, sin embargo, realiza máximas aproximaciones en relación a la Tierra. En 1911, 1941 y 1971, Albert nos hizo una visita. Durante la primera, fue descubierto. La próxima ocasión, 2001, ha supuesto su redescubrimiento. Los puntos de máxima aproximación a la Tierra varían, pero pueden situarse a unos 31 millones de kilómetros. El 5 de septiembre de 2001, se acercará hasta unos 43 millones de kilómetros, haciéndolo asequible a un mayor número de instrumentos. Su tamaño es incierto, pero podría tener un diámetro de unos 2 a 4 km. La próxima campaña de observación servirá para definir mejor sus características. Información adicional en: http://www.lpl.arizona.edu/spacewatch/ http://cfa-www.harvard.edu/cfa/ps/pressinfo/Albert.html Imagen: http://cfa-www.harvard.edu/cfa/ps/pressinfo/Albert.jpg (El asteroide Albert.) (Foto: US Naval Flagstaff Observatory) 905 El Hijo de El Cronopio No. 80 Descifrado el cromosoma 21 Un consorcio germano-japonés ha descifrado el cromosoma responsable de algunas de las enfermedades genéticas más comunes, como el síndrome de Down. De los 23 diferentes cromosomas humanos conocidos, el 21 es sin duda uno de los más pequeños. Está asociado a la enfermedad conocida como Síndrome de Down, por la cual una copia extra del cromosoma 21 supone la aparición de un desarrollo físico y mental anómalo en los niños, lo que conduce a un retardo considerable. Es un defecto genético común, que afecta a 1 de cada 700 nacimientos. Ahora, un grupo internacional liderado por científicos alemanes y japoneses han secuenciado el cromosoma, lo que permitirá una mejor comprensión de los mecanismos moleculares de ésta y otras enfermedades relacionadas. Tras la secuenciación del cromosoma 22 en diciembre de 1999, el 21 es el segundo cromosoma humano que ha sido descifrado de forma completa. Virtualmente todos los genes codificados en este cromosoma han sido identificados. El esfuerzo, enorme, ha supuesto el trabajo coordinado de cinco instituciones: el centro RIKEN de Sagamihara (Japón), el Departmento de Biología Molecular de la Universidad de Keio, en Tokyo (Japón), el GBF-Gesellschaft fuer Biotechnologishe Forschung de Braunschweig (Alemania), el Institut fuer Molekulare Biotechnologie (IMB) de Jena (Alemania), y el Max Planck Institute for Molecular Genetics, de Berlín (Alemania). La secuenciación se inició a principios de los años 90. La tarea era ingente: identificar los 33.546.361 pares de bases del cromosoma 21. Durante todo este tiempo, 170 personas han trabajado en el proyecto. Basándonos en los resultados, ahora sabemos que dicho cromosoma contiene 225 genes. De ellos, 127 son genes claramente caracterizados, mientras que 98 han sido descubiertos mediante predicciones hechas por ordenador. Se conocen ya las funciones de 103 de los 127 genes caracterizados. El próximo paso será averiguar qué hacen los demás. Algunos podrían estar relacionados con enfermedades genéticas como la sordera, los tumores sólidos, una forma de psicosis depresiva, etc. Hay un punto de especial interés: 14 genes conocidos situados en el cromosoma 21 que intervienen en enfermedades monogénicas severas. Entre ellas está el Alzheimer, una forma de epilepsia, condiciones de autoinmunidad, y también un incremento de susceptibilidad frente a la leucemia. La secuenciación permitirá además, en el futuro, un diagnóstico precoz del Síndrome de Down, lo que ayudará a paliar sus consecuencias. La constatación de que el cromosoma 21 codifica 225 genes y que el cromosoma 22 hace lo propio con 545 nos hace extrapolar que el número de genes humanos puede ser de unos 40.000, una cifra mucho menor a la esperada. Información adicional en: http://chr21.rz-berlin.mpg.de http://genome.gbf.de http://genome.imb-jena.de http://www.dhgp.de http://genome.imb-jena.de/publ/chrom21.pdf 906 El Hijo de El Cronopio No. 80 Enanas marrones Los astrónomos han descubierto tres nuevos tipos de enana marrón, estrellas en la frontera entre planetas y soles, que jamás habían sido observados. Las enanas marrones son objetos que intrigan a los científicos. Su tamaño y masa las sitúan a medio camino entre las estrellas y los planetas. Mayores que Júpiter, no tienen suficiente masa (el 8 por ciento de la del Sol) como para que puedan desencadenar reacciones termonucleares en su núcleo. Aunque comienzan brillando un poco, rápidamente se enfrían y se vuelven más y más débiles, de aquí su nombre. No es éste un fenómeno raro: se cree que existen cientos de enanas marrones en las cercanías del Sol. Su temperatura superficial va de 3,200 a 1,200 grados Centígrados. Pero, ¿existen enanas marrones aún más frías? Si ello ocurriese, empezarían a formar grandes cantidades de metano, modificando el aspecto de la enana marrón y proporcionando pistas de su existencia. Esto es precisamente lo que ha permitido la localización de una nueva población más próxima a la figura de los planetas gaseosos. La primera estrella con una considerable presencia de metano fue descubierta en 1995, girando alrededor de otra normal y relativamente cercana a nosotros. Muchas otras han aparecido desde principios de 1999. Tres de ellas son particularmente interesantes. Hasta ahora no se habían encontrado representantes de enanas marrones situadas a medio camino entre ambos extremos, el grupo joven y más caliente y el otro más frío y que presenta señales de la presencia de metano. Las nuevas tres enanas marrones halladas no son idénticas sino que forman una secuencia propia, en el camino entre las más calientes y semejantes a las estrellas normales y las que se parecen más a planetas gaseosos como Júpiter. Gracias a la astronomía infrarroja, tales objetos de transición, observados desde el UKIRT y el Gemini Observatory y con temperaturas superficiales de 700 a 1,200 grados C, han podido mostrarnos sus espectros particulares. El metano está más presente en el grupo frío que en el caliente, mientras que la detección de monóxido de carbono implica un comportamiento contrario. Las enanas marrones más frías se parecerían mucho a Júpiter y Saturno poco después de su formación, hace 5,000 millones de años. Información adicional en: http://xxx.lanl.gov/abs/astro-ph/0004408 La Ciencia desde el Macuiltépetl/ René Descartes Por Manuel Martínez Morales Uno de los más notables constructores del método científico ha sido, sin duda alguna, René Descartes. Nacido en Francia en 1596. Descartes dedicó su vida a la filosofía y a las matemáticas. Conocido principalmente por su formulación de la geometría analítica, puede afirmarse que sus preocupaciones científicas eran inseparables de su pensamiento filosófico. Así, Descartes ambicionaba formular una ciencia generalizada que lo explicara todo; por ello, se dedicó al estudio concienzudo de las más diversas disciplinas. 907 El Hijo de El Cronopio No. 80 Este brillante pensador hizo aportaciones a la óptica y a la fisiología, por mencionar algunos de los campos que abordó en sus estudios. Sin embargo, René Descartes es sobradamente conocido por su obra El discurso del método, en la cual propone un audaz método de investigación que revolucionó la ciencia y la filosofía de su época. Su método podría sintetizarse en cuatro reglas sencillas para analizar las cosas: 1. Nunca aceptar como verdadero ningún conocimiento que no se haya sometido al análisis riguroso. 2. Dividir todo problema en un conjunto de partes sencillas, fáciles de analizar. 3. Proceder siempre en orden de lo simple a lo complejo. 4. No dejar ningún elemento del problema sin ser analizado. Su método no se limita a la aplicación mecánica de las reglas; antes bien, constituye una meditación profunda sobre el conocimiento humano: “Pienso, luego existo” es una de las frases más conocidas de Descartes, que resume con claridad las preocupaciones del filósofo. En otra de sus obras, Principios de filosofía, Descartes se empeña en realizar una exposición lógica y rigurosa de todos los fenómenos naturales, partiendo de la física, la química y la fisiología. Históricamente, la importancia de esta obra radica en que se rechaza abiertamente toda explicación teológica en el campo de las ciencias. Por otra parte, tratar de explicar los fenómenos naturales a partir de la mecánica, la relación entre ésta y la geometría, así como el empleo de hipótesis en busca de generalizaciones, fueron su contribución al pensamiento científico moderno. Si bien es cierto que muchas de las ideas de Descartes han sido superadas, no por ello deja de ser importante la obra del filósofo y matemático, más aún considerando que en su época ya se hablaba de la “revolución cartesiana”. El gran sueño de lograr una ciencia unificada no se ha perdido del todo; recordemos que ese sueño también fue largamente acariciado por Albert Einstein, el más grande científico de este siglo. El Cabuche (crónicas de la Facultad de Ciencias)/ La otra Fiesta del Chivo La Fiesta del Chivo es el título de la más reciente novela de Mario Vargas Llosa, que la editorial Alfaguarda sacó al público en el mes de febrero. Hace cosa de un mes el peruano-español Mario Vargas Llosa estuvo en nuestro país para presentar su nuevo libro. Estancia que, entre otras cosas, causó revuelo por sus declaraciones sin tapujos respecto a que, el presidente que México necesita es Vicente Fox. Hasta hubo diputados (la mayoría de nuestros diputados no se caracterizan por su prudencia y cultura) que le querían aplicar el 33. La Fiesta del Chivo es una muy buena novela que trata los días finales de la dictadura de Leonidas Trujillo en la caribeña isla de la República Dominicana. Como sabemos, nosotros también tenemos un Chivo, que le vamos a hacer, ni los dominicanos ni nosotros lo escogimos, simplemente llegó o ya estaba; en esas circunstancias no queda más que acostumbrarse a ellos. En realidad el Chivo es buena bestia, actualmente además de chambear en el instituto colabora en la edición de la Revista Mexicana de Física, da una que otra clase en la facultad y pretende jugar softbol. El Chivo es una rara especie que acostumbra deambular en bici; con su vestuario de los 908 El Hijo de El Cronopio No. 80 setenta vuelve a andar a la moda, y a pesar de estar más viejo sigue siendo el terror de las comidas, lleve o no su toper. Hay quienes dicen que una fiesta sin el Chivo no es fiesta, yo me guardo mi opinión. El Chivo también es doctor, como diría alguien: ¡ahí como lo ven! Cuando se tituló de doctorcito (cosa que agradecimos pues traía a remolque a la HP 1000, acaparándola a tal grado que no dejaba trabajar), el Chivo hizo fiesta, y allí justo allí, en La Fiesta del Chivo, logré vencer la maldición del brandy, recuperando mi propiedad de garganta que había menguado por una sesión de exceso ocurrida en Puebla, en la casa de barcatlán (léase Acatlán) que cohabitábamos con el piedras (profesor del INAOE). Once años duró la maldición, que los antidioses a Baco fraguaron en mi contra. Todo por haber tomado como agua una, o no sé cuantas, botella de fundador, hasta eso, que el piedras tenía para llevar a su natal Ciudad Madero. Acabé dando tremendo show en la sagrada casa de barcatlán en Puebla, que estaba situada en exclusivo fraccionamiento de la capital poblana. Por supuesto pagué las consecuencias, un día de mi vida completamente perdido. Desperté a las 8 de la tarde-noche del siguiente día, sí es que a eso se le puede llamar despertar. Recorrí la casa sacado de onda, viendo los resultados de la reunión del día anterior. En esa faena me encontraba cuando repentinamente llegaron el Piedras, el Medellín y el Reyes (Medellín y Reyes, fueron y uno sigue siendo, mis compañeros en la ahora Facultad de Ciencias), preocupados por el estado en que por la mañana, cuando salieron a trabajar, me habían dejado. En esos momentos me comencé a sentir de la fregada (que es poco) inundé, literalmente, con un líquido completamente transparente mi cuarto, mismo que el Medellín se encargaba de sacar a la calle con la escoba. El líquido al parecer era bilis; no podía retener absolutamente nada, fuera agua o lo que se les ocurriera. Mi estado, al decir de mis cuates, era grave y debatían en llevarme al hospital o esperar una milagrosa recuperación. Sobreviví, y después de una cruda de cuatro días, casi fui el mismo de antes, salvo que, todo lo que oliera a brandy me revolvía el estómago y me ponía medio mal. Todo mi cuerpo, con sólo oler el brandy, reaccionaba defendiéndose de él como gato boca arriba. Once años fue la misma historia, hasta que en la Fiesta del Chivo, sucedió el milagro. El Chivo, poco usual en él, sacó una sendas botellas de buen licor, wiskey y brandy de los buenos; claro el Morán, su asesor, le había advertido, -unos buenos vinos, chivo. Así fue, al ver un Carlos I, creó, no estoy muy seguro (brandy, aclaro), me animé a sentir su olor. Lo que es un buen vino, de entrada no lo rechacé. Siguió el otro paso el Chivo me sirvió una copa de la cual repentinamente estaba tomando. El brandy pasó, para quedarse, aunque no lo tomo mucho, prefiero un buen mezcal. Pero hay que estar preparado para todo. Así, en La Fiesta del Chivo, el Chivo contento festejaba su grado y yo mi recuperación. Seguimos con Silvio Rodríguez. Una mujer se ha perdido/conocer el deliro y el polvo/Se ha perdido esta bella locura/su breve cintura debajo de mi/Se ha perdido mi forma de amar/Se ha perdido mi huella en su mar/Veo una luz que vacila/y promete dejarnos a oscuras/Veo un perro ladrando a la luna/con otra figura que recuerda a mi/Veo más, veo que no me halló/Veo más, veo que se perdió/La cobardía es asunto/de los hombres no de los amantes/Los amores cobardes no llegan/ni a amores ni a historias/se quedan allí/ni el recuerdo los puede salvar/ Que me tenga cuidado el amor/que le puedo cantar su canción 909 Boletín El Hijo de El Cronopio Facultad de Ciencias Universidad Autónoma de San Luis Potosí No.81, 19 de junio de 2000 Boletín de información científica y tecnológica de la Facultad de Ciencias Publicación semanal Edición y textos Fís. José Refugio Martínez Mendoza Parte de las notas de la sección Noticias de la Ciencia y la Tecnología han sido editadas por los españoles Manuel Montes y Jorge Munnshe. La sección es un servicio de recopilación de noticias e informaciones científicas, proporcionadas por los servicios de prensa de universidades, centros de investigación y otras publicaciones especializadas. Cualquier información, artículo o anuncio deberá enviarse al editor. El contenido será su responsabilidad. e-mail: flash@galia.fc.uaslp.mx Números anteriores del boletín, pueden consultarse por Internet en la página de la UASLP: http://phobos.dtc.uaslp.mx/publi.html Número Especial XVIII FIS-MAT UASLP CIMAT UAZ UGTO APDC Gustavo del Castillo y Gama En esta ocasión los trabajos del XVIII Concurso Regional de Física y Matemáticas están dedicados a una personalidad que ha contribuido al desarrollo de una de las instituciones que organizan el Concurso. Dr. Gustavo del Castillo y Gama El Hijo de El Cronopio No. 81 El XVIII FIS-MAT como Reconocimiento a: Gustavo del Castillo y Gama El Dr. Gustavo del Castillo y Gama, potosino de origen, estudió química en la Universidad Autónoma de San Luis Potosí, para después trasladarse a la Universidad de Purdue en Estados Unidos en donde obtuvo su doctorado en física, siendo apenas el quinto doctor en ciencias en la especialidad en el país y uno de los primeros, sino el primero, físicos experimentales. Participó en el desarrollo y consolidación de la física en México teniendo un reconocimiento a nivel mundial como científico. Fundó la Escuela de Física de la UASLP, siendo apenas la tercera escuela de física del país. Por su papel en el desarrollo de la, ahora Facultad de Ciencias de la UASLP, se le dedican los trabajos del XVIII FIS-MAT. Breve reseña En la década de los cincuenta, el número de físicos profesionales en México era prácticamente nulo, apenas existían dos escuelas de física en el país. Los pocos físicos que existían se formaban en el extranjero. Tal fue el caso de Gustavo del Castillo y Gama, con formación de ingeniero químico que se trasladó a la Universidad de Purdue, en Estados Unidos, para realizar sus estudios de posgrado, en donde obtuvo su doctorado. Fue allí donde planeó la creación de una escuela de física en la universidad potosina. tiempo después vio cristalizado su proyecto cuando, en el primer semestre de 1955 y, solo con su presencia, comenzaron las actividades del Instituto de Física. Posteriormente, en diciembre de 1955, el Consejo Directivo Universitario, aprobó la creación de la Escuela de Física, misma que inició sus actividades el 5 de marzo de 1956. En la mañana del 5 de marzo de 1956 a las 9:00 horas Gustavo del Castillo y Gama inició su primera clase de física general con una breves palabras de bienvenida para los alumnos y luego entró de lleno en el terreno de la ciencia. Después del inicio de actividades de la Escuela e Instituto de Física de la Universidad Autónoma de San Luis Potosí. Las actividades de investigación se iniciaron con un proyecto sobre física nuclear de altas energías y otro sobre física nuclear de bajas energías. En el primer proyecto se trataba de utilizar la radiación cósmica como fuente de partículas de alta energía para inducir interacciones nucleares en placas de plomo. Para este fin se construyó una cámara de niebla, la primera construida totalmente en México, con sistema de control electrónico. Las pruebas iniciales de funcionamiento del equipo se hicieron a mediados de 1957. En este laboratorio se observaron, por primera vez en México, trayectorias de partículas generadas al interaccionar la radiación cósmica con la materia terrestre. En el artículo: Pruebas preliminares de la operación de la cámara de Wilson y el equipo automático de control, quedaron descritos los resultados 911 El Hijo de El Cronopio No. 81 experimentales iniciales. El artículo se publicó en el número inaugural de la revista Acta Científica Potosina, que publica la Universidad Autónoma de San Luis Potosí. El segundo proyecto estaba encaminado a hacer estudios sobre los llamados coeficientes de conversión interna de algunos isótopos radioactivos pesados. Para llevar a cabo este proyecto fue necesario construir un espectrómetro de centelleo. Los resultados de esta construcción quedaron descritos en el reporte titulado: Diseño y construcción de un espectrómetro de centelleo, publicado en octubre de 1960. Al iniciar las actividades, en 1956, de la Escuela de Física, hoy Facultad de Ciencias, estas estaban relacionadas con el trabajo experimental. Se pensó que era necesario incorporar a los alumnos de Física en el trabajo manual. Para estimular ese gusto por la física experimental, a mediados de 1957, se puso en marcha un programa para el diseño y construcción de cohetes. A partir de entonces y durante más de una década, se trabajo intensamente en este programa cuyos propósitos eran: 1) satisfacer la curiosidad científica de construir objetos que pudieran elevarse más allá de las nubes. 2) aprovechar los artefactos para provocar la lluvia, mediante la detonación de cargas explosivas en el seno de las nubes. 3) estimular el desarrollo de dispositivos de telemetría y control. Aunque el programa no llegó a cumplirse totalmente, el 28 de diciembre de 1957, se lanzó por primera vez en México un cohete con fines científicos, el mismo año en que la ex-Unión Soviética inauguraba la era espacial. Este programa, además de satisfacer los objetivos educativos planteados, sirvió para interesar a la sociedad potosina en las actividades de ciencia realizadas en la UASLP, pues tan espectacular resultó el programa que los periódicos locales y en determinado momento nacionales dieron cuenta, con descripciones detalladas de los experimentos y fotografías espectaculares que dieron la vuelta al mundo, de los lanzamientos de cohetes tan famosos de los estudiantes de física realizados en un lugar al que los periodistas bautizaron como "Cabo Tuna". Esta actividad se inició en 1957 y persistió prácticamente a lo largo de la década de los sesenta. Las noticias de los experimentos trascendieron los límites de San Luis Potosí y se esparcieron por todo el territorio nacional. La calidad de los trabajos de investigación y docencia llevados a cabo en los primeros tiempos de existencia de la entonces Escuela de Física, ahora Facultad de Ciencias de la UASLP, fueron posibles por la personalidad, el entusiasmo y el amor por la física y la ciencia que caracterizan a Gustavo del Castillo y Gama. Crónica de una tradición LOS CONCURSOS REGIONALES DE FISICA Y MATEMATICAS El pasado 26 y 27 de mayo se celebró la dieciocho edición del Concurso Regional de Física y Matemáticas. Este concurso se realiza simultáneamente en las plazas de 912 El Hijo de El Cronopio No. 81 Guanajuato, Gto., Zacatecas, Zac., Saltillo, Coah., Cd. Valles, S.L.P., Rioverde, S.L.P., Matehuala, S.L.P. y San Luis Potosí, S.L.P. El concurso es organizado por el Centro de Investigación en Matemáticas de Guanajuato, la Facultad de Matemáticas de la Universidad de Guanajuato, la Escuela Secundaria de la Universidad Autónoma de Zacatecas, la Academia Potosina de Divulgación de la Ciencia y es coordinado por el Programa Estatal de Divulgación de la Ciencia de la Universidad Autónoma de San Luis Potosí. Esta serie de concursos se inició en el año de 1975, cuando se celebró el I Concurso de Física y Matemáticas para Escuelas Secundarias del Estado de San Luis Potosí. El objetivo principal es el de motivar a la juventud estudiosa y a quienes tienen inclinación por el estudio de las ciencias exactas. La baja población de las carreras científicas, motiva a realizar actividades y emprender estrategias para interesar a jóvenes estudiantes a estudiar una carrera científica. En el año de 1974, en la entonces Escuela de Física de la UASLP, un grupo de estudiantes preparaba un Encuentro Nacional de Escuelas e Institutos de Física y Matemáticas; para tal efecto se llevaron a cabo reuniones previas en diferentes puntos de la República. En San Luis Potosí se efectuó la mayoría de estas reuniones. Para la reunión nacional se tenía prevista la asistencia del Dr. Linus Pauling, premio Nobel de Química. En comunicaciones con Pauling, se platicó sobre la baja población de las escuelas de Física y Matemáticas y las posibles estrategias para aumentar su matrícula. De estas conversaciones surgió la idea de realizar un concurso de Física y Matemáticas, que se efectuaría en San Luis Potosí durante el encuentro, apadrinado por el propio Linus Pauling, quien presidiría la ceremonia de premiación. En este sentido, los compañeros de la Universidad de Sonora tenían un par de años realizando concursos de Física y a nivel internacional existían las Olimpiadas de Matemáticas y las Olimpiadas de Física. Se decidió hacerlo primeramente para estudiantes del ultimo año de las escuelas secundarias y para la organización nos encargamos, en 1974, cuatro alumnos del primer año de la Escuela de Física de la UASLP. La tarea resultó bastante ardua pues fue necesario recorrer, uno a uno, prácticamente todos los grupos de tercero de secundaria de todo el estado de San Luis Potosí. El resultado no podía ser menor: 600 estudiantes de todo el estado se presentaron en la Escuela de Física a participar en el concurso. El encuentro de escuelas no se llevó a cabo y la visita de Linus Pauling se tuvo que suspender; sin embargo, el concurso se llevó a cabo y a partir de entonces se realiza anualmente. Para 1976 se efectuó el II Concurso de Física y Matemáticas para Escuelas Secundarias y el I Concurso de Física y Matemáticas para Escuelas Preparatorias del Estado de San Luis Potosí. Los concursos se realizaron ininterrumpidamente hasta el año de 1978. En este período se efectuaba separadamente el concurso de secundaria y de preparatoria. Durante el período de 1980 a 1986 se efectuaron solamente dos concursos más. El balance en estos primeros concursos puede considerarse positivo, pues la mayoría de los estudiantes que ingresaron a la Escuela de Física de la UASLP, entre 1977 y 1982, lo hicieron después de interesarse mediante su participación en los concursos, ya que antes de ello no tenían pensado estudiar Física. En 1989 reinician los concursos celebrándose el VII Concurso de Física y Matemáticas para Escuelas Secundarias y Preparatorias del Estado de San Luis Potosí, que se efectuó durante la Semana de Física, donde se celebró el 34 aniversario de la fundación de la ahora Facultad de Ciencias de la UASLP. Este concurso fue organizado por el naciente Programa Estatal de Divulgación de la Ciencia, programa que nace en torno a los concursos de Física y Matemáticas y que contempla 913 El Hijo de El Cronopio No. 81 diversas actividades de divulgación científica dirigidas al público en general, con énfasis en el infantil y adolescente. En 1990 el concurso se efectuó a nivel regional y estuvo abierta la participación a cualquier estudiante de secundaria o preparatoria del país. En esa ocasión se celebró el VIII Concurso Regional de Física y Matemáticas, que partir de este momento se celebra simultáneamente en los estados de Guanajuato, Zacatecas, Coahuila y San Luis Potosí y se suman en la organización instituciones de investigación y estudios superiores de estos estados, que son las que se mencionan anteriormente. En los Concursos Regionales han participado, además de estudiantes de los estados mencionados, estudiantes de los estados de Veracruz, Querétaro, Aguascalientes, Durango, Nuevo León y Colima. Los objetivos siguen siendo los mismos y se consideran como una forma de divulgar la ciencia con actividades extraescolares como apoyo al sistema educativo formal. El número de participantes promedio en estos Concursos Regionales es de 550 estudiantes. Otros concursos a nivel nacional son las Olimpiadas Mexicanas de Matemáticas que iniciaron en el año de 1987, organizadas por la Sociedad Matemática Mexicana, y las Olimpiadas Nacionales de Física, las cuales iniciaron en el año de 1990 y son organizadas por la Sociedad Mexicana de Física. En la actualidad abundan certámenes de Física y Matemáticas a tal grado que podrían considerarse una moda y no dudamos que aparezcan más concursos; sin embargo, los Concursos Regionales encierran una tradición muy importante y se han consolidado como eventos de calidad con una frescura que sólo la da la organización independiente. Sus características únicas, en comparación con otros certámenes, lo son el que simultáneamente estudiantes de varios estados, sin necesidad de trasladarse a un solo lugar, concursan al mismo tiempo por lo que los ganadores no requieren presentarse a varias etapas. Esta mecánica garantiza evaluar las habilidades y conocimientos de estudiantes de varios estados al mismo tiempo y por lo tanto bajo las mismas condiciones. Los Concursos Regionales no pretenden ser un parámetro para evaluar la calidad de las instituciones a las que pertenecen los estudiantes que participan en el Concurso. La participación no es institucional, es individual y abierta, en la lista de resultados se mencionan a las instituciones solamente como referencia. Los exámenes son diseñados de tal forma que de ellos se pueda obtener información sobre puntos particulares en la enseñanza de estas disciplinas. En nuestros archivos existe una valiosa información que estadísticamente nos permite hacer estudios sobre la problemática en la enseñanza de la Física y la Matemática en los diversos niveles educativos. De hecho el trabajo desarrollado en la organización de los Concursos Regionales nos ha impulsado a organizar otros eventos relacionados con la enseñanza de las ciencias como son los Congresos Regionales de Enseñanza de Física y Matemáticas, que a la fecha se han realizado en dos ocasiones, en 1990 y en 1993. Por lo anterior, los Concursos Regionales de Física y Matemáticas no son simplemente un certamen aislado donde compiten estudiantes para ver quién es mejor. Forman parte medular de un ambicioso programa de divulgación y enseñanza de las ciencias. El nivel de competencia ha propiciado que, tanto a nivel personal e institucional, exista una preparación especial incidiendo así en el nivel de educación; ha propiciado además, que exista una reflexión sobre los contenidos de estas materias en secundaria y preparatoria y la forma en que son abordados los diversos temas. 914 El Hijo de El Cronopio No. 81 En los primeros concursos los participantes se enfrentaban a un examen tanto de Física como de Matemáticas; a partir de la octava edición, a la fecha, se realizan separadamente los exámenes de Física y Matemáticas; es decir, existen dos concursos para cada una de las categorías (secundaria y preparatoria): el Concurso de Física y el Concurso de Matemáticas. Estos se llevan a cabo en fechas diferentes por lo que un estudiante, de secundaria o preparatoria, puede concursar en Física o en Matemáticas y si así lo desea puede concursar tanto en Física como en Matemáticas. En la actualidad existen tres categorías: Primaria, Secundaria y Preparatoria. En la categoría de primaria existe un sólo concurso: Ciencias Naturales y Matemáticas, en esta categoría pueden concursar exclusivamente estudiantes del sexto año. En las categorías de secundaria y preparatoria existen dos concursos: Física y Matemáticas y pueden concursar estudiantes de cualquier grado de secundaria y preparatoria, aunque el examen está dirigido a estudiantes del último año de secundaria y preparatoria. Existen varios casos de estudiantes de segundo y primero de secundaria que han obtenido primeros lugares en estos certámenes. Si bien los exámenes se basan en los programas oficiales no es un compromiso, por parte del Jurado Calificador, restringirse totalmente al estilo de evaluar estas materias en la mayoría de las escuelas. El Jurado Calificador puede elaborar algunos problemas con un nivel un poco más elevado a fin de detectar estudiantes con habilidades extraordinarias en el manejo de conceptos de Física y Matemáticas. Una manera de premiar el esfuerzo realizado por los estudiantes que logran sobresalir en el concurso es el de ofrecer un reconocimiento público a los jóvenes que obtienen los primeros lugares y entregarles un premio económico que se obtiene parcialmente de los fondos que los propios estudiantes aportan con su cuota de inscripción. Un dato importante es que en la lista de ganadores en los diez primeros lugares de cada categoría aparecen estudiantes de todos los estados participantes, lo que refleja, el alto grado de competencia logrado. En el último concurso se abrió la participación a estudiantes del sexto año de primaria, donde hubo una abundante participación. Con la mecánica presentada en estos concursos regionales se permite a un estudiante participar sucesivamente desde primaria hasta preparatoria. Desde este espacio invitamos a todos los estudiantes a participar y a los maestros interesados a presentar y sugerir problemas y actividades para los concursos. El Cabuche (crónicas de la Facultad de Ciencias)/ El padrino Yo sé quién estará preparándose para darse por adulido, pero antes de iniciar quiero aclararle que esta historia no tiene nada que ver con él; padrino al fin y muy a su orgullo, yo lo sé, adora a su ahijada, pero no hablaré de él. Esta historia es una historia, que aunque no está enterrada, sí tiene que ver con el curso de la Vía Láctea y marca el principio de una aventura que continua hasta nuestros días. Año de 1974, muy presente tengo yo, en un salón de la escuela… Ya hasta parece canción y aún no terminamos. En el otoño de 1974 se llevaban a cabo en la entonces Escuela de Física, una serie de reuniones de estudiantes de escuelas de física y de matemáticas de todo el país; las reuniones se prolongaron durante algunos meses: La visita de consejos estudiantiles y sociedades de alumnos en nuestra escuela, al parecer era impulsada por el Pozoles, 915 El Hijo de El Cronopio No. 81 Victor Araujo, al menos, por parte de San Luis, era de los más movidos en dichas reuniones; quien conoce al Pozoles no se le hará extraña su dinámica. El objetivo de las reuniones nacionales era el de crear un Consejo Estudiantil de Escuelas de Física y Matemáticas de la República Mexicana, para lo cual se organizaría un Encuentro Nacional de Estudiantes de Escuelas de Física y Matemáticas; a dichas reuniones asistían prácticamente representaciones de todas las escuelas de física y matemáticas de la época. Aunque algunas reuniones se programaron en otras entidades, nuestra Escuela-Facultad se convirtió en el centro de operaciones. En septiembre de 1974 ingresamos a la Escuela de Física, Medellín, Mora y yo, digo, de los que ustedes conocen, en realidad éramos 10 estudiantes que en menos de quince días se convirtieron en 60, debido al reacomodo de rechazados de otras escuelas de la universidad; situación que fue muy común durante muchos años, ahora hasta nosotros mismos tenemos rechazados. Para noviembre de 1974 empezó a circular un escrito impreso en cartulina con el título Importancia de las Facultades de Ciencias, que después de un rollote, (esto dicho en el buen sentido ya que el escrito es sumamente interesante y además de actualidad) era rubricado por el Consejo Estudiantil de la Escuela de Física de la UASLP, el Consejo Estudiantil de la Facultad de Física y Matemáticas de la Universidad Autónoma de Nuevo León y la Sociedad de Alumnos de la Escuela de Matemáticas de la Universidad de Yucatán; pues sí, casi de frontera a frontera pasando por San Luis. El cartel era adornado por el bonito escudo de nuestra Escuela-Facultad; de acuerdo a mi maldita manía de guardar cosas aún conservo uno de estos carteles. En ese inter se formó el Consejo Estudiantil Provisional de Escuelas de Física y Matemáticas de la República Mexicana, que tenía como misión organizar el encuentro y estructurar una representación estudiantil nacional; el consejo estudiantil provisional quedó integrado por representantes de las Escuelas de: Física y Matemáticas de la Universidad de Sonora, Facultad de Física y Matemáticas de la Universidad Autónoma de Nuevo León, Escuela de Física de la Universidad Autónoma de San Luis Potosí, Escuela de Física de la Universidad San Nicolás de Hidalgo de Morelia, Michoacán, Escuela de Física y Matemáticas de la Universidad Autónoma de Puebla, Escuela de Física y Matemáticas de la Universidad Veracruzana, Escuela de Matemáticas de la Universidad de Yucatán y la Escuela de Física y Matemáticas del Instituto Tecnológico de Estudios Superiores de Monterrey. Se fijan que memoria; y los nombres de los representantes eran… ¡que dijeron! No es que tenga buena memoria lo que pasa es que también tengo en mi poder algunas de las hojas tamaño oficio que se imprimieron para correspondencia y comunicaciones necesarias, hasta uno que otro sobre anda por ahí, aún. Nosotros, con la dura tarea de adaptarnos a la escuela, sólo nos asomábamos a las reuniones de vez en cuando, esporádicamente entrábamos a escuchar las discusiones y enterarnos de la problemática de las escuelas de ciencia del país. Por el mes de noviembre de 1974 al intentar asomarnos al aula Enrico Fermí, que en el antiguo edificio se encontraba casi a la entrada de la escuela, y que además era la más grande; recuerden que una de ellas la P.A.M. Dirac ahora llamada el corral, funciona como cubículo de un chivo y un conejo, decía que al intentar asomarnos, salió el Pozoles y dirigiéndose a nosotros nos explicó parte de los planes que tenían para desarrollar actividades y eventos académicos paralelos al famoso Encuentro Nacional de Estudiantes que estaba en ciernes. Nos explicó que en pláticas con Linus Pauling, Premio Nobel de Química, sobre la problemática de la baja matrícula en carreras como la física y la matemática, Linus, nuestro cuate, sugería se realizara un concurso de física y 916 El Hijo de El Cronopio No. 81 matemáticas, explicaba que ese tipo de eventos había dado buenos resultados, prácticamente en todo el mundo, no sólo como catalizador para elevar la matrícula de las escuelas de ciencia, sino como agente para promover y elevar la calidad de la enseñanza de las ciencias. El Pozoles entusiasmado nos trataba de enboletar en dicha empresa; -¿por qué no se encargan ustedes, de ese rollo? –Pauling hablará mañana y necesitamos definir el asunto. La idea, nos seguía sermoneando el Pozoles, es convocar a estudiantes de secundaria o preparatoria a nivel nacional a que participen en un concurso, para eso la raza de Sonora que ya organizan uno regional, les ayudaría; Linus Pauling, estará trabajando con ustedes y apadrinará el evento, él entregará personalmente los premios del concurso y dictará algunas conferencias dirigidas a los chavos. -Para que empiecen a programar pueden organizar uno local, en el cual el mismo Pauling se involucraría. – Decídanse y mañana se lo comunicamos a Pauling. Ahí, en caliente, a las afueras del Enrico Fermi, alumnos del primer año nos echamos a cuestas la empresa de organizar concursos de física y matemáticas y tener la oportunidad de trabajar apadrinados por nada más y nada menos que el laureado con el Nobel, Linus Pauling. Ni tardos ni perezosos iniciamos los preparativos; en principio todos los detalles de la organización y la estructuración del concurso quedó en nuestras manos. Ahí nos tienen redactando una convocatoria con los detalles de los requisitos para participar en el concurso y prometiendo jugosos premios en efectivo para los tres primeros lugares. Como primer paso se decidió realizar el concurso dirigido sólo a estudiantes de tercer año de secundaria del estado; la segunda parte consistiría en organizar uno a nivel nacional. En ambos eventos, tal como lo dijera el Pozoles, estaría participando junto con nosotros, a manera de padrino, Linus Pauling. En poco tiempo teníamos la cartulina que promocionaba el concurso que se llamó Primer Concurso de Física y Matemáticas para Escuelas Secundarias del Estado de San Luis Potosí. El compromiso ya era oficial, sobre todo lo prometido para los premios, los cuales ascendían a la friolera de cinco mil pesotes, de aquellos. Posteriormente la realización del encuentro nacional fue diluyéndose, bien a bien, no sé que derroteros fue tomando el asunto, pero eso significó que los eventos académicos paralelos, fueran también quedando de lado. Nuestro problema ahora era el famoso concurso; ¿qué pasaría con el concurso convocado? Como el proyecto inició con cierta autonomía continuamos con nuestro trabajo; tan entusiasmados estábamos que nuestro objetivo era culminarlo a como diera lugar; al estar tan metidos en la organización y en la logística, las comunicaciones con Pauling se interrumpieron. Decidimos seguir con la aventura, y hacer la promoción en todo el estado; el resultado fue satisfactorio: un mar de disímbolos uniformes inundaron la escuela, hubo necesidad de habilitar espacios para dar cabida a casi 600 estudiantes de secundaria, de prácticamente todo el estado. Parte de la proeza estaba realizada, faltaba lo bueno, la marmaja para los premios. Como el evento quedó completamente independiente al no realizarse el encuentro nacional y al perder la comunicación con Pauling, nos correspondía conseguir los cinco mil pesos. Ahí nos tienen tocando npuertas haciendo la coperacha para los premios. El Gobierno del Estado, como siempre, participó sólo en los rollos. El Club de Leones se mochó con una buena feria y, hasta a cenar nos invitaron en una de sus reuniones, claro tuvimos que chutarnos su sesión de trabajo, pero respondieron como esperábamos; una buena cantidad de negocios aportaron su granito de monedas y después de tres meses de estirar el pandero, logramos completar los cinco mil pesos y cumplir con lo prometido. Tamaño ajetreo podría habernos 917 El Hijo de El Cronopio No. 81 inducido a dejar el asunto como una experiencia más; pero pudo más el placer de involucrarse en una empresa que satisfacía nuestros ímpetus por contribuir a la difusión de la ciencia y estimular a la juventud estudiosa del estado y a quienes tienen inclinación en el estudio de las ciencias exactas, tal como rezaba el objetivo plasmado en el cartel de promoción. Para el siguiente año se convocó al II Concurso de Física y Matemáticas para escuelas Secundarias y al I Concurso de Física y Matemáticas para escuelas Preparatorias; como uno no entiende nuevamente se ofrecieron los cinco mil pesos en premios, aunque ahora dividido en ambos concursos. El éxito nuevamente fue estimulante y de ahí pal real la aventura continuo a traspiés, pero continua hasta nuestros días, cuando nos preparamos para celebrar el XVII Concurso Regional de Física y Matemáticas (dedicado en esta ocasión al trabajo realizado por el Dr, Joel Cisneros Parra, de todos conocido, y de Helga Fetter investigadora del CIMAT de Guanajuato), en modalidades un poco diferentes a las iniciales, ahora se efectúa a nivel regional y se realiza simultáneamente en los estados de San Luis Potosí, Zacatecas, Guanajuato y esporádicamente en Coahuila y Chihuahua; coordinado por nuestra Facultad de Ciencias. Ahora el concurso está dirigido a estudiantes de primaria, secundaria y preparatoria. Aunque Linus Pauling, ya fallecido, tuvo una participación, a larga distancia y por teléfono, lo seguimos y lo seguiremos considerando como el padrino de los concursos. Como ya lo dijera Silvio Rodríguez, el cantor y el poeta. Nació de una tormenta/en el sol de una noche, el penúltimo mes;/fue de planeta en planeta/buscando agua potable,/quizá buscando la vida/o buscando la muerte, eso nunca se sabe;/quizá buscando siluetas, o algo semejante/que fuera adorable/o por lo menos querible, besable, vaya, amable. En las siguientes páginas del Boletín encontrarán la compilación de los exámenes diseñados para este XVIII FIS-MAT, así como la lista de resultados en todas las categorías y concursos que conforman esta edición del FIS-MAT, dedicado al Dr. Gustavo del Castillo y Gama, fundador de la Escuela e Instituto de Física de la Universidad Autónoma de San Luis Potosí. La escuela ahora denominada Facultad de Ciencias de la UASLP. 918 Boletín El Hijo de El Cronopio Facultad de Ciencias Universidad Autónoma de San Luis Potosí No.82, 26 de junio de 2000 Boletín de información científica y tecnológica de la Facultad de Ciencias Publicación semanal Edición y textos Fís. José Refugio Martínez Mendoza Parte de las notas de la sección Noticias de la Ciencia y la Tecnología han sido editadas por los españoles Manuel Montes y Jorge Munnshe. La sección es un servicio de recopilación de noticias e informaciones científicas, proporcionadas por los servicios de prensa de universidades, centros de investigación y otras publicaciones especializadas. Cualquier información, artículo o anuncio deberá enviarse al editor. El contenido será su responsabilidad. e-mail: flash@galia.fc.uaslp.mx Números anteriores del boletín, pueden consultarse por Internet en la página de la UASLP: http://phobos.dtc.uaslp.mx/publi.html Listo el primer mapa del genoma humano En un anuncio largamente anticipado, los líderes científicos y políticos de la carrera por el desciframiento del genoma humano anunciaron ayer la consecución de un 'borrador de trabajo' del instructivo molecular de la vida ¿Agua en Marte? Sí, es una posibilidad Las huellas de posibles corrientes de agua en el suelo marciano son sugerentes, pero no hay que apresurarse Noticias de la Ciencia y la Tecnología El Hijo de El Cronopio No. 82 Noticias de la Ciencia y la Tecnología * Science publicará reporte Sonda espacial halla en Marte indicios de agua Ap, Washington, 21 de junio * La sonda Global Surveyor, dedicada a la exploración de Marte, transmitió información a la Tierra sobre posibles indicios de la existencia de agua en la superficie del planeta rojo, lo cual incrementa la posibilidad de hallar vida, de acuerdo con versiones de expertos. Las fuentes, que prefirieron mantener el anonimato, confirmaron que Global Surveyor ha detectado pruebas "de los efectos del agua superficial". Mayores detalles del estudio serán publicados el fin de semana en la revista Science, dijeron las fuentes que, sin embargo, advirtieron que los hallazgos son preliminares y deben ser confirmados por investigaciones más profundas. Un portavoz de la Agencia Nacional de Aeronáutica y del Espacio (NASA) declinó hacer comentarios, al igual que la revista Science. La búsqueda de agua en Marte es el principal objetivo de la NASA en su exploración de ese planeta. Si hubiese agua, señalan los expertos, hay mayores posibilidades de que exista algún tipo de vida primario. ¿Agua en Marte? Sí, es una posibilidad Las huellas de posibles corrientes de agua en el suelo marciano son sugerentes, pero no hay que apresurarse Por MARTIN BONFIL OLIVERA/ Reforma Una de las desventajas del científico frente a quienes practican otras actividades más espectaculares es que muchas veces tiene que decir "no sé" o "no es seguro". Es más: a veces el científico, en su afán de ser cauto, se ve enfrentado con el periodista ansioso por conseguir una noticia. La observación viene al caso respecto a la noticia que circuló el pasado miércoles 22 de junio por todo el mundo: la NASA tenía fotografías, obtenidas por la sonda espacial Mars Global Surveyor, en la que se apreciaban formaciones geológicas que sugerían fuertemente la presencia de agua corriente en el planeta rojo. Aunque la información no debía hacerse pública sino hasta el próximo 30 de junio -cuando sería publicada, en forma de un artículo científico, en la revista Science, un 931 El Hijo de El Cronopio No. 82 "fuente no identificada" en la NASA dio a conocer el hecho a los medios, donde fue publicada primero en internet y posteriormente en boletines, periódicos y noticieros. Sin embargo, al parecer la información que circuló no era totalmente correcta. En un comunicado emitido por Science, ante el alud de notas que aparecían por todo el mundo, se afirmaba que las notas publicadas en los medios tenían "diversos grados de exactitud". Por su parte la NASA misma precisó que las informaciones difundidas por varias páginas de información espacial en internet habían sido "incorrectas en áreas significativas". En vista de lo anterior, Science decidió poner el jueves 22 toda la información a disposición del público, "debido a la extrema atención por parte de los medios y a las inexactitudes presentes en algunos de los primeros reportes noticiosos". La NASA, por su parte, organizó en la mañana del mismo día una mesa redonda en la que varios expertos discutieron los hallazgos. Los hechos ¿Por qué tanto escándalo? El artículo de Science presenta el análisis que realizaron Michael S. Malin y Kenneth S. Edgett de más de 20 mil imágenes obtenidas por la Cámara Orbital Marciana, a bordo de la sonda espacial Mars Global Surveyor, donde detectaron alrededor de 150 imágenes de formaciones geológicas que resultan muy similares a las que, en la tierra, son resultado de la erosión por corrientes de agua. Las evidencia fotográfica, que incluye imágenes de canales y redes de pequeños valles en las laderas de riscos marcianos, podría interpretarse como evidencia de que "agua líquida podría haber sido estable en el ambiente de la superficie en algún momento del pasado", reportan los científicos en Science. De acuerdo con el investigador Miguel Ángel Herrera, del Instituto de Astronomía de la UNAM, este tipo de hallazgo "no es novedoso; ese tipo de formaciones se conocen desde hace años, desde las primeras imágenes de los setenta y tantos, con las sondas Mariner. De hecho, el lugar al que se escogió enviar al Viking en 1975, con su laboratorio de pruebas biológicas para detectar vida en Marte, se situó en la desembocadura de supuestos ríos". Sin embargo, los nuevos hallazgos resultan interesantes porque las imágenes analizadas por Malin y Edgett apuntan a "una historia más compleja": los atributos de estas formaciones incluyen tres características que son consistentes con un "movimiento de masa impulsado por un fluido". Se trata de huecos en la parte superior de los riscos, de los cuales surgen una serie de canales que terminan en estructuras inferiores en las que se deposita el material transportado por el supuesto flujo. Este tipo de formaciones suelen ser producidos por flujos del tipo de las cascadas o los ríos subterráneos que salen a la superficie al encontrarse con un risco. Más importante es el hecho de que estas estructuras parecen ser de formación reciente. Esto se infiere del hecho de que las estructuras observadas no presentan huellas de haber sido golpeadas por meteoritos, y en algunos casos parecen superponerse a otros relieves, más antiguos, de la superficie marciana. "La ausencia de cráteres de impacto sugiere que las formaciones son geológicamente jóvenes", afirman los autores del artículo. "Geológicamente jóvenes", sin embargo, no necesariamente es poco tiempo. Según declaró Malin en un comunicado de la Asociación Norteamericana para el Avance de la Ciencia --editora de Science--, "estos barrancos podrían tener una edad del orden de un millón de años, o podrían haberse formado ayer". Las estimaciones anteriores, como las basadas en las imágenes obtenidas por la misión Mariner 9, de 1972, hacían suponer que 932 El Hijo de El Cronopio No. 82 pudo haber flujo de agua líquida en Marte hace no millones, sino miles de millones de años. Los problemas El problema con la sugerencia de flujos de agua actuales o relativamente recientes en Marte es que, debido a la tenue atmósfera de este planeta --y la consiguiente baja presión atmosférica-- es imposible la existencia de agua líquida, pues ésta se evapora inmediatamente. Ésta es, en opinión de Herrera, una de las principales dificultades que plantean las afirmaciones de Malin y Edgett: "Para formar canales así en un risco se necesitan miles de años de flujo. Por lo que sabemos hasta ahora, la atmósfera no lo permite. Yo no lo creería, así a prori. Se requiere mucho tiempo de flujo y un flujo muy grande, muy considerable. Veo improbable que haya ocurrido en fechas recientes, a menos que la atmósfera haya cambiado mucho en tiempos recientes". En un texto que será también publicado en Science el 30 de junio, el geólogo Kenneth L. Tanaka coincide: "si los análisis adicionales confirman las conclusiones de Malin y Edgett… entonces algún evento muy inusual sucedió en Marte en el pasado reciente", comenta, debido a que hasta ahora se pensaba que las condiciones que permiten la existencia de agua líquida sólo estuvieron presentes durante los primeros miles de millones de años de la historia del planeta. Los autores del texto señalan que la gran mayoría de las formaciones se encuentran presentes en latitudes del planeta donde la temperatura es más baja, lo cual ayudaría a explicar por que el agua no se evaporaría tan rápidamente como en otros sitios, más expuestos al calor solar. El modelo Para justificar sus afirmaciones, Malin y Edgett proponen un modelo "simplista" que justifica su propuesta de que es el flujo de agua el responsable de las formaciones. En este modelo, el agua estaría presente en una capa porosa subterránea de relativamente poca profundidad --sugerencia que ya se había considerado anteriormente—, donde es mantenida en estado líquido debido a la presión de las capas superiores del suelo marciano. Conforme esta agua fluye, llega a encontrarse con riscos, en donde surge produciendo las depresiones superiores observadas en las formaciones marcianas. Este mecanismo produciría también caída de material que se acumularía en la parte inferior de las formaciones. Conforme el agua surgiera, la baja temperatura marciana ocasionaría que se congelara, formando una barrera de hielo que impediría la salida de más agua. Dentro de esta barrera, la presión se iría acumulando hasta que se produjera una salida de una mezcla de hielo, agua líquida y restos de roca, lo que podría explicar las formaciones observadas. Donde hay agua, ¿hay vida? Los hallazgos del Mars Global Surveyor, junto con las interpretaciones de Malin y Edgett, proporcionan un incentivo más para continuar con la exploración de Marte. En el 2001, la NASA lanzará un orbitador espacial con óptica infrarroja que examinará --entre otras cosas-- los supuestos sitios de salida de agua en busca de evidencia de su flujo. Y es posible que en el 2003 se lance una misión a Marte que podría analizar también los sitios señalados en el artículo de Science. 933 El Hijo de El Cronopio No. 82 La existencia de agua disponible en Marte podría ser de gran utilidad para establecer una base en ese planeta, pues además de utilizarse para la supervivencia podría usarse en celdas de combustible para generar energía en cantidades modestas, o descomponerse en hidrógeno y oxígeno que servirían como combustible espacial. Sin embargo, investigadores de la NASA, al igual que redactores en los diversos medios de comunicación, se han apresurado a hacer afirmaciones que van mucho más allá. "La presencia de agua líquida en Marte tienen profundas implicaciones para la cuestión de la vida, no sólo en el pasado, sino incluso ahora", declaró en un comunicado Ed Weiler, de la NASA. "Si alguna vez se desarrolló la vida ahí, y si sobrevive hasta el presente, estas formaciones del terreno serían los lugares ideales para buscarla". Ante declaraciones de este tipo, Miguel Ángel Herrera tiene su propia opinión: "Yo soy muy escéptico en estas cosas; estamos en la época del show: se habla de que el universo es plano, de que las estrellas más viejas son más viejas que el propio universo, de que un meteorito contiene bacterias marcianas, y al final se demuestra que no había evidencia fuerte. Hay que cuidarse mucho de esas noticias, hay que ser muy escéptico". "Muchos científicos --continúa el también divulgador científico-- hoy están buscando hacerse propaganda, hacerse famosos. Hay que tener mucho cuidado, porque hay una fuerte tendencia a encontrar el lado espectacular de la noticia, más como noticia que como información científica". Listo el primer mapa del genoma humano En un anuncio largamente anticipado, los líderes científicos y políticos de la carrera por el desciframiento del genoma humano anunciaron ayer la consecución de un 'borrador de trabajo' del instructivo molecular de la vida Por JAVIER CRÚZ/ Reforma En una reunión marcada por las conjunciones, el Presidente de Estados Unidos, el Primer Ministro de la Gran Bretaña y los dos líderes hasta ayer en "competencia científica" por el desciframiento del genoma humano emplearon 5 mil 541 palabras --en inglés-- para describir una historia que cabe toda en un alfabeto de sólo cuatro letras: A, C, G y T. "Estamos aquí para celebrar la compleción del primer mapa del genoma humano entero", anunció el Presidente de los Estados Unidos, Bill Clinton, desde la Casa Blanca, acompañado mediante un enlace vía satélite por el Primer Ministro de la Gran Bretaña, Tony Blair, y en persona por Francis Collins, director del Instituto Nacional de Investigaciones del Genoma Humano, y Craig Venter, presidente de la compañía Celera Genomics. "Sin duda alguna, este es el mapa más importante, más maravilloso jamás producido por la humanidad", celebró Clinton. En México, el doctor Francisco Bolívar Zapata, del Instituto de Biotecnología de la UNAM, dijo a REFORMA que "este desarrollo es trascendente para la preservación de las especies, incluyendo a la humana". Al acercarnos al punto de conocer los 80 mil genes del genoma, dónde están y de qué proteínas son responsables, dijo, nos acercamos también a mejores tratamientos para afecciones tales como la diabetes o el mal de Alzheimer. "Curación" se escribe con cuatro letras En el léxico de la genética, con esas cuatro letras --que representan a sendas bases químicas: Adenina, Citosina, Guanina y Timina-- se "escribe" el instructivo entero del 934 El Hijo de El Cronopio No. 82 código genético de lo que llamamos raza humana, codificado en secuencias que forman "palabras": los genes. Conocer esas palabras y el orden preciso en que aparecen en el genoma -apropiadamente llamado "el libro de la vida"-- ha sido la meta del Proyecto del Genoma Humano (PGH) desde su concepción, a mediados de los años 80. Gracias a los avances tecnológicos generados por el propio proyecto, y a la competencia que en los últimos 18 meses ha significado la incorporación a la carrera de la empresa privada Celera Genomics, las metas iniciales han ido cumpliéndose de forma anticipada. En un comunicado, el PGH afirma que, a un ritmo de mil bases de secuencia "en bruto" por segundo, 24 horas al día y 7 días a la semana, se ha alcanzado este "borrador de trabajo". "Aproximadamente 50 por ciento de la secuencia genómica está casi en 'forma terminada' y 24 por ciento ya lo está", informa el documento. "A lo largo del genoma, un segmento promedio de ADN reside en una secuencia continua, sin interrupciones, de unas 200 mil bases. La precisión promedio de toda la secuencia de ADN en este ensamblaje es de 99.9 por ciento". La fecha para alcanzar la meta de convertir al borrador en la secuencia completa ha sido adelantada al año 2003, en el entendido de que secuenciar el 3 por ciento restante será casi tan difícil como haberlo hecho con el 97 por ciento que ya se tiene. "Son secuencias altamente repetitivas", explicó Bolívar, lo cual dificulta distinguir su ubicación y sus funciones. Lo cual no obsta para que los científicos se precipiten, con optimismo y voracidad, sobre el borrador. "Más de una docena de genes, responsables de enfermedades que van de la sordera a los malestar renales, al cáncer, ya han sido identificados durante el año pasado", dijo Collins. Venter, por su parte, le echó más proteínas a su optimismo: "Hay cuando menos el potencial para reducir a cero el número de muertes por cáncer durante nuestras vidas", aventuró. Las obligaciones Un tema recurrente en las intervenciones de los políticos como de los científicos fue el de las responsabilidades sociales por el uso de la información genético en beneficio de la humanidad entera. "Todos nosotros compartimos la obligación de asegurar que la propiedad común del genoma humano sea usada libremente para el bien común de toda la raza humana", dijo el Primer Ministro Blair. "Para asegurar que se haga uso (de la información) para transformar la medicina, y no abuso para hacer del hombre su propio creador o para invadir la privacía individual". Tecnología contra el robo Los ladrones lo van a tener mucho más difícil para robar un coche a partir de ahora. Incluso antes de que usted descubra que su automóvil ha sido sustraído, el ladrón podría haber sido ya atrapado por la policía. Al menos esto es lo que promete una nueva tecnología de comunicaciones vía satélite desarrollada por ingenieros del TechnionIsrael Institute of Technology. Coches y máquinas expendedoras, pero también líneas eléctricas y tuberías de transporte de gas, por ejemplo, pueden ahora ser controladas 935 El Hijo de El Cronopio No. 82 constantemente desde una unidad central. Cualquier cambio en su situación será rápidamente notificado, permitiendo tomar las medidas oportunas. El invento consiste en una unidad compacta que crea una red global de seguimiento, sin que sea necesario utilizar las líneas telefónicas habituales o Internet, ya que emplea directamente satélites para las interconexiones. Esto reduce en gran media los retrasos de minutos e incluso horas que implican la recepción de mensajes a través de otros medios. Las empresas son cada vez más grandes y operan de una forma más global, de manera que necesitan métodos de vigilancia de su infraestructura. Las compañías eléctricas disponen de transformadores, líneas, etc., en lugares relativamente remotos que es preciso tener bajo control. Los satélites, conocidos por su capacidad de envío de grandes cantidades de datos, también pueden ser empleados para transmitir información menos abundante pero al mismo tiempo crítica. Esto puede llevarse a cabo mediante pequeñas antenas y transmisores de baja potencia. Un modem especial es capaz de enviar la información hacia el satélite y de allí a la estación central en cuestión de segundos, y también recibir instrucciones con la misma celeridad. El modem, llamado Smart 2000, tiene un coste inferior a los empleados en la actualidad para conexiones vía satélite y es totalmente programable. En su aplicación como antirrobo, se denomina Car-Smart 2000 y actúa en combinación con una alarma y un receptor GPS. Cuando se produce un robo, la alarma se dispara, activando el modem y enviando una señal a través del sistema de satélites hasta el centro de recepción. La señal contiene información constantemente actualizada de la posición del vehículo gracias al receptor GPS, de manera que la policía puede localizarlo de inmediato. El sistema puede emplearse también para controlar los movimientos de cargas que debamos enviar a grandes distancias, ya sea por mar o por vía aérea, para vigilar máquinas expendedoras, para localizar excursionistas extraviados, para aplicaciones de seguridad doméstica, etc. Información adicional en: http://www.ats.org/v2/News/2000_News/ns052000/ns052000.html http://www.technion.ac.il Imagen: http://www.ats.org/v2/News/2000_News/040700p1.jpg (El modem, junto a su inventor, Zvi David.) (Foto: Shlomo Shoham) Una razón mas para dejar de fumar El consumo de tabaco tiene una consecuencia adicional que implica la supresión de algunas de las defensas naturales frente a las enfermedades cardíacas. El riesgo de ataque al corazón se incrementa exponencialmente cuando nuestras arterias quedan bloqueadas. Los fumadores parecen sufrir con mayor frecuencia este tipo de enfermedades, de manera que los médicos han intentado encontrar una relación entre ambos. El resultado es esclarecedor. El tabaco no produce directamente los ataques al corazón, pero sí colabora para que el cuerpo no pueda defenderse ante su amenaza. Según la American Heart Association, el riesgo de ataques en los fumadores duplica el de los no fumadores. Un estudio estadístico de 596 personas que sufrieron enfermedades coronarias ha permitido descubrir una crucial diferencia entre ambos: los fumadores poseían una mucho menor concentración del antioxidante paraoxonasa en la sangre. 936 El Hijo de El Cronopio No. 82 Los antioxidantes tienen una función muy importante, ya que se ocupan de controlar la actividad de los radicales libres, moléculas inestables que se producen durante la oxidación. Estos radicales pueden dañar las células. Por ejemplo, cuando ciertas grasas como el colesterol son oxidadas, producen placas que obturan los vasos sanguíneos, aumentando la probabilidad de un infarto. Los fumadores ven reducida la cantidad de antioxidantes en su sangre, de modo que el colesterol incrementa su presencia. Por fortuna, los niveles de paraoxonasa vuelven a crecer rápidamente en cuanto se deja de fumar, de manera que en un par de años el cuerpo puede volver a defenderse de manera natural contra la acción del colesterol. El daño producido, sin embargo, puede ser ya irreparable. El tabaco, pues, continúa siendo uno de los principales factores de riesgo para contraer enfermedades del corazón. Además de reducir la presencia de antioxidantes, produce por sí mismo radicales libres que incrementan la oxidación del colesterol, lo que empeora aún más la situación. No sólo los fumadores poseen niveles bajos de antioxidantes. También los diabéticos o las personas de avanzada edad pueden verse afectados, de manera que su probabilidad de sufrir infartos es superior a la media. Retrato de familia Aprovechando la reciente alineación planetaria, el satélite SOHO ha fotografiado varios de los componentes del sistema solar en una sola imagen. La alineación planetaria que se ha estado produciendo durante las últimas semanas ha hecho correr ríos de tinta. Para los científicos del programa de investigación del observatorio SOHO, sin embargo, ha sido sólo una oportunidad más de demostrar las capacidades de su vehículo. Una de las particularidades de la alineación es que varios de los planetas se encuentran muy juntos en el cielo, pero demasiado próximos al Sol en apariencia como para ser observados directamente. Por fortuna, el SOHO es un satélite diseñado precisamente para fotografiar nuestra estrella y sus instrumentos pueden orientarse hacia ella sin ningún problema. Gracias a ello, la cámara LASCO C3 ha podido obtener un raro retrato en el que Mercurio, Venus, Júpiter y Saturno (junto al Sol), pueden ser contemplados dentro del mismo campo de visión. La imagen se obtuvo el 15 de mayo. La cámara LASCO está dotada de un sistema especial (coronógrafo) que enmascara la luz solar, permitiendo apreciar claramente el espacio inmediato que rodea al astro. Ha sido este dispositivo el que ha posibilitado el descubrimiento de cometas cayendo sobre la superficie del Sol. Su campo de visión, unos 15 grados, ha resultado ser además lo bastante ancho como para que los cuatro planetas citados puedan aparecer simultáneamente en su interior. El SOHO, construido en Europa para la Agencia Espacial Europea y la NASA, se encuentra situado a 1,5 millones de kilómetros de la Tierra, en una posición estable que le permite una visión continua y sin obstáculos del Sol. En la imagen, Mercurio es el planeta más cercano, a 60 millones de km de distancia (Venus se encuentra al otro lado del Sol), y Saturno el más alejado (1.400 millones de km). Información adicional en: http://sohowww.estec.esa.nl/hotshots/ http://sci.esa.int/content/news/index.cfm?aid=1&cid=1&oid=18595 http://sci.esa.int/content/news/index.cfm?aid=14&cid=2097&oid=12363 937 El Hijo de El Cronopio No. 82 Imagen: http://sohowww.estec.esa.nl/hotshots/2000_05_03/lasco_c3v3.jpg (El retrato de familia.) (Foto: ESA/NASA) http://sohowww.estec.esa.nl/hotshots/2000_05_03/diagram1.jpg (Posiciones de los planetas en el momento de la observación fotográfica.) (Foto: ESA) Volcán submarino activo Los científicos han encontrado un volcán activo al este de la isla de Samoa. Su principal característica es que se encuentra bajo el océano. Geólogos marinos de la Woods Hole Oceanographic Institution y de la Scripps Institution of Oceanography han confirmado la existencia de un volcán submarino que presenta una clara actividad. El volcán, que ha sido bautizado como Vailulu'u por estudiantes locales, se encuentra al este de Samoa, a unos 45 km de la isla de Ta'u. Según los cálculos, se eleva unos 5.000 metros sobre el lecho oceánico, quedando su cima a unos 600 metros por debajo del nivel del mar. La gran montaña había sido ya investigada el año pasado, pero los científicos retornaron a la zona en marzo para confirmar que efectivamente se encuentra en plena erupción. Para ello se empleó un barco situado sobre la vertical del volcán, el cual arrastró un instrumento ideado para medir el grado de turbiedad de las aguas (el número de partículas en suspensión en la columna de agua). En efecto, el volcán presenta una especie de halo semejante al "smog" de las grandes ciudades que se extiende más allá de 7 km a la redonda. El barco utilizado es el U.S.Coast Guard Icebreaker Polar Star, un rompehielos que acababa de regresar de la Antártida. Los helicópteros del Polar Star recogieron a los científicos en Fiji, el 19 de marzo, y al día siguiente llegó sobre la vertical del Vailulu'u. Las mediciones indican que su cráter tiene unos 2.000 metros de diámetro y unos 400 metros de profundidad. Además del grado de turbiedad de las aguas, se midió la temperatura y la salinidad. La capa de "smog" fuera del cráter quedó situada entre los 600 y los 800 metros de profundidad. Las corrientes oceánicas se encargan de dispersarlo constantemente. Se recogieron muestras de agua para analizar su contenido químico. Asimismo, se desplegaron cinco hidrófonos (micrófonos subacuáticos) sobre el volcán, incluyendo la base del cráter. Dichos micrófonos escucharán los posibles terremotos que se produzcan hasta que vuelvan a ser recogidos esta primavera. Si es posible organizar otra expedición, los científicos desean ahora utilizar submarinos y vehículos operados de forma remota. Se buscarán salidas de gases calientes y quizá comunidades biológicas asociadas. Se trazarán también mapas de los flujos de lava, que se solidifica en cuanto entra en contacto con el agua, para ayudar a conocer mejor cómo estos procesos pueden llegar a producir nuevas islas. Información adicional en: http://www-pacer.ucsd.edu/avon/pressreleases.htm Imagen: http://www-pacer.ucsd.edu/avon/images/Faafafine.180m.3D.smnt.jpg Virus para su teléfono móvil La creciente sofisticación de la telefonía móvil la hace al mismo tiempo vulnerable a sufrir ataques semejantes a los que padecen los ordenadores conectados a Internet. 938 El Hijo de El Cronopio No. 82 Las compañías de desarrollo de la próxima generación de teléfonos móviles nos han prometido grandes sorpresas. Su funcionalidad será muy avanzada. Para ello, serán dotados de sistemas de programación que facilitarán el acceso a Internet, el pago electrónico, la grabación de conversaciones, etc. Sin embargo, esta sofisticación tendrá un precio. Los especialistas en ordenadores advierten que los teléfonos móviles serán entonces vulnerables a futuros virus informáticos. La grabación de conversaciones podría efectuarse de forma involuntaria, por ejemplo, y su contenido enviado a terceras personas sin nuestro conocimiento. Además, el dinero de nuestros monederos electrónicos podría desaparecer o alguien podría cargar sus facturas telefónicas a la nuestra. En un mundo donde el uso del teléfono móvil está creciendo de forma exponencial, la propagación de un virus sería muy rápida. Estos pueden atacar cualquier dispositivo que sea programable, y extenderse si existen enlaces entre ellos. Los teléfonos móviles, por tanto, son candidatos para sufrir esta amenaza a corto plazo, de manera que sus diseñadores deberán prestar una atención especial a los elementos de seguridad. Una de las opciones es que los programas que gobiernen los teléfonos, o al menos los más importantes, estén grabados en memoria de sólo lectura, de modo que los virus no puedan modificarlos. El problema, por supuesto, es que entonces el aparato no puede ser actualizado. Peor aún, los teléfonos necesitan memorias que sí podamos escribir, ya que querremos almacenar números de teléfono y otros datos. Un virus podría modificar un número (el de nuestra propia madre) y hacer que llamemos sin saberlo a otro situado al otro lado del mundo, con las nefastas consecuencias económicas que ello implicaría. Una posible solución para evitar que los virus se propaguen es hacer que los programas del teléfono estén completamente separados. Así, un programa no podría iniciar otro, y de la misma manera, el virus no podría efectuar una llamada y con ello extenderse e infectar a otras personas. La tendencia, por desgracia, no es ésta. Los fabricantes se ven bajo la presión comercial de añadir cada vez más funcionalidades a los teléfonos, y eso implica una mayor capacidad de programación (y un aumento de las oportunidades de infección). (New Scientist) Espejos de material inteligente Los telescopios espaciales del futuro poseerán espejos muy diferentes a los actuales. Los telescopios que hacen su trabajo desde el espacio en la actualidad aún emplean espejos ópticos rígidos. Su peso y características limitan su capacidad ya que los cohetes no pueden satelizar vehículos demasiado grandes. Para solucionar este problema, los ingenieros de los Sandia National Laboratories están desarrollando un material ultraligero que puede realizar el mismo trabajo que los espejos tradicionales, e incluso mejorarlo. Tammy Henson, especialista en este proyecto, explica que se trata de un material piezoeléctrico capaz de formar delgadas películas desplegables. Sus propiedades piezoeléctricas permiten que cambie de forma cuando es sometido a un chorro de electrones (campo eléctrico) disparado por un cañón electrónico controlado por ordenador. Así, el espejo ultraligero será plegado e introducido en un contenedor, siendo lanzado al espacio por un cohete de bajo coste. Una vez en órbita, y tras el despliegue inicial, el 939 El Hijo de El Cronopio No. 82 cañón de electrones actuará y obligará al espejo a adaptar su forma perfecta final. El mismo cañón puede emplearse para corregir la forma del espejo con una precisión de 10 millonésimas de pulgada, suficiente como para que el espejo pueda tener aplicaciones ópticas. El espejo resultante pesa muy poco, apenas 1 kg por metro cuadrado, frente a los 15 kg del que se empleará en el futuro New Generation Space Telescope o los 250 kg por metro cuadrado del actual Hubble. Esta gran eficiencia en términos de masa sugiere que podremos obtener espejos de enorme diámetro (más de 20 ó 30 metros) con un gasto reducido de lanzamiento. Esto ayudará a recoger una mayor cantidad de luz y ver más lejos en el espacio. Los materiales tradicionales no servirían para ello ya que no hay cohetes adecuados para lanzar un espejo rígido tan voluminoso (y probablemente caro). El uso de un cañón de electrones es fundamental en la nueva solución. La excitación de materiales piezoeléctricos mediante este sistema se debe a John Main, de la University of Kentucky. Controlado por ordenador, dicho cañón deberá ser operado bajo las órdenes de un algoritmo muy sofisticado que ahora mismo está siendo desarrollado. Los espejos flexibles pueden ser fabricados bajo demanda y en un plazo de pocos meses. El pulido del espejo del telescopio espacial Hubble, en cambio, precisó de varios años. La flexibilidad del material del espejo, que podrá ser usado también en misiones militares (a bordo de satélites espía, los cuales usan telescopios para obtener fotografías de gran resolución), implicará la corrección de su forma tras su apertura en el espacio. Ello se logrará mediante sensores láser ópticos, que proporcionarán la información al ordenador y éste al cañón de electrones, el cual actuará sobre el material piezoeléctrico otorgándole la estructura definitiva. El cañón podría tener que actuar cada pocas horas o días para mantener siempre una forma perfecta. Información adicional en: http://www.sandia.gov/media/NewsRel/NR2000/mirrors.htm Imagen: http://www.sandia.gov/media/NewsRel/NR2000/images/jpg/henson.jpg (Henson examina una pieza de material piezoeléctrico ultraligero.) (Foto: Randy Montoya/Sandia Labs.) La primera línea de defensa Las autoridades canadienses van a luchar contra la entrada de un peligroso virus manteniendo en alerta una línea de centinelas muy particular. El virus que llamamos "del Nilo Occidental" infecta principalmente a los pájaros, pero también puede ser transmitido a los humanos por medio de las picaduras de los mosquitos. Las personas que se ven afectadas, sobre todo los ancianos, pueden desarrollar encefalitis. El pasado verano, 46 personas del área de la ciudad de Nueva York enfermaron debido a este virus, y 7 de ellas acabaron muriendo. La consiguiente campaña anti-mosquitos costó unos 10 millones de dólares pero resultó efectiva, ya que no se ha informado de nuevas infecciones en humanos desde entonces. Sin embargo, los especialistas ya han encontrado algunos de estos insectos que aún portan la enfermedad, pasando el invierno en la misma zona. Con la llegada de los meses cálidos, podría desencadenarse otra situación de crisis. El virus probablemente llegó a Nueva York a través de un pájaro exótico importado. Las autoridades canadienses están preocupadas sobre este asunto y han decidido tomar 940 El Hijo de El Cronopio No. 82 medidas para evitar que la enfermedad cruce sus fronteras procedente de los Estados Unidos. Para ello, se han buscado una compañía de guardianes muy curiosa. Los centinelas serán pollos distribuidos a lo largo de todo el perímetro que va de Saskatchewan hasta el Atlántico. Serán sólo unos pocos ejemplares en cada provincia, pero estarán distribuidos de forma equilibrada a lo largo de los 2.500 km de frontera con el vecino estadounidense. Los pollos serán médicamente examinados cada semana (el virus no crea síntomas externos visibles en ellos). En cuanto el virus cruce la frontera, infectará a los animales y entonces las autoridades sabrán que deben tomar otras medidas, en este caso no de prevención sino de combate. El dispositivo de alerta inmediata, aunque muy particular, será altamente efectivo. O al menos esto es lo que se espera... (New Scientist) La medicina del pasado El retorno de un valioso libro nos da la oportunidad de conocer algo más sobre cómo era la medicina medieval. Para celebrar el retorno de un manuscrito medieval perdido durante largo tiempo, la National Library of Medicine (NLM) ha organizado una exposición en la que se muestran algunos de los documentos clave de la medicina de esta época (desde los siglos XI al XV), así como libros impresos de los siglos XV al XVII. La exposición estará abierta hasta el 30 de junio. El manuscrito latino perdido se titula "Tratados de Medicina" y fue escrito en Inglaterra en el siglo XII, sobre piel de cordero. Desapareció misteriosamente de la biblioteca de la NLM hace 50 años y sólo ahora ha podido ser recuperado. Richard Aspin, de la Wellcome Library, lo identificó, y la familia Rootenberg, que se había hecho con él por cauces no aclarados, lo ha devuelto a la NLM. El tratado, a veces conocido como "Recepta Varia" o "Manuscrito 8", contiene 40 textos de diferentes autores. Se trata de un caso típico de intento medieval de compilar todo el conocimiento médico de la época. Los autores realizan un mayor énfasis en las cuestiones prácticas y menos en las de mera especulación. Los textos van de guías para la diagnosis del pulso o la orina, a recetas, listas de sustancias médicas y discursos relacionados con cirugía. El tratado también contiene algunas curas mágicas, así como referencias a astrología y adivinación, si bien el tono predominante es el racional. La reunión de textos se completa con varios himnos y la historia de un monje errante que la Virgen María salvó de la condenación eterna. La importancia del manuscrito radica en que representa la transición entre la enfermería monástica y la facultad de medicina en la universidad. Supone asimismo un paso intermedio entre el arte de la curación y la ciencia localizada en los libros. La exposición de la NLM presenta otros 25 libros y manuscritos, incluyendo uno espléndidamente ilustrado del siglo XIII, un texto en árabe de 1094 (el más antiguo de la colección) y varias copias de los Aforismos de Hipócrates, uno de los puntales de la medicina. Muchos de los consejos de Hipócrates pueden ser reconocidos ahora como el más sencillo sentido común. Por ejemplo, nos habla de prevención, estilo de vida y medicina dietaria, y no de soluciones mágicas. Fue de los primeros médicos en reconocer la importancia en la salud de la edad, el sexo, la estación del año, la dieta, etc. Recomendó la moderación en la dieta y que los cambios se hagan de forma gradual. Información adicional en: http://www.nlm.nih.gov/ 941 El Hijo de El Cronopio No. 82 Ciberseguridad Los agentes inteligentes se perfilan como los mecanismos de programación que evitarán la infección de los ordenadores con virus como el famoso "I Love You". En la película "The Matrix", agentes de seguridad inteligentes pero malévolos, personificaciones de programas de ordenador capaces de aprender, defienden una diabólica red mundial. Los científicos de los Sandia Labs. trabajan en algo parecido, pero con fines mucho más edificantes. Según estos investigadores, si cada nodo en Internet estuviese controlado por uno de estos agentes, el virus "I-Love-You" jamás hubiera pasado de la primera máquina. En marzo, una coalición de estos ciberagentes consiguió proteger cinco ordenadores en red durante dos días de trabajo completos frente al ataque de una fuerza de cuatro personas, cuatro hackers denominados "Red Team". Este grupo de Sandia tiene la misión de probar las defensas de los sistemas de ordenadores del gobierno. El ciberagente prototipo se encuentra todavía en fase de laboratorio. Se trata en realidad de un colectivo de agentes, un programa distribuido que funciona sobre múltiples ordenadores en una red. Por supuesto, en Sandia la preocupación radica más en los ataques cibernéticos de gobiernos enemigos que en los de jóvenes hackers. Sin embargo, el programa será igualmente apto: reaccionará con sospecha cuando detecte intentos de escudriñar todos los puertos de entrada del ordenador (direcciones que permiten la penetración para diversas funciones), aunque éstos se efectúen a lo largo de un largo período de tiempo, como un año. El programa "agente" actúa poniendo en marcha un colectivo que constantemente compara notas para determinar qué solicitudes u órdenes poco usuales se han recibido de fuentes externas o internas. Por ello, la respuesta del sistema no se limita a esperar hasta que alguien diseñe una defensa o active el antivirus. El gran problema del mundo informático es que hay una gran cantidad de nuevo material apareciendo constantemente, material que ni siquiera sabíamos que existía y que por tanto el software no reconoce. El agente, en cambio, no sólo reconoce virus concretos, sino que además detecta ataques, bloquea servicios, cierra puertos, busca medios de comunicación alternativos, etc. El agente de Sandia integra las funciones de seguridad con los servicios habituales (ftp, www, etc.). Es lo bastante sensible como para recoger y almacenar en memoria intentos muy sutiles realizados por los hackers para aprender algo del funcionamiento de un ordenador, una táctica que después les servirá para realizar el ataque final. Un sistema de reconocimiento de patrones puede desactivar ordenadores en los que se hayan instalado ya "Caballos de Troya" (programas secretos que serán operados más adelante mediante un control externo hostil). Esto permite retirar de una red el ordenador afectado, evitando la progresión del incidente. También puede cerrar las puertas del sistema para protegerlo de solicitudes repetitivas que en otros casos han acabado bloqueándolo. Y se puede prohibir, por supuesto, que un ejecutable llegue a penetrar en el sistema de correo. No hay una autoridad central que opere el agente. Al contrario, el control descentralizado del algoritmo que funciona en cada uno de ellos los hace tan autónomos como cooperantes. Un único punto de ataque no puede derribar al colectivo. 942 El Hijo de El Cronopio No. 82 El programa estará disponible para su uso general dentro de unos tres años, aunque una versión dirigida a aplicaciones específicas en negocios muy importantes o del gobierno podrá empezar a utilizarse el año que viene. Una persona sola frente a un terminal, demasiado lenta, no puede protegernos de un ataque procedente de Internet. Por eso, nunca hay que enviar a un hombre a hacer el trabajo de una máquina. Los ciberagentes serán la policía de la red del futuro. Cuando Internet se prolongue al espacio y los satélites y sondas interplanetarias estén conectados a la red, estos agentes serán indispensables para evitar que un hacker o un gobierno interesado trate de hacer fracasar sus misiones. Parecidos a una vida artificial con su propio genoma, será posible descargar uno de ellos y conectarlos al resto del colectivo para proteger a los ordenadores cuya conexión a Internet sea constante. Información adicional en: http://www.sandia.gov/media/NewsRel/NR2000/agent.htm Imagen: http://www.sandia.gov/media/NewsRel/NR2000/images/jpg/agents.jpg (Los agentes vigilarán la red.) (Foto: Laurence Phillips y Shannon Spires) El cometa que paso desapercibido Los astrónomos han constatado con nerviosismo que no todos los cometas son descubiertos cuando deberían. Revisando los datos almacenados y generados por el observatorio solar SOHO, los astrónomos de la ESA y la NASA han descubierto la presencia de un nuevo cometa que pasó cerca de la Tierra en 1997. Llamado provisionalmente C/1997 K2, dicho cometa ha resultado ser más brillante que cualquiera de los encontrados durante los seis meses anteriores. Sorprendidos, los astrónomos se preguntan cómo es posible que un astro así haya podido pasar desapercibido por nuestros instrumentos. El suceso no sería demasiado relevante si no fuera por el nerviosismo que implica que un objeto de ese tamaño pueda pasar excesivamente cerca de nuestro planeta, o incluso chocar contra él, sin que tengamos el suficiente tiempo para prepararnos. Teniendo en cuenta los miles de aficionados que escrutan cada noche el cielo y los numerosos observatorios astronómicos dedicados a la catalogación de cuerpos menores, esta situación sólo podría esperarse de un cuerpo extremadamente débil. No obstante, su brillo es un concepto relativo, ya que aunque no llegó a ser visible al ojo desnudo, los telescopios de aficionados podrían haberlo descubierto con facilidad. La única explicación lógica es que nadie estaba interesado en lo que ocurría en el cielo durante el período de su visita: la espectacular llegada del cometa Hale-Bopp, visible a simple vista, eclipsó cualquier otra observación posible. Es cierto que el SOHO detectó el cometa K2, pero lo ocurrido nos hace reflexionar sobre que la búsqueda y detección de asteroides y cometas cercanos a la Tierra dista mucho de haber alcanzado un punto óptimo. Los recursos dedicados a dicha actividad son aún insuficientes y probablemente lo continúen siendo durante bastante tiempo. Nadie sabe si, con ello, estaremos dando una oportunidad a que un objeto desconocido nos dé algún día el susto que no quisiéramos tener nunca. 943 Boletín El Hijo de El Cronopio Facultad de Ciencias Universidad Autónoma de San Luis Potosí No.83, 3 de julio de 2000 Boletín de información científica y tecnológica de la Facultad de Ciencias Publicación semanal Louis Armstrong, enormísimo cronopio. Centenario de su nacimiento Satchmo, uno de sus apodos, rompió con el estilo Nueva Orleáns Edición y textos Fís. José Refugio Martínez Mendoza Parte de las notas de la sección Noticias de la Ciencia y la Tecnología han sido editadas por los españoles Manuel Montes y Jorge Munnshe. La sección es un servicio de recopilación de noticias e informaciones científicas, proporcionadas por los servicios de prensa de universidades, centros de investigación y otras publicaciones especializadas. Cualquier información, artículo o anuncio deberá enviarse al editor. El contenido será su responsabilidad. e-mail: flash@galia.fc.uaslp.mx Números anteriores del boletín, pueden consultarse por Internet en la página de la UASLP: http://phobos.dtc.uaslp.mx/publi.html En 1917 Estados Unidos entró a la Primera Guerra Mundial, y la Marina de ese país, para guardar la moral de las tropas, decretó el cierre de los bares, prostíbulos y garitos de la zona de tolerancia de Nueva Orleans, conocida como Storyville. La medida dio lugar, junto con la pobreza imperante, a la primera gran migración en la historia del jazz. Los músicos negros y blancos que habían derivado el ragtime, el Dixieland y el blues hacia las formas primitivas del jazz decidieron partir hacia Chicago, la Ciudad Airosa . Para 1920, el jazz ya había instalado allí sus reales, convirtiéndose en la música más exitosa de la década a pesar de la prohibición , y entre los migrantes se encontraba un joven de 20 a ños que había sido llamado por la banda de más renombre, la de Joe Oliver. Se trataba de Louis Armstrong. Satchmo, contracción de Satchelmouth o Bocón , presumía de haber nacido el 4 de julio de 1900. No sólo quería ir con el siglo, sino también aprovechars e de las leyes estadunidenses que eximían del servicio militar a todo aquel que hubiera nacido en el aniversario de la independencia. Hijo de una prostituta de Storyville, sin haber conocido a su padre, se crió prácticamente en la calle. Producto legítimo de la misma mezcla que dio origen al jazz sexo, alcohol, pobreza, música y reventón , Louis Armstrong encontró su camino hasta que fue a dar a la cárcel. En las fiestas de navidad de 1913 tomó prestada una pistola y echó unos tiros al aire. Fue suficiente para encerrarlo en el reformatorio. Allí se unió a la banda de internos y comenzó a tocar la corneta instrumento de aire sin pistones propio de la milicia hasta el punto en que, luego de dos años de internado, salió para unirse a las bandas que entonces recorrían las calles de Storyville El Hijo de El Cronopio No. 83 Noticias de la Ciencia y la Tecnología Primer aniversario de SETI@home La más ambiciosa iniciativa relacionada con el análisis y búsqueda de señales de inteligencia extraterrestre cumple su primer año de funcionamiento. Los científicos dedicados en cuerpo y alma a la búsqueda de señales extraterrestres se han quejado a menudo de las limitaciones de sus medios de observación. El cielo es muy grande y los soles candidatos a ser examinados ("escuchados") aunque sólo sea por unos minutos, alcanzan un número casi infinito. Pero los especialistas del programa SETI (Search of Extraterrestrial Intelligence) no sólo tienen el problema de la escasez de tiempo y medios de observación (radiotelescopios). El análisis posterior de las señales captadas se ha convertido en una dificultad aún más abrumadora, que sólo puede empeorar si se logra abarcar un cada vez mayor número de estrellas. Para identificar un indicio de inteligencia en dichas señales se necesita un análisis por ordenador muy sofisticado, y tiempo para llevarlo a cabo. Por supuesto, de nada sirve recolectar señales si no van a poder ser examinadas. Conscientes de esta situación, un grupo de especialistas de la University of Berkeley idearon una estrategia maestra. ¿Por qué no aprovechar la capacidad de computación de miles de usuarios voluntarios distribuidos por todo el mundo? El resultado de esta inquietud tiene un nombre: SETI@home. Se trata de un programa que es capaz de recoger paquetes de información (en realidad, fragmentos de señales captadas, por ejemplo, mediante el radiotelescopio de Arecibo), analizarlos y devolverlos a una sede central, todo ello a través de las redes telemáticas e Internet. Lo que se inició hace tan sólo un año como un simple experimento ha superado todas las previsiones posibles. Ya son 2 millones los voluntarios que participan en dicho programa (200.000 se suscribieron a las 48 horas de darse a conocer). Su mayor atractivo es que el software no resulta molesto: actúa como un salvapantallas y sólo funciona cuando el ordenador está libre. La magnitud de la empresa arroja números realmente espectaculares. Durante el pasado año, los usuarios de SETI@home aportaron desinteresadamente el equivalente a 280.000 años de tiempo de computación. De forma indirecta, los promotores de la iniciativa han creado la mayor supercomputadora del mundo. Sin duda, SETI@home se ha beneficiado de la fascinación que produce todo lo que tenga que ver con la búsqueda de inteligencia extraterrestre. Sin duda, a nadie desagradaría ser la primera persona que detectase algo tan importante como la presencia de seres vivos inteligentes en otro lugar del universo. La información que nutre al programa SETI@home procede de un instrumento llamado SERENDIP-IV (Search for Extraterrestrial Radio Emissions from Nearby Developed Intelligent Populations), un receptor que actúa en el radiotelescopio de Arecibo, paralelamente a otras investigaciones astronómicas. A pesar de todos los esfuerzos, no se ha detectado hasta la fecha ninguna señal convincente. Todos los picos encontrados han sido antes o después relacionados con emisiones de satélites, interferencias, etc. Pero la búsqueda sólo acaba de empezar. Durante los últimos 20 años se han realizado grandes progresos. Hemos pasado de "escuchar" 100 bandas de radio de forma simultánea a hacer lo propio con 100 millones. 945 El Hijo de El Cronopio No. 83 La tecnología mejora y se espera aumentar esta cifra en un factor de 1 a 1.000 millones. Conforme se avanza en la recepción de más y más frecuencias y la observación de más y más cuerpos estelares, la cantidad de señales a analizar se incrementa también, pero afortunadamente, el poder de computación de los ordenadores domésticos también crece de manera constante, y cada vez se unen a la iniciativa más voluntarios dispuestos a participar. La fase actual del proyecto supone que ésta finalice dentro de aproximadamente un año. Para entonces, la antena de Arecibo habrá observado la misma área del cielo tres o cuatro veces. Se tratará entonces de hacer lo mismo desde otros instrumentos, si es posible situados en el hemisferio sur. Información adicional en: http://setiathome.berkeley.edu Las plantas se adaptan a la luz Biólogos de Yale han estudiado cómo las plantas saben ajustarse y crecer en función de las condiciones de luz imperantes. Es obvio que las plantas necesitan de la luz para realizar su crucial actividad fotosintética. Una disponibilidad variable de luz implica cambios y ajustes bioquímicos de acuerdo con el medio ambiente. Según Xing-Wang Deng, del Department of Molecular, Cell and Developmental Biology de la Yale University, existe un factor de desarrollo clave que les dice a las plantas lo que deben hacer cuando varían las condiciones de iluminación. Este factor es una especie de interruptor biológico que parece estar también presente en los humanos y que explicaría en parte las condiciones experimentadas por las personas en ciertas ocasiones, como la depresión invernal o el famoso jet-lag. Las plantas crecen de forma diferente dependiendo de la dirección de la que provenga la luz, del período luz-oscuridad al que son sometidas, de la intensidad lumínica y de la longitud de onda (color) de la luz. Frente a ello no crecen necesariamente más rápido o más despacio, sino que lo hacen de la mejor manera posible en función de la luz solar que se les proporciona. Durante las investigaciones se ha empleado un tipo de planta habitual en el laboratorio, la Arabidopsis, cuyas semillas han sido obligadas a crecer bajo una variada lista de condiciones lumínicas. El resultado ha sido una igualmente larga lista de patrones de crecimiento. Así, en condiciones de luz intensa, la Arabidopsis crece más corta, pero más fuerte y verde. En condiciones más oscuras, se hace mas alta, pero con hojas amarillentas y troncos delgados. Las semillas, al crecer, presentan múltiples fotorreceptores que perciben las señales lumínicas y envían esta información a dos componentes proteínicos (COP1 y HY5), quienes a su vez regulan el desarrollo de la semilla. Este control es el que da forma a los diferentes patrones de crecimiento. Así, las plantas pueden medir y cuantificar el medio ambiente lumínico que les rodea y modificar su desarrollo de acuerdo con ello, optimizando la fotosíntesis, el proceso esencial que convierte la energía de la luz en energía química. Sabiendo esto, los agricultores podrán en el futuro modificar sus cultivos para que crezcan mejor a pesar de hallarse bajo condiciones de iluminación menos favorables. Las plantas de invernadero podrán también crecer más saludables y fuertes durante la primera fase de la primavera, cuando la luz disponible es menos abundante. 946 El Hijo de El Cronopio No. 83 Información adicional en: http://www.yale.edu/opa/newsr/00-05-24-01.all.html Nueva isla volcánica Un grupo de investigadores australianos ha tenido la fortuna de presenciar el nacimiento de una isla en el Pacífico. Aunque no es un hecho desconocido, la aparición de una nueva isla en pleno océano es sin duda un acontecimiento científico poco habitual. Como también lo es la circunstancia de que el nacimiento pueda llegar a ser contemplado por científicos especializados. Esto es lo que ha ocurrido recientemente, durante la aparición de una isla volcánica cerca de las Salomón, en el Pacífico. El dramático momento fue observado por una expedición situada a bordo del buque Franklin, del CSIRO australiano. El Franklin había estado realizando un crucero en busca de actividad volcánica y de formación mineral asociada, tanto en el mar de Bismarck como en el océano Pacífico. Durante la primera fase de este viaje, los científicos lograron "capturar" una chimenea del fondo del Bismarck, una formación natural por la que ascienden gases de origen volcánico. Durante la segunda fase del crucero, tuvieron la suerte de constatar que, tras un período de calma que ha durado unos nueve años, el montículo marino de Kavachi había entrado en el período de formación de una isla. El barco llegó a la zona y los expedicionarios encontraron olas chocando contra la base del cono volcánico, mientras las erupciones se sucedían cada cinco minutos. Dichas erupciones expulsaban lava a hasta 70 metros de altura sobre el nivel del mar. Las emanaciones sulfurosas, por su parte, alcanzaban los 500 metros. Durante la noche, el brillo rojizo de las erupciones explosivas producían el efecto de unos espectaculares fuegos de artificio. Los científicos pudieron aproximarse a unos 750 metros del centro eruptivo. El volcán había crecido mucho desde que fue medido por última vez, en 1984. El Franklin ha sido utilizado últimamente para encontrar muestras de rocas procedentes de las laderas de volcanes submarinos en erupción. Los efectos de tales erupciones en la química y turbiedad del océano han sido a su vez medidos por un equipo del New Zealand Institute of Geological and Nuclear Sciences. Información adicional en: http://www.csiro.au/page.asp?type=mediaRelease&id=Prvolcano Imagen: http://www.csiro.au/images/mediaReleases/Kavachi1m.jpg (La isla de Kavachi en formación.) (Foto: CSIRO) La ventana cósmica mas limpia Se ha obtenido la primera imagen de una parte del cielo nocturno sin la interposición de elementos propios de nuestra galaxia. Miremos hacia donde miremos, la visión de los telescopios astronómicos se ve siempre ligeramente perturbada por la presencia de polvo y estrellas pertenecientes a nuestra propia galaxia, la Vía Láctea. Nuestro sistema solar se encuentra en uno de sus brazos espirales, de modo que es muy difícil encontrar un punto del cielo completamente libre de la interferencia de estos elementos que podríamos llamar locales. Esto no quiere decir que nuestras observaciones del espacio profundo, en dirección a otras galaxias, sea estéril en términos científicos. Lo que ocurre es que a los astrónomos les gustaría tener más limpio el "parabrisas" de su 947 El Hijo de El Cronopio No. 83 ventana cósmica, ya que algunos fenómenos, situados muy lejos de nosotros, son muy débiles y complicados de observar debido a la injerencia del polvo interestelar y de otros elementos extraños y pertenecientes a nuestro propio barrio galáctico. Tras una búsqueda que se ha prolongado durante años, un equipo de treinta astrónomos procedentes de cuatro países creen haber logrado la primera imagen completamente libre de este tipo de interferencias. Utilizando el radiotelescopio australiano de Parkes, han dirigido su mirada hacia una zona del cielo que no parece sufrir de su presencia. Como hemos dicho, esto no ha sido fácil, ya que como una banda que cruza el cielo nocturno, la Vía Láctea nos bloquea directamente la visión del 15 por ciento de la esfera celeste, perjudicando de forma sustancial la contemplación del resto. El hallazgo de un "agujero" por el que mirar es destacable, ya que ha permitido descubrir muchas galaxias lejanas hasta ahora desconocidas, así como nubes frías de hidrógeno, el material del que se forman las estrellas. Esto permitirá definir mejor la cantidad de materia que existe en el universo. El programa de observación se llama HIPASS, el HI Parkes All-Sky Survey. Es tan sensible y cubre tanta superficie del cielo que puede detectar 100 veces más hidrógeno que otros de este tipo. Se han localizado objetos que no emiten prácticamente luz, incluyendo nubes de gas casi opacas con masas de decenas o cientos de veces la de nuestro Sol. Podría tratarse de protogalaxias, galaxias en plena fase de formación o restos de la construcción de otras más evolucionadas. Se trata de materia que hasta ahora había pasado más o menos desapercibida y que debe ser contabilizada para dar mayor precisión a la magnitud otorgada a la que no puede verse normalmente y que podría suponer el 90 por ciento de toda la materia del universo. Otra conclusión es que existen más galaxias enanas o débiles de las que se creía inicialmente. Se espera localizar entre 5 y 10.000 objetos, de los cuales una cuarta parte serán nuevos. Información adicional en: http://www.csiro.au/page.asp?type=mediaRelease&id=cosmicwindow Imagen: http://www.csiro.au/images/mediaReleases/parkes_sm.jpg (El radiotelescopio de Parkes.) (Foto: CSIRO) Así se evitarán las quemaduras solares Un nuevo invento aplicado a nuestra piel o ropa ayudará a delatar el momento en que empecemos a correr peligro por la influencia de los rayos ultravioleta. A partir de ahora, evitar las quemaduras solares mientras tomamos el Sol será mucho más fácil. Científicos israelíes han desarrollado un parche adhesivo que, unido a la piel o a una pieza de ropa, cambia de color cuando los efectos de la luz ultravioleta han alcanzado un límite que empieza a resultar peligroso. El parche se llama Sticker y ha sido concebido por Skyrad, una empresa originada en el Technion-Israel Institute of Technology. La sobreexposición a la luz ultravioleta es un problema creciente, sobre todo con la disminución de la protección natural que supone la presencia de la capa de ozono, ya que puede producir quemaduras y cáncer. Para defendernos mejor de esta amenaza, debemos ser conscientes de cuándo nuestra piel está recibiendo demasiada luz ultravioleta. El Sticker hace precisamente esto, midiendo la dosis acumulada de este tipo de radiación que ha absorbido nuestro cuerpo. Los 948 El Hijo de El Cronopio No. 83 dosímetros actuales miden la densidad de los UV, no la dosis acumulada. El uso de cremas solares, por otro lado, causan a veces una impresión de falsa seguridad, ya que con ellas se necesita más tiempo para sentir los efectos de la quemadura. El Sticker se empleará en dos versiones, dependiendo de si usamos o no crema de protección solar, y para seis tipos de piel distintos (de muy clara a muy oscura). En cada caso, su acción ha sido ajustada para avisar cuando la dosis acumulada de UV se vuelve peligrosa. Por ejemplo, el Sticker para un tipo de piel 2 se "quemará" en una cuarta parte del tiempo del que necesitará para el tipo de piel 4. Los elementos fotocromáticos que posee provocan un cambio de color gradual, de azul a plateado o de púrpura a amarillo, en función de si la radiación UV alcanza un nivel predeterminado o no (siempre uno inmediatamente anterior al que supone una muy ligera quemadura solar). Si el usuario cambia de localidad y pasa del sol a la sombra en poco tiempo, el color del Sticker se ajusta de forma conveniente. Información adicional en: http://www.ats.org/v2/News/2000_News/ns052400/ns052400.html Imagen: http://www.ats.org/v2/News/2000_News/ns052400/052400p1.jpg (Los niños son los más afectados por las quemaduras solares.) (Foto: American Technion Society) Algoritmo cuántico para búsquedas inteligentes Un nuevo método informático permitirá localizar rápidamente lo que buscamos en una base de datos incluso cuando los criterios de búsqueda sean algo vagos. Aunque hasta ahora sólo se han construido ordenadores cuánticos muy rudimentarios, este tipo de tecnología muestra un gran potencial para el futuro. En este campo, los investigadores aplican conceptos de la física cuántica para construir máquinas más eficientes y rápidas. Es en este contexto que Lov Grover, un ingeniero de los Bell Laboratories, ha desarrollado un algoritmo de búsquedas en bases de datos que promete resultados revolucionarios. Dicho algoritmo utiliza un procedimiento llamado "sampleado" que los expertos en estadística usan para resolver problemas en ausencia de información adecuada. Por ejemplo, podría utilizarse para encontrar con rapidez, por nombre y número de teléfono, a una persona que hayamos conocido brevemente pero de la cual hayamos medio olvidado su nombre. Pongamos por caso que recordamos que se llama Juan, pero que, sin conocer su apellido, sí sabemos que era uno muy común, como García o Martínez. Otorgaremos una probabilidad de que se llame García del 50 por ciento, y de un 20 por ciento para Martínez. Por otro lado, recordamos que vive cerca de la Sagrada Familia de Barcelona, en un apartamento, y que su tarjeta de visita muestra un número de teléfono cuyos cuatro últimos cuatro números coinciden con los de nuestro médico. En la actualidad, encontrar a la persona indicada con esta información tan dispersa sería una tarea increíblemente compleja. Con el nuevo algoritmo y una computadora cuántica, en cambio, la búsqueda será rápida y sencilla. 949 El Hijo de El Cronopio No. 83 Aunque el ejemplo citado parece algo rebuscado, en realidad la naturaleza de los problemas que presenta es casi idéntica a la de los que se deben afrontar a menudo en estadística y ciencia de los ordenadores. Lo fundamental es hallar el algoritmo adecuado que sea más rápido que lo que permite un computador convencional. En el campo de la informática cuántica existen de momento pocos algoritmos disponibles, ya que son difíciles de escribir y por qué la ciencia es aún demasiado joven. Trabajos como los de Grover no hacen sino acercarnos al día en que este tipo de máquinas pueda ser empleado de forma general. El Grover Search Algorithm es pues una serie de instrucciones que al ser ejecutadas por un ordenador cuántico pueden localizar un objeto en una gran base de datos más rápidamente que cualquier ordenador convencional. En una base de datos de un millón de elementos, un ordenador normal necesitaría 500.000 pasos para identificar el correcto. En cambio, en un ordenador cuántico, la cifra se reduce a 1.000 pasos. El sistema funciona incluso cuando el nivel de información primaria es muy limitado. Información adicional en: http://www.lucent.com/press/0500/000523.bla.html http://www.bell-labs.com Cinturón ecuatorial Los precursores de los animales modernos pudieron haber sobrevivido a una era glacial, hace 600 millones de años, gracias a un cinturón de agua situado alrededor del ecuador. A finales de la era Proterozoica (hace entre 600 y 800 millones de años) se produjo el más importante período de evolución para las criaturas multicelulares. Sin embargo, fue en esta misma época cuando la Tierra permaneció cubierta de hielo. Evidencias geológicas y paleomagnéticas indican que el planeta sufrió períodos alternativos durante los cuales los continentes y los océanos quedaban helados y cubiertos de hielo, para pasar después a experimentar momentos más cálidos en los que éste se deshacía. Se hace difícil explicar cómo la vida pudo resistir y soportar tales tensiones. Según los oceanógrafos Richard Peltier, William Hyde, Thomas Crowley y Steven Baum, el secreto estuvo en la presencia de un cinturón de agua ecuatorial que se mantuvo como reducto habitable durante todo este tiempo crucial. Para llegar a esta conclusión, se han empleado diversos modelos de sistemas climáticos, semejantes a los que se piensa reinaban entonces, en simulaciones por ordenador. Durante el período examinado, el Sol iluminaba con una intensidad menor (un 6 por ciento). Esto fue tenido en cuenta en el modelo, así como los niveles de concentración de dióxido de carbono atmosférico. En la mayoría de las simulaciones, el análisis revelaba la presencia de un cinturón abierto de agua cercano al ecuador, confirmando que este cinturón fue seguramente el refugio en el que se escondieron los seres multicelulares cuando el resto de la Tierra quedaba cubierta de nieve y hielo. Si esto es cierto, estaremos ante nuevas pistas sobre cómo surgió y evolucionó la vida. Extremos climáticos como el mencionado habrían ejercido una presión muy fuerte sobre los organismos para adaptarse y evolucionar más rápidamente. Con la aparición de nuevas especies, éstas tuvieron que buscar nuevos hábitats, lo que fomentó la explosión del Cámbrico, cuando el planeta volvió a mostrarse cálido y confortable para la vida. 950 El Hijo de El Cronopio No. 83 El período del Proterozoico tardío contempló la formación de los supercontinentes Rodinia y Pannotia, que después se desmembraron. Situados sobre el polo sur, en la posición de la actual Antártida, dichos supercontinentes estaban hechos de las masas de tierra que hoy denominamos África, Sudamérica, Antártida, Australia, Groenlandia, Laurentia y partes de Asia. Este alto grado de continentalidad polar, dejando libre el ecuador no helado, propició la supervivencia de las especies de vida más evolucionada. Información adicional en: http://www.newsandevents.utoronto.ca/bin/000524b.asp Radar y sonido contra las minas La tecnología para la búsqueda y desactivación de minas explosivas sigue avanzando a pasos agigantados. Siempre serán pocos los esfuerzos encaminados a localizar los miles de minas que se ocultan bajo las zonas que han sido escenarios de cruentas guerras y que ahora, quizás después de varios años, aún siguen amenazando a la población con su poder destructor. Si bien las tareas de búsqueda no cesan, los equipos de expertos artificieros no pueden avanzar tan rápido como quisieran, de modo que se hace necesario aplicar toda la tecnología posible para acelerar el proceso. Investigadores del Georgia Institute of Technology han desarrollado un nuevo método de detección que combina diferentes sistemas de localización. Las más de 100.000 minas enterradas a lo largo del mundo causan unas 26.000 muertes y personas heridas cada año. Los detectores actuales no funciona bien bajo determinadas condiciones, y tienen particulares dificultades en localizar las pequeñas minas antipersonales que han sido fabricadas casi en su totalidad en plástico. Para solucionar estos problemas, los ingenieros del GIT utilizan un transductor que genera ondas sísmicas que viajan a través del suelo minado. Estas ondas elásticas hacen que el suelo y todo lo enterrado en él de desplace ligeramente. Este pequeño movimiento en la superficie, menos de un micrómetro, puede ser detectado mediante ondas electromagnéticas como las de un sistema de radar. Las propiedades de la mina son muy diferentes a las del suelo que la rodea, por eso el desplazamiento a su alrededor es también distinto. Las ondas interaccionan muy fuerte con ella. La técnica permite también diferenciar entre las minas y otros objetos enterrados, como rocas o palos, a causa de las diferentes propiedades mecánicas que ostentan. Se han hecho ya pruebas experimentales en fosos llenos de arena, y se ha demostrado que el sistema puede detectar siete tipos de minas enterradas, desde una mina antipersonal a una mina antitanque, que suelen estar a mayor profundidad. El radar, además, puede ser empleado sobre zonas cubiertas de vegetación o niebla. Su aplicación práctica, sin embargo, no será inmediata. Aún deben hacerse más pruebas con una gran variedad de suelos y condiciones medioambientales distintos. También habrá que acelerar el proceso de identificación, ya que ahora el radar debe hacer varias pasadas. Se está hablando incluso de usar una nueva técnica ultrasónica. Información adicional en: http://www.gtri.gatech.edu/res-news/MINES.html http://www.gatech.edu/; http://www.ece.gatech.edu/ Imagen: http://www.gtri.gatech.edu/res-news/mine3_b.jpg 951 El Hijo de El Cronopio No. 83 (Waymond Scott y Christoph Schroeder ensayan su método de detección de minas.) (Foto: Georgia Tech.) Mercurio desconocido Astrónomos americanos han obtenido nuevas imágenes tomadas desde la Tierra del planeta más próximo al Sol. Si algo caracteriza a Mercurio, el planeta más cercano a nuestra estrella, es su relativo escaso tamaño y su semejanza externa a nuestra Luna. Sin embargo, esta información, muy incompleta, procede de una sola misión interplanetaria realizada hace más de 25 años. Desde que la sonda Mariner-10 sobrevolara su superficie, fotografiándola, Mercurio se ha mantenido tan misterioso como siempre, debido sobre todo a las dificultades que presenta su observación desde la Tierra. La tecnología, por fortuna, ha avanzado mucho, y ya es posible intentar fotografiar la superficie de este planeta con un cierto detalle, a pesar de que el brillo del Sol dificulta en gran media las observaciones. Han sido astrónomos de la Boston University quienes acaban de presentar nuevas imágenes de Mercurio, tomadas el 29 de agosto de 1998, las cuales muestran zonas que jamás habíamos tenido la oportunidad de ver (la Mariner-10 sólo fotografió un fragmento del planeta). Las citadas nuevas imágenes demuestran que Mercurio posee cráteres brillantes y mares oscuros semejantes a los de la Luna. Para obtenerlas, se usó una cámara digital instalada en el observatorio del Monte Wilson, en California. Las sesiones de fotografía se realizaron poco después del amanecer, antes de que el Sol empiece a calentar la atmósfera y se produzcan excesivas turbulencias que puedan distorsionar las imágenes. Las exposiciones, además, fueron muy cortas, de 1/60 de segundo, durante un período de 90 minutos. Se obtuvieron así 340.000 fotografías, seleccionándose 30 ó 60 de entre las mejores. Después, mediante ordenador, se las unió para crear un exposición de duración suficiente (0,5 a 1 segundo), lo que aportó el detalle deseado de la superficie de Mercurio. La selección de las imágenes primarias entre tantas otras obligó a usar técnicas de computación que identifican automáticamente aquellas que fueron tomadas durante las mejores condiciones de visibilidad. El equipo de astrónomos desea realizar otra campaña este otoño, durante la cual se tratará de fotografiar incluso la débil atmósfera del planeta. Dicha atmósfera se produce debido a la expulsión de átomos procedentes de su superficie, un proceso que también ocurre en la Luna. El sodio es uno de los elementos que se desea detectar en primer lugar, aunque para ello se requerirá construir un detector más sensible. Información adicional en: http://www.bu.edu/csp/imaging_science/planetary/mercury/baumgardner.html Imagen: http://www.bu.edu/csp/imaging_science/planetary/mercury/baumgardner.fig3.gif (La combinación de varias imágenes nos proporciona el detalle requerido.) (Foto: Baumgardner/Boston University) 952 El Hijo de El Cronopio No. 83 Astrovirtual Los archivos astronómicos acumulados con el paso del tiempo pasan estar a disposición de la comunidad científica de una forma ordenada y universal. Los archivos de datos astronómicos acumulados hasta la fecha podrían ser comparados con verdaderas minas de oro de información. El proyecto ASTROVIRTEL tiene la intención de explotar este potencial permitiendo que los científicos tengan acceso a él como si los archivos fuesen telescopios virtuales. La competición por conseguir tiempo de observación de grandes telescopios como el Hubble o el Very Large Telescope, del ESO, es muy intensa. De media, menos de una cuarta parte de las solicitudes lo consiguen. El científico afortunado que obtiene tiempo de observación disfrutará después de un período de un año durante el cual podrá estudiar y utilizar los datos obtenidos de forma exclusiva. Una vez transcurrido éste deberá ponerlos a disposición de sus colegas. Teniendo en cuenta que buena parte de esta información retiene su valor mucho después de su primer aniversario, se hace necesario organizar de algún modo la gran cantidad de datos acumulados durante décadas. Este es el caso de la valiosa información almacenada en los archivos del European Southern Observatory (ESO) y de la Space Telescope-European Coordinating Facility (ST-ECF). Muchos astrónomos saben que algunas observaciones pueden ser útiles en otros campos distintos a los que inicialmente se consideraron, de manera que se requiere un esfuerzo para mantenerlas disponibles en todo momento, ya que evitarán la repetición y duplicación de esfuerzos. El proyecto ASTROVIRTEL (Accessing Astronomical Archives as Virtual Telescopes) está apoyado por la Comunidad Europea y se ha convertido en el primer telescopio astronómico virtual de carácter profesional. Por ahora se encuentra en el ESO/Space Telescope-European Coordinating Facility Archive, en Garching, Alemania, y contiene datos obtenidos por el Hubble Space Telescope (HST), el Very Large Telescope (VLT), el New Technology Telescope (NTT), y el Wide Field Imager (WFI), así como por otros relacionados, como el archivo del Infrared Space Observatory (ISO). Los científicos interesados en usar esta información sólo tienen que visitar las instalaciones y utilizar las herramientas de software que estarán disponibles para explorar sus contenidos. Para los astrónomos, será como si accedieran a un nuevo observatorio, en el que, en vez de solicitar tiempo de observación, obtendrán directamente lo que buscan a partir de los archivos acumulados durante años. Dicho archivo llegará a tener más de 100 terabytes de datos disponibles (100.000.000.000.000 bytes) en el plazo de los próximos cuatro años. Información adicional en: http://www.stecf.org/astrovirtel http://www.eso.org/outreach/press-rel/pr-2000/pr-09-00.html Imagen: http://www.eso.org/outreach/press-rel/pr-2000/astrovirtel-logo.jpg (El logo de Astrovirtel.) (Foto: Astrovirtel) 953 Boletín El Hijo de El Cronopio Facultad de Ciencias Universidad Autónoma de San Luis Potosí No.84, 10 de julio de 2000 Boletín de información científica y tecnológica de la Facultad de Ciencias Publicación semanal Edición y textos Fís. José Refugio Martínez Mendoza Parte de las notas de la sección Noticias de la Ciencia y la Tecnología han sido editadas por los españoles Manuel Montes y Jorge Munnshe. La sección es un servicio de recopilación de noticias e informaciones científicas, proporcionadas por los servicios de prensa de universidades, centros de investigación y otras publicaciones especializadas. Cualquier información, artículo o anuncio deberá enviarse al editor. El contenido será su responsabilidad. e-mail: flash@galia.fc.uaslp.mx Números anteriores del boletín, pueden consultarse por Internet en la página de la UASLP: http://phobos.dtc.uaslp.mx/publi.html A los lectores: Les recordamos, que durante el periodo del 3 de julio al 14 de agosto, el Boletín contendrá solamente la sección Noticias de la Ciencia y la Tecnología. A partir del 21 de agosto aparecerá en su edición completa, conteniendo sus secciones: La Ciencia desde el Macuiltépetl El Cabuche/Crónicas de la Facultad de Ciencias El Garambullo (Los polvos de esos caminos) El Xoconoztle (personajes potosinos) El 24 y 31 de julio no aparecerá el Boletín. El Hijo de El Cronopio No. 84 Noticias de la Ciencia y la Tecnología Sensor submarino Un nuevo sensor ayudará a analizar los gases expulsados por las chimeneas volcánicas del fondo de los océanos. Investigadores de la University of Delaware y de la empresa Analytical Instrument Systems han desarrollado un analizador electroquímico que es capaz de detectar e identificar los productos químicos que emanan de las chimeneas super-calientes que se encuentran en el fondo de los océanos, a más de 1,5 km de profundidad. El analizador ha sido montado en el submarino Alvin, de manera que cuando éste es "aparcado" en las cercanías de una de estas chimeneas, puede ser usado para medir las concentraciones de gases sulfurosos que proceden de la corteza terrestre. Se trata de gases tóxicos para nosotros, pero que algunos microorganismos utilizan como hábitat. Los biólogos están muy interesados en saber más de las características medioambientales de estos lugares, ya que la vida presente en ellos puede ser beneficiosa para el Hombre. Desde luego, es la primera vez que un sistema de esta naturaleza es operado a tales profundidades y presiones. Hasta la fecha, se ha probado incluso a 2.500 metros de la superficie, bajo presiones de hasta 200 atmósferas. El analizador ha funcionado bien en un amplio rango de temperaturas, desde la práctica congelación hasta los más de 100 grados Celsius presentes en la boca de las chimeneas volcánicas. El submarino Alvin posee brazos articulados. En uno de ellos está situado el analizador, de manera que es posible su colocación en el punto más apropiado para realizar las mediciones. Estas permiten detectar varios componentes químicos de forma simultánea. En uno de los últimos viajes de exploración, el aparato confirmó que la detección de dos compuestos particulares (H2S y FeS), puede ser un factor importante a la hora de delatar la presencia de vida microscópica. Ambos compuestos reaccionan para formar pirita mineral y gas hidrógeno. Este último proporciona la energía que los microbios necesitan para crecer. Información adicional en: http://www.udel.edu/PR/experts/sniff.html Imagen: http://www.ocean.udel.edu/newscenter/hiwand.jpg (El submarino con su brazo robótico, bajo el agua.) (Foto: U. of Delaware) El estado de la niña La corriente que llamamos La Niña continúa dominando el océano Pacífico. Según puede apreciarse en las últimas imágenes transmitidas por el satélite TOPEX/Poseidon, el patrón oceánico llamado La Niña continúa comportándose en la zona del Pacífico de una forma muy similar al año pasado. El satélite ha informado sobre una altura de la superficie marítima inferior a lo normal, lo que indica temperaturas más frías en las costas del continente Americano y ahora también en la zona tropical. En contraste, se pueden ver alturas superiores a lo normal en el Pacífico occidental. El agua más fría detectada tiene una altura entre 8 y 24 centímetros menor a la media. Por su parte, el agua más caliente se encuentra entre 8 y 24 centímetros por encima. 955 El Hijo de El Cronopio No. 84 El seguimiento del nivel del mar es esencial para comprender cómo afectarán las actuales condiciones oceánicas en el Pacífico durante la primavera y el verano a zonas como la mitad sur de los Estados Unidos, que seguramente sufrirán un período de sequía más prolongado. En el noroeste del Pacífico, en cambio, las lluvias serán más intensas. Los científicos siguen debatiendo si existe o no una Oscilación del Pacífico cuyo patrón de repetición sería de unos 10 años. Este patrón a largo plazo, influyendo sobre la mayor parte del océano Pacífico, tendría importantes implicaciones en el clima global, y en especial para Norteamérica. Información adicional en: http://www.cpc.ncep.noaa.gov/ http://www.jpl.nasa.gov/elnino/20000118.html; http://topex-www.jpl.nasa.gov/ http://www.jpl.nasa.gov/elnino/ Imagen: http://www.jpl.nasa.gov/files/images/browse/p50700.gif (El océano Pacífico, visto desde el satélite TOPEX/Poseidon, y la corriente de La Niña.) (Foto: JPL) El ojo deslumbrante La nebulosa planetaria NGC 6751 es un astro realmente inusual. Brillando como un ojo gigante en la constelación del Águila, la nebulosa planetaria NGC 6751, fotografiada por el telescopio Hubble, es una nube de gas expulsado hace varios miles de años por una estrella caliente visible en su centro. La calificación de "nebulosa planetaria" induce a confusión, ya que estas estructuras estelares no tienen nada que ver con planetas. El término sólo se refiere a las formas redondeadas que poseen, aunque las haya de diversos tipos. Se trata de las capas exteriores de gas de las estrellas que han llegado al final de sus días, expulsadas debido a violentas explosiones. La pérdida de estas capas deja expuesto al espacio el núcleo de la estrella, cuyas fuertes emisiones en el ultravioleta hace que el gas en expansión brille como un fluorescente. Dentro de 6.000 millones de años, nuestro Sol pondrá en marcha el mecanismo que lo dotará de su propia nebulosa planetaria. Las imágenes de NGC 6751 son especialmente bellas. Fueron tomadas en 1998 por la Wide Field Planetary Camera 2 (WFPC2) y muestran diversas formas que no entendemos demasiado bien. Las regiones más azules corresponden al gas más caliente, el cual forma un anillo más o menos circular alrededor de la estrella. El naranja y el rojo muestran la posición del gas más frío, el cual tiende a formar estructuras menos uniformes. El origen de este tipo de gases es incierto pero parece que son afectados por el viento estelar procedente de la estrella. La temperatura de ésta en su superficie se estima en unos 140.000 grados Celsius. La nebulosa se expande a una velocidad de unos 40 km/s, de manera que las observaciones previstas para el año 2001 deberían mostrar cambios en su forma general. Estas medidas permitirán calcular con precisión la distancia que nos separa de NGC 6751, aunque ya suponemos que se encuentra a unos 6.500 años luz de la Tierra. El diámetro de la nebulosa es de unos 0,8 años luz, unas 600 veces el de nuestro propio sistema planetario. Información adicional en: http://heritage.stsci.edu; http://oposite.stsci.edu/pubinfo/pr/2000/12 Imagen: http://oposite.stsci.edu/pubinfo/pr/2000/12/content/0012w.jpg (La nebulosa planetaria NGC 6751.) (Foto: NASA, The Hubble Heritage Team, STScI/AURA) 956 El Hijo de El Cronopio No. 84 Medidor de nivel computarizado Conocer cuánto combustible resta en un tanque cerrado será más sencillo a partir de ahora. Ingenieros de la Penn State University han desarrollado un procedimiento de visión por ordenador que sirve para medir con mayor precisión y claridad los contenidos de un depósito de combustible. Los actuales medidores dependen de un sensor dotado con piezas por las que circula un bajo voltaje y que están en contacto con el combustible. Se sospecha que este tipo de dispositivos pueden haber contribuido a hacer posibles dramáticas explosiones a bordo de aviones en vuelo. Srivatsan Chakravarthy es el responsable principal del nuevo método, que no necesita de nada en interior del depósito excepto el propio combustible. Dos pequeñas ventanas de cristal transparente situadas en la cima del depósito proporcionan todo el acceso necesario para determinar la profundidad del líquido en su interior. Una de las ventanas posibilita que una fuente de luz emita flashes sobre dos líneas cruzadas sobre la superficie del líquido, mientras que la otra permite a una cámara unida a un ordenador grabar la posición de las líneas. El trabajo verdadero lo hace un programa de procesamiento de imágenes, el cual ha sido "entrenado" durante el proceso de calibración que implica el llenado gradual de los tanques y el consecuente cambio de posición de las líneas cruzadas. La correspondencia entre las diferentes profundidades en la imagen tridimensional actual y la imagen bidimensional grabada por la cámara es establecida mediante un proceso llamado "digital mapping". El ordenador puede entonces calcular el cambio de profundidad del líquido cuando cualquiera de las unidades (o píxels) de la imagen proporcionada por la cámara (de las líneas) se ve modificada. Los problemas matemáticos envueltos en determinar la profundidad en un espacio tridimensional a partir de una imagen bidimensional producida por una cámara forman parte de casi todas las aplicaciones de visión por ordenador. Es el caso de un robot equipado con una sola cámara que debe desplazarse en un mundo tridimensional. El método más simple para obtener las soluciones buscadas es la triangulación. El sistema será instalado en los futuros aviones, automóviles y otro tipo de vehículos y máquinas que necesitan maximizar la seguridad en su funcionamiento. Información adicional en: http://www.engr.psu.edu/news/News/2000%20Press%20Releases/April/gauge.html El cerebro continua creciendo tras la pubertad En contra de lo que se pensaba hasta ahora, el cerebro se desarrolla incluso después de sobrepasada la etapa inicial de madurez. Un estudio sencillo sobre las pautas de crecimiento de varios cerebros de rata ha añadido peso a la idea de que este órgano sigue evolucionando después de que se llega a la etapa adulta. Aunque su tamaño general puede no cambiar, la composición de ciertas fibras nerviosas en un área clave sí lo hace. Los científicos de la University of Illinois han examinado la porción posterior del llamado corpus callosum de una rata, una masa que conecta los dos hemisferios del cerebro, y lo han hecho durante diferentes momentos de su desarrollo, a 60, 120 y 180 957 El Hijo de El Cronopio No. 84 días de edad. A partir de los 40 días, momento en que una rata alcanza la pubertad, los especialistas han visto que los axones (las fibras nerviosas) continúan siendo recubiertos por la materia blanca (mielina) que los aísla, aumentando al mismo tiempo la velocidad de transmisión de los impulsos entre las neuronas. De forma simultánea, el número de axones no recubiertos decrece. Esta es la primera demostración de que un proceso claro de evolución del cerebro sigue hasta los 180 días y quizá más. Por tanto, el corpus callosum cambia su tamaño a edades más tardías de lo que se creía. Dado que 120 días de edad en una rata equivale a unos 25 años en un ser humano, es de esperar que para nosotros la pubertad tampoco sea el punto final para el crecimiento del cerebro. El proceso antes mencionado puede suponer un incremento en la cantidad de información visual transferida entre ambos hemisferios. Al contrario, una falta o la pérdida de mielina provoca enfermedades como la esclerosis múltiple y otros desórdenes metabólicos e inflamatorios. Información adicional en: http://www.admin.uiuc.edu/NB/00.04/braintip.html Las expresiones faciales son contagiosas Incluso a nivel de subconsciente, una sonrisa o una mueca de enfado en otra persona pueden verse reflejadas de inmediato en nuestro propio rostro. Cuando alguien nos sonríe, es fácil que nos sintamos inclinados a corresponder de igual forma. Por el contrario, si nuestro interlocutor nos mira ceñudo, nuestra respuesta será seguramente otra mueca no mucho más agradable. Parece como si las expresiones faciales fueran contagiosas, incluso a un nivel involuntario. Sin embargo, que nuestra reacción sea puro mimetismo o el verdadero reflejo de un sentimiento, aún es demasiado pronto para decirlo. Ulf Dimberg, de la Uppsala University, ha investigado este asunto y ha presentado recientemente sus conclusiones. Darwin decía que las expresiones faciales de emoción tenían una base biológica, siendo controladas por una especie de "programas" específicos. Investigaciones con primates muestran que las reacciones emocionales se desencadenan gracias a la actuación de neuronas concretas que responden selectivamente a un estímulo facial. Por ejemplo, un encuentro con otro simio en actitud facial agresiva desencadena a la vez una respuesta concreta y precisa de forma natural. Si las expresiones faciales humanas son generadas por programas proporcionados de forma biológica, podría esperarse que tales programas operasen automáticamente, activando diversas reacciones musculares en el rostro de forma espontánea e independientemente de cualquier proceso consciente. Para comprobar esto, Dimberg midió la actividad muscular facial de 120 estudiantes voluntarios, en especial de aquellos músculos que intervienen en la sonrisa y en el movimiento de las cejas, durante sesiones en las que los sujetos eran sometidos a la visión de fotografías con caras alegres y enfadadas. La exposición de estas fotografías era muy breve, apenas 39 milisegundos, de manera que los estudiantes no llegaban a ser conscientes de lo que estaban viendo. El estudio muestra que sí es posible evocar patrones faciales negativos o positivos sin que el individuo sea consciente del estímulo que los provoca. Parece pues que las reacciones faciales iniciales son controladas por "programas" de intervención rápida y actuación independiente del proceso cognitivo. 958 El Hijo de El Cronopio No. 84 Esto apoya la teoría de que importantes aspectos de la comunicación emocional cara a cara pueden ocurrir a un nivel de subconsciente. Es posible que la respuesta muscular automática e inconsciente frente a otras expresiones sea sólo el primer paso de una reacción en cadena, y que esta respuesta sea después seguida por las acciones conscientes. El mecanismo podría tener sus raíces en el pasado remoto, cuando el hombre primitivo respondía por instinto a un rostro amenazador con otra expresión del mismo tipo, en parte como mecanismo de defensa, para después dejar paso al raciocinio y a la decisión definitiva consciente (huir o afrontar el peligro con un ataque). Posible agujero negro oculto El nuevo telescopio espacial Chandra descubre un posible agujero negro que hasta ahora había pasado desapercibido. La capacidad del telescopio espacial Chandra de observar procesos invisibles para otros instrumentos radica en su potencia y sensibilidad en la gama de los rayos-X. En septiembre de 1999, el Chandra observó una galaxia situada a 2.500 millones de años luz de la Tierra, durante la fase de calibración de su instrumental. Bajo telescopios ópticos, la galaxia aparece totalmente normal; en cambio, el Chandra halló en ella una fuente de rayos-X inusualmente poderosa. La citada fuente se encuentra en el corazón galáctico y podría ser un claro ejemplo de agujero negro oculto. Hasta ahora, los astrónomos creían que buena parte de las galaxias poseen un agujero negro central, pero dado que muchas no muestran en el rango óptico señales claras de actividad, no era posible afirmar que el fenómeno esté presente en todas ellas. El hallazgo del Chandra, sin embargo, sugiere que puede haber galaxias cuyo agujero negro central no será aparente si no es mediante la utilización de instrumentos que abarquen otras longitudes de onda, como los rayos-X, y que por tanto el censo realizado por los astrónomos está incompleto. La imagen óptica de la galaxia se ha superpuesto a la obtenida con el Advanced Charged Coupled Imaging Spectrometer (ACIS) del Chandra, un instrumento muy sofisticado, lo cual nos da una idea precisa de la posición y del aspecto puntual de la fuente de rayos-X, llamada CXOUJ031238.9-765134. Información adicional en: http://science.msfc.nasa.gov/headlines/y2000/ast21mar_1m.htm Imagen: http://www1.msfc.nasa.gov/NEWSROOM/news/photos/2000/2000images/0312_xray_o pt_lg.gif (La doble imagen óptica y en rayos-X de la galaxia.) (Foto: NASA/CXC/SAO/ESO/La Silla) Lo que los químicos pueden aprender del pasado Aunque la medicina moderna ha desarrollado medicamentos eficientes para muchas enfermedades, algunas de ellas ya fueron tratadas de forma eficaz en el pasado, mediante simples métodos naturales. Si le preguntamos a un médico sobre si la medicina actual tiene algo que aprender del pasado, seguramente nos dirá que no. Pero un científico de la North Carolina State University opina todo lo contrario. 959 El Hijo de El Cronopio No. 84 El doctor John Riddle es profesor de historia en dicha universidad y un experto en el uso histórico de medicinas derivadas de las plantas. Riddle cree firmemente que algunas enfermedades eran tratadas de forma eficaz en la antigüedad a través de medios naturales y que la medicina haría bien en aprender algo de ellos, ya que proporcionarían a los médicos formas alternativas para combatirlas, sobre todo teniendo en cuenta la intolerancia química de algunos pacientes frente a ciertos medicamentos o sus efectos secundarios. Hay diversos casos que apoyan esta propuesta. En Estados Unidos son bastante populares los suplementos de hierbas medicinales, como la de St. John, que se emplea para tratar la depresión sin que seamos realmente conscientes de su verdadero potencial. Riddle ha estudiado su uso en la historia y ha encontrado que fue utilizada por primera vez en el año 800 de nuestra era como antiséptico para tratar heridas y para los problemas de vejiga. En algunos casos produjo nacimientos prematuros. Nada de ello aparece en la literatura moderna sobre esta hierba antes de 1998, momento a partir del cual los fabricantes empezaron a advertir sobre su no consumo por parte de mujeres embarazadas. Riddle cree que hay muchas otras hierbas medicinales cuyos efectos eran bien conocidos por los antiguos y que ahora no son utilizadas en función de este conocimiento, en parte porque dicha información se ha perdido o no se encuentra disponible. La medicina debería estudiarlas porque su potencial ya quedó demostrado con anterioridad y porque podrían proporcionar a los químicos farmacéuticos pistas importantes sobre usos alternativos y efectos secundarios ya olvidados. Por ahora, ningún químico ha empezado a estudiar la historia de un determinado componente con esta intención. El descubrimiento retrospectivo puede ser una herramienta útil porque aunque los nuevos medicamentos son probados para demostrar su seguridad a corto plazo, los que contienen productos químicos presentes en hierbas medicinales podrían disfrutar de pronto de un bagaje experimental sin precedentes. Se podrían poner de manifiesto al mismo tiempo diversos usos aún no determinados. Esto queda claramente patente en un caso muy particular. Un producto llamado Finasteride empezó a ser vendido bajo el nombre de Proscar para tratar problemas de próstata en hombres de edad avanzada. Cuando la compañía fabricante, Merck, descubrió que también propiciaba el crecimiento del cabello, disminuyó la dosis y empezó a venderlo bajo el nombre de Propecia. Lo curioso es que el producto químico está presente en diversas plantas, como la ortiga, y que los antiguos lo utilizaban para tratar sus problemas urinarios y también para promover el crecimiento capilar. Si Merck hubiera conocido la historia de la aplicación de la sustancia, hubiera sabido mucho antes que tenía usos alternativos al que había previsto inicialmente. El principal problema es que la comunidad académica desdeña en general el conocimiento popular como fuente de información fiable, algo que no ocurre, por ejemplo, con las culturas china e islámica. Sin duda, la medicina antigua debía enfrentarse a muchas de las aflicciones modernas, aunque no disponía del conocimiento del cuerpo humano actual, ni mucho menos de los medios de investigación necesarios. A pesar de todo, textos del Próximo Oriente, de Grecia, Roma y de las regiones occidentales durante la Edad Media describen el tratamiento de la arterioesclerosis, la alopecia, la artritis, el cáncer, la depresión mental, 960 El Hijo de El Cronopio No. 84 etc. También se ejercía un control de la natalidad mediante el uso de contraceptivos y el aborto provocado, por un lado, y de productos para mejorar la fertilidad, por otro. Una buena parte de todas estas cuestiones están relacionadas con el sistema endocrino, concepto médico que desconocían por completo los antiguos. A pesar de todo, los papiros de Ebers y Kahun, del antiguo Egipto, escrituras griegas atribuidas a Hipócrates, y otros tratados médicos posteriores, contienen sustancias empíricas administradas y que nosotros hemos redescubierto recientemente como agentes efectivos. La moderna bioquímica puede explicar ahora sus mecanismos de acción, pero sus efectos se conocían mucho antes. Información adicional en: http://www2.ncsu.edu/ncsu/univ_relations/news_services/press_releases/00_03/70.htm Imagen: http://www2.ncsu.edu/ncsu/univ_relations/news_services/press_releases/00_03/riddle.jpg (John Riddle.) (Foto: NC State University) Minisatélites hechos por estudiantes Varios alumnos de ingeniería en un curso del MIT se muestran muy interesados en el vuelo en formación, y desean trasladar este interés al espacio. El proyecto espacial SPHERES (Synchronized Position Hold Engage Re-orient Experimental Satellites) tiene una particularidad que lo hace poco habitual: está siendo llevado a cabo por estudiantes. Los protagonistas son trece alumnos, los cuales están asistiendo a un curso especial en el Massachusetts Institute of Technology. Su objetivo es conseguir un diseño para un telescopio de mayor resolución que el actual Hubble, pero para que ello se haga realidad, antes deben demostrar un concepto innovador. El proyecto SPHERES consiste en el desarrollo y ensayo de tres satélites con el tamaño de una pelota de voleibol. Su objetivo será probar una serie de tecnologías que hagan posible el vuelo en formación en el espacio. La idea principal es demostrar que, en vez de lanzar un gran satélite como el Hubble, es posible hacer lo propio con varios mucho más pequeños, los cuales, evolucionando en formación y actuando al unísono, puedan obtener el mismo o superior provecho científico. Dos de los minisatélites, que son capaces de comunicarse entre sí y con un ordenador, fueron ensayados recientemente a bordo de un avión KC-135 de la NASA. Dicho avión realiza una serie de parábolas que proporcionan unos segundos de ingravidez a sus ocupantes. En febrero, los estudiantes del MIT probaron dos SPHERES a un tiempo en el interior del KC-135, registrando importante información sobre su funcionamiento. Para crear un telescopio de mayor resolución que el Hubble, se lanzarían al espacio varios minisatélites individuales, mucho más económicos y sencillos, cada uno de ellos dotado de un espejo propio. Las imágenes conjuntas obtenidas mediante interferometría serían mejores que las del famoso telescopio espacial, pero ello sólo sería posible si las posiciones de los minisatélites entre sí pudiesen ser determinadas con extrema precisión. El proyecto SPHERES servirá para validar las tecnologías necesarias para que esto sea viable. El proyecto SPHERES también es una herramienta educativa, ya que proporciona experiencia a los estudiantes sobre cómo trabajar en la industria aeroespacial. Los minisatélites que produzcan serán usados en el espacio a bordo del Space Shuttle y la estación internacional ISS, de manera que los científicos podrán ensayar los diferentes 961 El Hijo de El Cronopio No. 84 parámetros relacionados con el vuelo en formación. Realizar pruebas con los satélites en el interior de las astronaves tiene sus ventajas, ya que no deberán ser diseñados para soportar los rigores del vacío cósmico, con lo que serán más baratos. Información adicional en: http://web.mit.edu/newsoffice/nr/2000/commsatellites.html Imagen: http://web.mit.edu/newsoffice/nr/2000/newman2.jpg (Pruebas en vuelos parabólicos.) (Foto: NASA) Descubrimiento del nuevo asteroide "Catalonia" El 25 de mayo pasado la Unión Astronómica Internacional nominó CATALONIA al asteroide 13868 recién descubierto. Desde ahora el nombre de Catalunya figurará para siempre en el espacio en la forma de un asteroide. Se trata de un cuerpo rocoso de unos 9 km de diámetro, situado entre las órbitas de los planetas Marte y Júpiter, que da una vuelta al Sol cada 4,09 años. El asteroide fue descubierto por Joan Guarro Flo desde su observatorio de Piera (Barcelona). Joan Guarro es miembro del Grup d'Estudis Astronòmics (G.E.A.), de la Fundació Observatori Esteve Duran (F.O.E.D.) y del Observatori Astronòmic de Mallorca (O.A.M.). Cuando un asteroide es catalogado definitivamente se le asigna un número de orden y además su descubridor tiene la facultad de poderlo bautizar con un nombre. A propuesta de Joan Guarro y de los miembros del G.E.A., se solicitó a la Unión Astronómica Internacional que se le asignase el nombre de "Catalonia" al nuevo asteroide 13868. Si bien hay asteroides con órbitas que se acercan peligrosamente a la Tierra, la mayor parte de estos cuerpos, suelen desplazarse alrededor del Sol entre las órbitas de los planetas Marte y Júpiter, en el conocido cinturón de asteroides. A principios de siglo Comas Solá descubrió 11 asteroides desde Barcelona. En aquella época no existían los medios actuales, pero mediante placas fotográficas acopladas a los telescopios y largos tiempos de exposición llegaron a descubrirse muchos de los de mayor tamaño. 804 Hispania fue el nombre que se dio al primer asteroide descubierto por Comas Solá en el año 1915, al que siguieron con posterioridad 925 Alfonsina en 1920 y 945 Barcelona en 1921. 925 Alfonsina fue denominado así en honor al rey Alfonso X el Sabio y encubiertamente también a Alfonso XIII (las normas prohíben dar el nombre a personajes políticos o militares hasta pasados 100 años de su fallecimiento), y el 945 Barcelona fue nominado en recuerdo de su ciudad natal. De los asteroides con numeración definitiva descubiertos desde España hasta el presente, 14 lo han sido desde Cataluña (12 desde la ciudad de Barcelona), 6 desde Mallorca, 3 desde Almería (Observatorio Hispano-alemán de Calar Alto), 1 desde Madrid y 1 desde Canarias (Observatorio europeo de La Palma). Aunque la creciente contaminación lumínica dificulta en gran manera la detección de estos cuerpos, hoy en día las cámaras digitales CCD y programas informáticos específicos permiten detectar asteroides mucho menores, no únicamente en el cinturón principal de asteroides sino mas allá de la órbita de Neptuno, en el conocido como cinturón de Kuiper. Existe un gran interés en catalogar y conocer los movimientos de estos pequeños planetoides, para descartar y prevenir a la Tierra de posibles colisiones, estudiarlos a fondo pues están compuestos por el material primitivo del que se formó el sistema solar, así como también para el caso de organizar futuras expediciones en busca de recursos minerales. Una muestra del interés científico que despiertan los asteroides es 962 El Hijo de El Cronopio No. 84 la actual misión espacial NEAR (Near-Earth Asteroid Rendezvous), una nave de exploración lanzada hacia el asteroide 433 Eros en 1996 con el objetivo de explorarlo concienzudamente durante 3 años. Tras un fracasado intento a principios de 1999, el 14 de febrero del 2000 se situó en órbita de este pequeño cuerpo al que está estudiando mediante seis tipos de experimentos distintos. En España, el Observatorio Astronómico de Mallorca, pionero de la moderna astrometría CCD de nuestro país, cuenta ya con 6 descubrimientos oficiales, el 9453 Mallorca, el 9900 Llull en 1997, denominado así en memoria de Ramon Llull con motivo del 700 aniversario de su obra "Tractatus Novus" de Astronomía, publicada en París en 1297, el 11350 Teresa, el 13424 Margalida y los 14097 y 14967 todavía sin nombre. Debido a que muchos de esos pequeños planetoides pueden observarse una vez, perderse y no recuperarse más, el Minor Planet Center, organismo dependiente de la Unión Astronómica Internacional, que es el encargado de calcular, designar y catalogar esos cuerpos, solamente confirma el descubrimiento y permite asignar un nombre propio al asteroide cuando ha sido observado durante unas cuantas oposiciones, o períodos en los que el astro pasa cercano a la Tierra. Por término medio se requieren de 4 a 6 oposiciones, lo que en ocasiones puede suponer que transcurran bastantes años hasta conseguir numerar definitivamente un asteroide (catalogarlo oficialmente de forma definitiva) detectado mucho tiempo atrás, pero eso permite ajustar y conocer con gran precisión su órbita en el futuro. 1999 YZ8, como fue designado provisionalmente este nuevo asteroide, ha pasado a ser el 13868 Catalonia. A propuesta de su descubridor y de los miembros del GEA se solicitó al comité de asignaciones de la Unión Astronómica Internacional que fuera inscrito como "Catalonia", nombre latinizado de Catalunya, que también es la forma más utilizada internacionalmente, en una clara intención de llenar el vacío histórico y geográfico que dejó Comas Solá entre los asteroides 804 Hispania y 945 Barcelona. No obstante, otro de los asteroides de Comas Solá ya fue bautizado como 1188 Gothlandia, alusión mitológica a los orígenes de Catalunya. Asteroides numerados descubiertos desde España Hasta mayo del 2000, tan sólo 21 asteroides descubiertos en España han sido numerados de forma definitiva (en realidad hay 4 más descubiertos por astrónomos alemanes e ingleses desde los Observatorios internacionales de Calar Alto y de La Palma). El primer asteroide descubierto en España lo fue en 1915 por parte de Comas Solá desde el Observatorio Fabra de Barcelona. Desde entonces y hasta el descubrimiento de 13868 Catalonia, en los 85 años transcurridos sólo se habían descubierto otros 18, la mayoría durante el primer tercio de siglo. Con posterioridad también han sido catalogados definitivamente, los todavía sin nombre, 14097 y 14967, siendo de destacar que 7 de los 8 últimos asteroides descubiertos lo han sido por parte de la red de observatorios del Grup d'Estudis Astronòmics, que en menos de 3 años desde que inició este trabajo, se ha apuntado el 30% del total de asteroides españoles catalogados hasta el presente. 963 El Hijo de El Cronopio No. 84 Historias unidas El descubrimiento de varios moluscos fósiles en Alaska ha permitido enlazar las historias del océano Ártico y el istmo de Panamá. En ocasiones la casualidad rinde grandes servicios a la ciencia. Un investigador de la National Science Foundation encontró dos moluscos fósiles en una colección de California, y gracias a ello cree haber identificado también un punto de conexión entre la historia del istmo de Panamá y la del océano Ártico. Según Louie Marincovich, adscrito a la California Academy of Sciences, la aparición del istmo provocó la inversión del flujo del agua que pasa por el estrecho de Bering. Este empezó entonces a moverse hacia el norte, y no hacia el sur, afectando de este modo al océano polar Ártico. Los fósiles examinados habían sido localizados en Alaska en los años setenta pero habían pasado desapercibidos hasta ahora. Los moluscos de su especie habían vivido sólo en el Ártico y en el Atlántico norte, hasta que se abrió el estrecho de Bering. Su descubrimiento en rocas de Alaska de hace unos 5,5 millones de años sugiere que el estrecho se abrió aproximadamente en dicha época. Para poder ser encontrados en el sur de la península, los moluscos tuvieron que migrar a través del estrecho. Pero unos 2 millones de años después, hace 3,6 millones de años, moluscos instalados en el Pacífico empezaron a migrar hacia el norte a través del estrecho de Bering, hacia el Ártico y el Atlántico norte. Esto implica una inversión del flujo del agua en esta época, un cambio que se cree fue debido a la aparición del istmo de Panamá, después de muchos millones de años durante los cuales un paso marítimo amplio separaba las dos Américas. La formación del istmo tropical causó drásticos cambios en las corrientes oceánicas del hemisferio norte y creó el flujo de la corriente del Golfo. Los modelos por ordenador ya habían predicho estas circunstancias, pero hasta el estudio de los moluscos fósiles no se había podido datar con precisión cuándo se habían producido tales cambios. Información adicional en: ftp://204.144.241.6/pub/geology/28-551.pdf http://www.nsf.gov/od/lpa/news/press/00/pr0041.htm Imagen: http://www.nsf.gov/od/lpa/news/press/images/webastarte.jpg (Los moluscos encontrados.) (Foto: Marincovich/CAS) La gran estrella polar Un nuevo instrumento de medida ha permitido caracterizar de forma más exacta las propiedades físicas de la famosa estrella de los navegantes. Ha sido necesario esperar a la aparición de un sistema altamente sofisticado para poder otorgar a la Estrella Polar su verdadera grandeza. Grandeza física, puesto que la mítica la posee ya desde hace mucho tiempo: situada en el extremo de la constelación de la Osa Menor y en un punto que coincide aproximadamente con la prolongación del eje de rotación de la Tierra, Polaris ha sido desde tiempos inmemoriales una de las guías más importantes para los navegantes y exploradores. Su posición nos señala la ruta hacia el norte, una referencia fundamental para poder orientarnos sobre la superficie terrestre. Astronómicamente hablando, sin embargo, Polaris no era demasiado bien conocida. Ahora, especialistas del United States Naval Observatory han empleado un nuevo tipo de telescopio que nos ha permitido conocer más cosas de su interior. El Navy Prototype 964 El Hijo de El Cronopio No. 84 Optical Interferometer (NPOI) es en realidad un grupo de telescopios que al actuar de forma simultánea y mediante técnicas interferométricas proporcionan un poder similar al de un sistema único de 38 metros de diámetro, suficiente como para que seamos capaces de medir el diámetro real de la estrella. La principal conclusión es que Polaris tiene un tamaño 46 veces más grande que el de nuestro Sol, una medición directa de su radio sin precedentes. La estrella se encuentra a 431 años luz de nosotros y es considerada como una variable Cefeida, un tipo de estrella pulsante que cambia su brillo de una forma muy regular y periódica. Los astrónomos saben que existe una relación entre la longitud de dicho período y la emisión total de luz (luminosidad), y que también hay una relación entre el período y el radio de la estrella. Con todo ello, las cefeidas pueden ser usadas como patrones para determinar distancias, y ya que éstas son más brillantes o menos en función de su cambiante diámetro, resulta de gran interés precisar este último al máximo. Las observaciones del NPOI han permitido apreciar además que Polaris es una Cefeida extraña. No toda su atmósfera se mueve en la misma dirección y al mismo tiempo cuando varía su diámetro durante las pulsaciones. El NPOI, situado en el Observatorio Lowell, tiene forma de "Y" y está formado por varios telescopios de medio metro de diámetro. Combinando la luz que reciben, han medido ya los radios de un centenar de estrellas. En el caso de la Polaris, las teorías indicaban que su radio debía ser unas 38 veces mayor que el radio solar. Las diferencias encontradas permitirán ajustar los parámetros que cataloguen a la estrella como un tipo más concreto de pulsante Cefeida. Información adicional: http://www.usno.navy.mil/pao/press/npoi0607.html Imagen: http://www.usno.navy.mil/pao/press/figure2.gif (La estrella Polar compara su diámetro relativo con el de otras, incluyendo nuestro Sol.) (Foto: Dr. Tyler Nordgren/U.S. Naval Observatory) No tan verdes como parecen Los embalses para explotaciones hidroeléctricas pueden llegar a ser más perjudiciales para la atmósfera que una central térmica de carbón. Se menciona a menudo el uso de la energía hidroeléctrica como una buena opción para reducir la contaminación de la atmósfera durante la fase de producción. El agua mueve las turbinas de los generadores, sin que sea necesaria combustión alguna para producir electricidad. Sin embargo, las centrales hidroeléctricas no son tan limpias como podrían parecer. De hecho, en términos de contribución al fenómeno del calentamiento global, los embalses necesarios para su funcionamiento podrían ser aún más dañinos que una central térmica movida por carbón u otros combustibles fósiles. La razón es simple, y es que el grado de contribución al calentamiento global se mide en función de la cantidad de gases invernadero lanzados a la atmósfera, siendo los embalses unos grandes productores de tales gases. Así lo cree una comisión mundial que ha investigado el problema con gran atención y que está formada por científicos, ingenieros y ecologistas. El protocolo de Kyoto firmado en 1997 distingue entre tecnologías "verdes" y aquellas que no lo son. Algunos ingenieros han estado últimamente presionando para situar a los embalses en la primera categoría, pero el reciente informe parece llevarles la contraria. 965 El Hijo de El Cronopio No. 84 Si sumamos el área cubierta por los embalses y pantanos de todo el mundo, ésta se acercaría a una superficie cercana a la que ocupa un país como Francia. Las mediciones indican que estas acumulaciones de agua emiten dióxido de carbono y metano en grandes cantidades. Ello es debido a que el agua estancada provoca que la vegetación se degrade y emita metano. El metano es un gas invernadero 20 veces más potente que el CO2 (el dióxido de carbono surge del agua cuando existe oxígeno en ella), y un embalse produce más gas de este tipo que el río que circulaba antes de su construcción. La materia orgánica arrastrada al interior de los pantanos por la corriente que procede de río arriba se acumula y produce metano en grandes cantidades. La cifra es superior a la producida por los bosques locales cubiertos por las aguas durante la formación del embalse. El problema es especialmente grave en los que se encuentran en los trópicos, sobre todo en aquellos que tiene aguas poco profundas. Así ocurre, por ejemplo, en el de Balbina (Brasil), con zonas de menos de 4 metros de profundidad. Este pantano genera 112 megavatios de electricidad pero también está produciendo 3 millones de toneladas de carbono anuales durante sus primeros 20 años de vida. En el mismo período de tiempo, una central de carbón de la misma capacidad produce 0,35 millones de toneladas anuales. Los estudios se han hecho de momento en apenas un puñado de embalses en cuatro países, de manera que se supone que hay muchos más candidatos. Las emisiones, a pesar de todo, son erráticas y pueden variar en un factor de 500 por unidad de electricidad. Lo que sí resulta claro es que la hidroelectricidad contribuye al calentamiento de la atmósfera y que su calificación como energía "verde" deberá ser seguramente revisada. (New Scientist) Super-visión Los científicos no sólo trabajan para mejorar los defectos visuales de las personas, sino también para aumentar aún más la agudeza de las que están perfectamente sanas. Los astrónomos utilizan desde hace años una tecnología nueva que emplea sistemas ópticos adaptables, los cuales se amoldan a las condiciones atmosféricas variables (como las turbulencias) para mejorar la calidad de las observaciones. El truco ha hecho milagros y ha permitido fotografiar objetos celestes muy débiles. La aplicación de estas técnicas en personas con la vista sana podría suponer una mejora sustancial, calificada a menudo como "super-visión". Así, mientras las habituales gafas tratan de corregir ópticamente los defectos de la vista, otro tipo de dispositivos servirán para superar la barrera de la normalidad para alcanzar un grado superlativo. Para conseguirlo será necesario avanzar en el uso de la óptica adaptable. Durante las investigaciones, los expertos han dirigido un rayo de luz altamente enfocado hacia la superficie del ojo de un sujeto voluntario. Un dispositivo mide entonces la luz reflejada hacia el exterior, ofreciendo pistas sobre la topografía del ojo con un alto detalle, como por ejemplo la existencia de imperfecciones o aberraciones que existan en la córnea o la pupila. El sistema detecta distorsiones visuales tan sutiles que los médicos no creían ni que existieran. En la actualidad los oftalmólogos se centran sobre todo en el astigmatismo y 966 El Hijo de El Cronopio No. 84 en la falta de enfoque, mientras que el nuevo sistema puede medir hasta 65 aberraciones distintas. Las mediciones son enviadas luego hacia un espejo "deformable", un espejo que puede adaptar su forma (en un margen de 1 a 2 micrómetros) de acuerdo con ellas y gracias a 37 minúsculos pistones movidos por un ordenador. Con este moldeo a medida, adaptado al sistema óptico de cada persona, la luz resulta alterada de tal forma que equilibra las distorsiones específicas y naturales del ojo. La corrección de las imperfecciones implica una visión muy mejorada. Mirar a través de estos dispositivos de óptica adaptable permitirá a algunas personas mejorar hasta seis veces la percepción del contraste. Todo se aprecia más claro y vivo, no importa lo buena que fuera nuestra visión con anterioridad. Los mejores resultados en cuanto a agudeza visual se obtienen en ambientes de baja luminosidad, como cuando conducimos de noche. Un conductor, en tales circunstancias, vería a un ciclista desde dos veces más distancia que antes. Por ahora, sin embargo, el sistema de óptica adaptable es demasiado voluminoso para llevarlo puesto como unas gafas. Se espera que algún día esto se resuelva y que cualquier persona pueda disfrutar de la super-visión. Información adicional en: http://www.rochester.edu Infertilidad y conducción Las personas que se pasan mucho tiempo al volante pueden estar expuestos a un inesperado contratiempo. Expertos franceses creen haber confirmado la existencia de una relación entre la infertilidad experimentada por algunos hombres y las largas horas que dedican a la conducción de vehículos. Estudios anteriores indican que el número de espermatozoides presentes en muestras proporcionadas por conductores profesionales es más bajo de lo habitual. Las células presentan frecuentes anormalidades y a menudo las parejas de los conductores tardan más tiempo en concebir. Para demostrar que todo ello es debido a un aumento de la temperatura en el interior del escroto, donde se encuentra los testículos, varios científicos establecidos en un centro de Toulouse han llevado a cabo un experimento totalmente controlado. Nueve voluntarios sanos, vestidos con su indumentaria habitual, fueron equipados con una serie de sensores, incluidos termómetros diminutos adheridos a la piel del escroto y conectados a un sistema de grabación fijado al cinturón. El aparato registraría la temperatura cada dos minutos. Los voluntarios caminaron primero a lo largo de una ruta predeterminada y después condujeron un automóvil durante 160 minutos sin emplear aire acondicionado. Un tercer sensor midió la temperatura ambiental. El resultado indica que durante los 20 primeros minutos de conducción, la temperatura media del escroto ascendió de 34,2 a 35,5 grados centígrados. De los 20 a los 120 minutos, alcanzó los 36,2 grados y luego se estabilizó. Una comparación de estas cifras con las obtenidas durante el período en que caminaron normalmente mostró que la temperatura del escroto izquierdo se encontraba 1,7 grados más arriba al conducir, por 2,3 grados el derecho. Según el doctor Roger Mieusset, este incremento de las temperaturas durante la conducción puede ser una de las evidencias más claras de que esta actividad afecta a la fertilidad en el hombre. A pesar de todo, aún se necesitan más estudios para confirmar que un incremento temporal en la temperatura del escroto basta para justificar la presencia de problemas en la formación de los espermatozoides. Lo cual no obvia para suponer que los estilos de vida pueden influir perfectamente en la fertilidad humana. Inf. adicional. en: http://www.eshre.com/home.asp 967 Boletín El Hijo de El Cronopio Facultad de Ciencias Universidad Autónoma de San Luis Potosí No.85, 17 de julio de 2000 CARTA Boletín de información científica y tecnológica de la Facultad de Ciencias Publicación semanal Edición y textos Fís. José Refugio Martínez Mendoza Parte de las notas de la sección Noticias de la Ciencia y la Tecnología han sido editadas por los españoles Manuel Montes y Jorge Munnshe. La sección es un servicio de recopilación de noticias e informaciones científicas, proporcionadas por los servicios de prensa de universidades, centros de investigación y otras publicaciones especializadas. Cualquier información, artículo o anuncio deberá enviarse al editor. El contenido será su responsabilidad. e-mail: flash@galia.fc.uaslp.mx Números anteriores del boletín, pueden consultarse por Internet en la página de la UASLP: http://phobos.dtc.uaslp.mx/publi.html Dear flash@galia.fc.uaslp.mx, This week's dramatic news on the sequencing of the human genome has captured the interest of scientists and non-scientists and has catapulted researchers to a celebrity status normally reserved for film stars and models. We at Nature applaud the achievements of the Human Genome Project and Celera Genomics and look forward to the full publication of their research later in the year, details of which are yet to be announced. In the meantime, Nature continues to report, and publish, on all aspects of genomics. Our latest issue contains a special news report on the human genome sequence, covering the immediate past, the present and the future of human genome research. We give details on the rapprochement between the private and public efforts that allowed Monday's announcements to be made; report on the reaction from key political leaders and opinion formers; and presage the task ahead--switching attention from sequencing to "annotation" of the genome. All this and more can be found on Nature's Genome Gateway from today. The Genome Gateway (http://www.nature.com/genomics/) provides the most up-to-date, comprehensive and AUTHORITATIVE coverage of genomics. Access to the Genome Gateway is free, allowing you to stay abreast of science that will, according to President Bill Clinton "have a real impact on all our lives". Richard Gallagher Chief Biology Editor, Nature El Hijo de El Cronopio No. 85 Noticias de la Ciencia y la Tecnología Materia primordial La lucha de los físicos por entender la materia y el origen del Universo no descansa. Los avances teóricos tampoco cesan, pero son necesarios nuevos instrumentos que acerquen las hipótesis al mundo real. Los científicos quieren utilizar estos instrumentos para crear materia en un estado primigenio que creemos ya no existe de forma natural. Las condiciones que reinaron durante el Big Bang, la gran explosión que pensamos dio lugar al Universo, fueron tan extraordinarias que apenas sabemos cómo describirlas. De hecho, cuando los físicos han activado su ficticia máquina del tiempo, no han podido acceder aún al mismo inicio del estallido sino a lo que ocurrió unos escasos instantes después. Si queremos experimentar sobre dichas condiciones para comprenderlas mejor, no tendremos más remedio que inventar modos de reproducirlas en el laboratorio. Es por eso que los científicos están poniendo a punto nuevos instrumentos que prometen revolucionar nuestro concepto del Universo y su origen. La inquietud de nuestros investigadores ha permitido saber que los núcleos de los átomos de la materia que ahora consideramos ordinaria se formaron unos tres minutos después del Big Bang. En ese instante, las condiciones imperantes ya eran muy distintas a las iniciales, ya que el Universo había perdido densidad y se había enfriado. Por eso, para ver cómo era la materia antes de ese momento, se hace necesario intentar reproducir su estado mediante sistemas que puedan proporcionar las densidades y energías que dominaban la escena. Los científicos del CERN europeo han conseguido prolongar ya nuestro conocimiento gracias al programa Heavy Ion, que ha determinado cómo era el Universo a partir de apenas 13 microsegundos después del Big Bang. La materia, en ese período previo a la aparición de los núcleos de los átomos (neutrones y protones), se veía sometida a unas condiciones en las que las partículas que conformarían a estos últimos (quarks y gluones) no se encontraban confinadas sino que evolucionaban libremente en una especie de sopa primordial o plasma. Para conocer mejor las características de este plasma, el CERN prepara el Large Hadron Collider. Fuera de Europa, el estadounidense Brookhaven National Laboratory compite con el llamado Relativistic Heavy Ion Collider (RHIC), el cual ya ha empezado a trabajar. El RHIC, a la sazón, está considerado como uno de los más importantes experimentos que la ciencia moderna pretende llevar a cabo. El objetivo de la máquina, por supuesto, es reproducir las condiciones adecuadas de densidad y temperatura necesarias para obtener una muestra de plasma quark/gluón. Para ello, se hacen chocar entre sí núcleos de átomos pesados (por ejemplo, oro) a velocidades cercanas a la de la luz. Las colisiones nucleares de alta energía no hacen sino actuar como un horno capaz de generar temperaturas y presiones cientos de miles de veces mayores que las que existen en el centro de las estrellas. La meta del RHIC, pues, será recrear las condiciones presentes en el Universo cuando éste tenía una edad de tan sólo 1 millonésima de segundo. En el Universo actual, las partículas que llamamos quarks nunca se encuentran solas en la materia ordinaria. Al contrario, siempre se hallan formando parejas o tríos, unidas 969 El Hijo de El Cronopio No. 85 entre sí por gluones. De esta forma, si queremos estudiar la sopa o plasma de quarks/gluones que caracterizó al Universo primigenio, debemos utilizar aceleradores que permitan colisionar núcleos pesados y obtener energías muy altas, suficientes para garantizar la supervivencia individual de estas partículas. El RHIC produce colisiones 10 veces más poderosas que las obtenidas últimamente por el CERN. Se elimina así incertidumbre que pudiera haber, produciendo señales indiscutibles de la deseada presencia del plasma. Las colisiones son estudiadas con cuatro de los más avanzados detectores para partículas de alta energía diseñados hasta la fecha. Se llaman BRAHMS, PHENIX, PHOBOS y STAR y han sido desarrollados por científicos pertenecientes a casi cien laboratorios y universidades de todo el mundo. Algunos expertos no dudan en calificar al RHIC como el "Hubble de la física nuclear", refiriéndose a lo que ha supuesto el famoso telescopio espacial para al astronomía. El acelerador revolucionará nuestra comprensión de la teoría de los quarks y los gluones, llamada cromodinámica cuántica (QCD), de la cual desconocemos aún muchos detalles. Las primeras colisiones en el RHIC se realizaron el 10 de junio y sus detectores han empezado a producir espectaculares imágenes. El estudio de los resultados y la divulgación de las conclusiones, sin embargo, aún tardarán un poco (principios de 2001). Se espera entonces disponer de detallada información sobre la temperatura, energía, densidad y entropía del plasma investigado, lo que a su vez ayudará a explicar los orígenes de los protones, neutrones y otras partículas elementales, incluyendo por qué su destino final ha sido formar la materia en el estado que la vemos hoy en día (incluyéndonos a nosotros mismos). El RHIC es en realidad dos aceleradores en uno. Se encuentra construido en un túnel subterráneo de 3,84 km de circunferencia, y contiene dos anillos, cada uno equipado con 1.740 imanes superconductores. La aceleración independiente de dos "rayos" separados es lo que proporciona su habilidad única de colisionar iones pesados con tan alta energía de impacto. En su primer ronda de funcionamiento, se consiguieron energías de hasta 30.000 electronvoltios por nucleón (protón o neutrón), cuatro veces más que las producidas en el CERN. Se espera, sin embargo, llegar a los 100 GeV por nucleón en cada rayo. Con toda esa energía concentrada en un espacio de apenas el tamaño de un núcleo atómico, los iones que colisionan alcanzarán, durante una pequeña fracción de segundo, una temperatura 100.000 veces superior a la existente en el centro de nuestro Sol, lo bastante elevada como para "deshacer" los iones en sus componentes (quarks y gluones). El estudio de los datos proporcionados por millones de estas colisiones de alta energía nos dará la evidencia necesaria para confirmar que el plasma quark/gluón se formó y que por tanto es posible empezar a entender sus propiedades. Durante cada colisión se emiten miles de partículas. Estas son las que son estudiadas por los detectores antes mencionados. Estos detectores han sido colocados en cuatro de los seis puntos de colisión a lo largo del anillo. Los PHENIX y STAR son tan grandes que miden varias plantas de altura. Los otros dos, BRAHMS y PHOBOS, son más pequeños y especializados. La construcción del RHIC no ha sido fácil. Se inició en 1991 y fue completada en 1999. En este tiempo se han recibido las colaboraciones de más de 1.000 científicos situados en 19 países. Obviamente, no se trata de un experimento barato ni uno que se desee duplicar 970 El Hijo de El Cronopio No. 85 innecesariamente. De aquí que la colaboración internacional y la coordinación hayan resultado esenciales. La culminación de años de intenso trabajo, por tanto, está a punto de dar sus frutos. Información adicional en: http://www.rhic.bnl.gov; http://www.aip.org/releases/2000/rhic.html http://www.pubaf.bnl.gov/pr/bnlpr060800.html http://www.cern.ch/CERN/Announcements/2000/NewStateMatter; http://www.cern.ch Imagen: http://www.pubaf.bnl.gov/photos/STARanimated.gif (Animación de una colisión de iones de oro, vista por el detector STAR.)(Cortesía: BNL) http://www.pubaf.bnl.gov/photos/E80frontHR.jpg (Colisión de iones de oro, vista por el detector STAR.) (Foto: BNL) http://www.bnl.gov/bnlweb/photos/large/stardetector.jpg (El detector STAR.) ¿Dónde va la energía que produce las mareas? Los efectos de la gravedad lunar son claramente evidentes en el fenómeno que llamamos mareas. La enorme cantidad de energía desplegada, sin embargo, tenía un destino final poco conocido. Hasta ahora. La presencia de un astro tan relativamente grande como la Luna en las cercanías de la Tierra tiene diversas consecuencias. Consecuencias que han influido decisivamente en la historia de nuestro planeta y en las condiciones que lo han hecho habitable. Uno de los efectos más conocidos es sin duda las mareas. La gravedad lunar aplica una muy considerable cantidad de energía sobre la Tierra, haciendo que el agua de los océanos responda elásticamente a su acción atractiva. Pero, ¿dónde va a parar toda esa energía? Esta es una pregunta que se han estado haciendo los científicos desde hace prácticamente dos siglos, sin que hasta ahora se haya llegado a una conclusión clara. Gracias a las mediciones altimétricas de gran precisión, sin embargo, parece que las cosas están cambiando. Un satélite como el TOPEX/Poseidon, una colaboración entre los Estados Unidos y Francia, puede sobrevolar toda la superficie terrestre de forma constante y sin interferencias. Es posible así medir con una exactitud de pocos centímetros la altura de los océanos respecto a una magnitud de referencia. La acumulación de esta información durante seis años ha proporcionado a científicos como Richard Ray, del Goddard Space Flight Center, y Gary Egbert, del College of Oceanic and Atmospheric Sciences, de la Oregon State University, las herramientas necesarias para afrontar la cuestión. Gracias a ello, ahora sabemos que la disipación de la energía ocasionada por la influencia de la gravedad lunar se lleva a cabo constantemente debido a la acción de las olas que golpean las costas y al agua que se mueve en ellas en zonas no demasiado profundas. La mayor parte de la energía se disipa debido a la fricción entre el agua y el fondo marino. Una fracción más pequeña, quizá un 25 ó 30 por ciento, ocurre por la fricción en aguas profundas (alrededor de un 1 billón de vatios). La precisión altimétrica proporcionada por el TOPEX/Poseidon es tan elevada que podemos conocer con gran exactitud el comportamiento de las mareas a escala global. Se han obtenido mapas empíricos de la disipación de la energía de las mareas, y puede apreciarse que la disipación en aguas profundas coincide con áreas de fondos abruptos 971 El Hijo de El Cronopio No. 85 (cadenas montañosas submarinas, etc.). La fricción ocasiona movimientos internos dentro de la columna de agua, resultando en turbulencias localizadas. La principal dificultad a la que se han tenido que enfrentar los científicos ha sido la derivación de una serie de datos predictivos para un período de 16 días, datos que después han tenido que coincidir exactamente con las observaciones vía satélite. El mapa resultante muestra una visión sintética de cómo se mueven las mareas a lo largo y ancho de los océanos de la Tierra. Una importante implicación de todos estos trabajos tiene que ver con las posibles fuentes de energía que parecen necesarias para mantener la circulación del agua oceánica a gran escala, en especial el movimiento de las aguas calientes superficiales y su mezcla con la existente en las profundidades abisales. Las corrientes que transportan agua caliente hacia el fondo y agua fría hacia la superficie, actuando como una verdadera cinta transportadora, son esenciales para el equilibrio térmico que caracteriza a los mares y que en cierta manera garantiza la habitabilidad tanto de ellos como del resto del planeta. El proceso, se estima, necesita de unos 2 teravatios de energía. Dado que el viento sólo puede proporcionar 1 teravatio, ahora se piensa que la energía de las mareas muy bien podría entregar el resto. Es otro ejemplo más de hacia dónde va la energía originada por los efectos de la gravedad lunar. Si esto es así, no hay duda de que será necesario profundizar en esta cuestión, puesto que puede tener considerables implicaciones a la hora de crear futuros modelos del clima a largo plazo. El satélite TOPEX/Poseidon se encuentra en órbita desde agosto de 1992 y ha superado con creces sus objetivos originales. Aunque sus patrocinadores ya están preparando a su sustituto, sigue en activo y aportando importantes informaciones sobre los océanos, en particular de fenómenos tales como las corrientes del Pacífico que denominamos "El Niño" y "La Niña" y cuyos efectos tanto se dejan sentir en continentes como el americano. Información adicional en: http://topex-www.jpl.nasa.gov/ ftp://www.gsfc.nasa.gov/pub/PAO/Releases/2000/00-71.htm http://science.nasa.gov/headlines/y2000/ast15jun_2.htm Imagen: http://science.nasa.gov/headlines/images/missingtides/dissipation.gif (Animación sobre la disipación de la energía de las mareas.) (Foto: NASA) http://science.nasa.gov/headlines/images/missingtides/oceantides.gif (Animación de la actividad de las mareas.) (Foto: NASA) Un rostro virtual que habla Si no le gusta dar la cara, quizá muy pronto pueda confiar en una imagen virtual que lo haga por usted. Su forma de hablar y expresiones tendrán poco que envidiar a un rostro humano real. Basta contemplar la cara de una persona cuando habla para darse cuenta de lo difícil que resulta intentar reproducirla por medios artificiales. Aún más si la simulación debe ser realista y convincente. Las entonaciones de la voz, las palabras, los estados de ánimo, etc., proporcionan una variada y compleja paleta de colores para dar forma y aspecto a un rostro humano. A menudo, los grandes artistas han sido calificados como tales por su habilidad a la hora de representar una cara, especialmente de aquéllas que reflejan un sentimiento u emoción complejos, con el mayor realismo posible. 972 El Hijo de El Cronopio No. 85 Si esto ya es considerado todo un reto, imaginen lo complicado que será proporcionar una aureola de realidad a un rostro que además no se esté quieto, sino que hable y haga muecas. La animación de una cara humana dibujada por ordenador, de conseguirse, es una muestra más de los avances que está experimentado la ciencia del diseño y la programación por computador. La meta, sin duda, vale la pena. La obtención de un busto parlante digital tiene numerosas implicaciones. En un futuro que se adivina repleto de cámaras para videoconferencias, quizá prefiramos que sea nuestro yo virtual quien se ocupe de nuestra representación, sobre todo si acabamos de levantarnos de la cama y aún no hemos podido asearnos. La interacción con un ordenador que muestre nuestro rostro quizá haga también más agradable la experiencia, sobre todo si debemos pedir consejo demasiado a menudo al tradicional archivo de ayuda. Para conseguir un yo virtual con un rostro mínimamente convincente, los ingenieros del Jet Propulsion Laboratory emplean la unidad más pequeña del habla, el fonema, para manipular los movimientos faciales en la pantalla. De este modo, es el lenguaje el que domina la presentación gráfica y no los controles de animación. El programa, por ahora, se encuentra en sus primeras fases de desarrollo, pero el objetivo es lograr un rostro fotorrealísta de un individuo parlante siguiendo esta premisa. La imagen de la cara se modifica en respuesta a la voz emitida, y por tanto no solamente actúa en función de los fonemas que debe pronunciar sino también respetando las inflexiones originales o algunos estados de ánimo (como la risa, etc.). A diferencia de los dibujos animados, tal y como explica John Wright, del JPL, la técnica implica el empleo de movimientos faciales procedentes de personas reales. Se ha formado así un banco de datos con innumerables "ladrillos" que muestran las diferentes posiciones de la boca y el resto de la cara según una larga lista de fonemas. El sistema se llama Digital Personnel y posibilita que el rostro sintético hable de forma totalmente natural. Con el programa en nuestro ordenador, podremos recibir la llamada de un amigo a través de la línea telefónica (bajo ancho de banda) y utilizarlo para verlo en la pantalla de nuestro monitor, al mismo tiempo que sus palabras son capturadas e interpretadas para su visualización virtual. El rostro sintético podría ser el de nuestro propio amigo o el de una celebridad, pero siempre alguien con un aspecto agradable o atractivo, algo que la videoconferencia real (además de las dificultades técnicas que implica) no puede asegurarnos. El programa Digital Personnel será comercializado a través de la empresa Graphco Technologies. Su primera aplicación será la generación de personajes virtuales para presentaciones comerciales y ventas. Pero también se utilizará en video juegos, educación a distancia, etc. La demanda de tecnología que permita una mejor relación entre máquinas y personas crecerá en los próximos años, y este tipo de programas jugará un destacado papel en el mercado. Por supuesto, las películas cinematográficas se beneficiarán también del Digital Personnel. Será posible superponer el rostro parlante del actor principal sobre el del extra que debe realizar una escena peligrosa, haciéndonos creer en todo momento que el primero es realmente quien completa la acción. Hay quien pronostica la llegada de personajes totalmente virtuales, sin presencia de actores y actrices de carne y hueso, o la participación de estrellas de cine ya desaparecidas, cuyo rostro volverá a aparecer en pantalla en productos totalmente nuevos. Información adicional en: http://www.jpl.nasa.gov/releases/2000/digitalperson.html 973 El Hijo de El Cronopio No. 85 Imagen: http://www.jpl.nasa.gov/files/images/browse/digper1.gif (Una imagen del programa Digital Personnel.) (Foto: JPL) http://www.jpl.nasa.gov/files/images/browse/digper2.gif (Una imagen del programa Digital Personnel.) (Foto: JPL) La importancia de los márgenes oceánicos Un proyecto de investigación europeo ha puesto de manifiesto cómo las costas donde se encuentran ecosistemas muy productivos pueden ser también el escenario de procesos complejos que afectan al cambio climático. Los océanos influyen directamente sobre el clima del planeta. Poco se sabe de los procesos que intervienen en el llamado ciclo global del carbono, en el que éstos juegan un papel importante. Para paliar en cierta manera este desconocimiento, se ha iniciado un proyecto europeo que ha examinado los márgenes oceánicos de zonas tan productivas como la región nordeste del Atlántico. El proyecto, patrocinado por la Unión Europea, se llama Ocean Margin Exchange (OMEX) y en él han participado casi 40 instituciones de países que bordean el Atlántico Norte. Su objetivo ha sido una mejor comprensión del mencionado ciclo del carbono en los márgenes continentales, allí donde se separa el océano abierto de la zona costera. Dada la complejidad del sistema, esta región ha sido raramente estudiada, a pesar de que permanecen abiertas muchas preguntas sobre el papel que juega el ciclo del dióxido de carbono a escala global y de la importancia de los procesos de intercambio del CO2 entre el margen continental y la atmósfera (que a su vez influye en la fertilidad de la región). El océano, en efecto, gracias a que cubre dos tercios de la superficie terrestre, tiene un rol fundamental en el ciclo del carbono, sobre todo en el intercambio con la atmósfera. Los más recientes resultados indican que más de un tercio del CO2 emitido por las actividades humanas es transferido a través del océano. La reducción resultante en la acumulación de CO2 en la atmósfera limita significativamente el calentamiento de la Tierra y los cambios climáticos asociados. Dos mecanismos se han presentado para explicar la transferencia del CO2 atmosférico hacia el sistema marino y su almacenamiento en el océano durante al menos varios centenares de años. Uno resulta simplemente de la disolución química de dicho gas, que ocurre sobre todo en aguas frías, cerca de las dos regiones polares. El otro mecanismo, de no menor importancia, se llama "bomba biológica", y significa que el CO2 disuelto en la superficie del agua es consumido por el fitoplancton durante la fotosíntesis. Una parte de esta producción es transferida por sedimentación a las aguas profundas y acaba acumulándose en sedimentos. La zona marginal representa un sistema particularmente productivo en este contexto. Durante el proyecto OMEX se han estudiado dos lugares que contrastan entre sí: uno es el nordeste del Golfo de Vizcaya, caracterizado por una ancha plataforma continental adyacente a una pendiente pronunciada, y el otro es la costa ibérica del Atlántico Norte, caracterizada por una plataforma continental muy estrecha en la que las corrientes favorecen el ascenso de aguas profundas muy fértiles. Para las investigaciones se han efectuado 60 cruceros oceanográficos, coordinados por el Laboratorio de Oceanografía Química de la Universidad de Bruselas. Durante la primera fase (Golfo de Vizcaya), las imágenes tomadas desde satélite han indicado la existencia de una zona de agua fría desde la primavera al otoño que coincide con el margen 974 El Hijo de El Cronopio No. 85 continental, situado a una profundidad de 200 metros. Estas aguas ricas en nutrientes son responsables de una mayor producción de fitoplancton, lo que apoya el desarrollo de una gran actividad pesquera. Casi la mitad de la producción en el margen es exportada a las profundidades del océano o a los sedimentos de la pendiente oceánica. Las medidas de los flujos de gas indican que la bomba biológica está efectivamente transfiriendo CO2 atmosférico al océano. Por otro lado, la estratificación vertical de las masas de agua debido al gradiente de temperatura constituye un elemento importante para evitar su mezcla y la llegada de nutrientes. Así, es de suponer que el calentamiento global que aumentará la estratificación resultará en una reducción de los flujos de nutrientes y por tanto de la producción de fitoplancton en estas regiones. La bomba biológica disminuirá entonces su eficiencia. Mientras, la costa ibérica del Atlántico Norte es una de las más productivas de Europa debido a la llegada de aguas profundas, proceso ocasionado en parte por los vientos del norte desde la primavera al otoño. Dichos eventos ocurren a intervalos irregulares, y por tanto devienen en sucesiones de alta producción y estratificación, durante las cuales las actividades planctónicas se ven reducidas. Una buena parte de la producción es consumida por los peces. En las Rías de Vigo y Muros, además, se lleva a cabo una intensa acuicultura. Debido a la estrechez de la plataforma continental, la exportación de materia orgánica hacia el océano abierto es relativamente importante. Los sedimentos son transportados sobre todo a través de los numerosos cañones que cortan la pendiente continental, con lo que la acumulación de carbono orgánico en la región ibérica es baja en la plataforma pero mucho mayor en la pendiente que en el área del Golfo de Vizcaya. Los resultados se han obtenido tras 7 años de trabajos en el marco del proyecto OMEX y podrán ser extrapolados a otros sistemas de márgenes continentales. Esto ayudará a calcular una estimación cuantitativa global del impacto que los procesos oceánicos tienen en la moderación del cambio climático debido al ascenso de los niveles de CO2 . Información adicional en: http://europa.eu.int/comm/research http://modb.oce.ulg.ac.be/Colloquium/2000.html http://www.pol.ac.uk/bodc/omex/omex.html Imagen: http://www.pol.ac.uk/bodc/omex/overview/participantsmapleft.gif (Mapa de la situación de los centros participantes en el programa OMEX.)(Foto: OMEX) http://www.pol.ac.uk/bodc/omex/images/omeximap.gif (Las zonas investigadas durante el programa OMEX.) (Foto: OMEX) El sistema solar primigenio El estudio de los cuerpos menores que pueblan nuestro sistema planetario nos está permitiendo conocer mucho mejor cómo era éste durante su período formativo. El Sol y su cohorte de planetas empezaron a formarse a partir de una nube de gas y polvo hace al menos 4.500 millones de años. Ha pasado tanto tiempo que la mayoría de cuerpos grandes del sistema solar ha sufrido grandes cambios. Tanto es así que de su estudio directo no se pueden sacar muchas conclusiones sobre cómo era éste en sus inicios. Sin embargo, sí existen una serie de objetos que han cambiado poco desde entonces. Por ejemplo, los cometas que han empezado a incursionar en las cercanías del Sol hace relativamente poco tiempo. Procedentes de un reservorio casi prístino (nube de Oort), muy lejos de nuestra estrella, no han sufrido apenas influencias exteriores, de manera que 975 El Hijo de El Cronopio No. 85 su composición se ha mantenido estable desde que se formaron, al mismo tiempo que el resto de componentes del sistema planetario. Los cometas los podemos estudiar desde lejos, y esperamos hacerlo también in situ más a menudo, con misiones como la de la sonda europea Rosetta o la vieja Giotto. Sin embargo, hay algunos objetos que ya hemos podido examinar de cerca y que han empezado a aportarnos pistas sobre los orígenes de nuestro barrio cósmico. Estamos hablando de algunos meteoritos que han caído sobre la Tierra, y de algunos asteroides que, como el Eros, hemos tenido la fortuna de poder examinar desde puntos muy ventajosos. Precisamente, las informaciones que no está enviando la sonda NEAR Shoemaker, en órbita alrededor de Eros, nos indican que este asteroide de más de 33 km de diámetro es una reliquia de la época de formación del sistema solar. Cuando el 4 de mayo una poderosa explosión sobre la superficie del Sol causó durante media hora una verdadera lluvia de rayos-X sobre Eros, la NEAR estaba lista para utilizar su espectrómetro XGRS y analizar de forma indirecta la composición del asteroide. El área estudiada corresponde a una extensión de unos 6 km y los datos enviados desde el instrumento XGRS acerca de ella sugieren que Eros tiene una composición similar a las más primitivas rocas conocidas en el sistema solar, los meteoritos condríticos. De hecho, este tipo de meteoritos no son sino los ladrillos básicos con los que se construyeron los planetas del tipo terrestre, es decir, rocosos. Si los científicos tienen razón, el sistema solar primigenio estaba constituido por muchos asteroides semejantes a Eros, que poco a poco, con el paso del tiempo, fueron chocando y acumulándose debido a la atracción gravitatoria para formar planetas como el nuestro. Por tanto, Eros y otros como él, habrían existido incluso antes de la aparición de la Tierra. Los condritos se habrían formado directamente a partir de la nebulosa de gas y polvo original. Sucesivas colisiones entre las partículas de polvo provocarían la creación de cuerpos mayores (planetésimos), que se unirían entre sí, atraídos por la mutua gravedad para formar los planetas. A pesar de que la aparición de planetas como Mercurio, Venus, la Tierra o Marte absorbió una gran cantidad de estos objetos, algunos de ellos aún quedaron orbitando alrededor del Sol en solitario, sin ser asimilados. Las fuerzas gravitatorias ejercidas por Júpiter modificaron paulatinamente sus órbitas hasta que se formó un auténtico cinturón de asteroides, donde algunos de los cuales aún pueden chocar entre sí, cambiar sus trayectorias y caer sobre los demás planetas, incluida la Tierra. Una indicación de su carácter primigenio la tenemos en que los condritos son una mezcla homogénea de materiales ligeros y pesados, lo cual demuestra que no fueron sujetos a ninguna fase de altas temperaturas y fusión. La falta de diferenciación (que suele producirse por procesos de enfriamiento y calentamiento sucesivos y que proporciona una estructura por capas, como la de la Tierra) convierte a Eros en un magnífico laboratorio para conocer mejor qué aspecto tenían los ingredientes originales del sistema solar. Pero como decíamos antes, no es necesario desplazarse hasta la órbita de un lejano asteroide para aprender algo sobre este tipo de objetos. Algunos, mucho más pequeños, pueden llegar a caer sobre la Tierra, fácilmente perturbados por la gravedad de otros planetas. Si son lo bastante grandes, entonces pueden alcanzar la superficie de nuestro mundo sin ser vaporizados en la atmósfera, y entonces son examinados por los científicos. 976 El Hijo de El Cronopio No. 85 Esto es lo que están haciendo diversos investigadores de la University of Hawai, quienes han estudiado a conciencia un meteorito de más de 4.560 millones de años de antigüedad, descubierto en la Antártida en 1991. En él han encontrado metales como hierro y níquel, lo que da nuevas pistas sobre cuál era la composición de la nebulosa primigenia. Los mencionados metales se formaron en el interior de la nebulosa mediante un proceso denominado "condensación gas-sólido", donde los átomos se unen entre ellos para formar partículas metálicas. A partir del estudio del meteorito antártico, el equipo de investigadores ha concluido que los granos de metal debieron condensarse dentro de la nebulosa en un plazo de pocas semanas, mientras esta última se iba enfriando a un ritmo de 1 grado Fahrenheit por hora. Por supuesto, este ritmo de enfriamiento es muy rápido para un sistema tan grande como una nebulosa solar. Implica que el gas del disco debió haberse movido muy deprisa, transportando los granos de metal del interior de la nebulosa hasta el exterior también en apenas unas semanas. Podemos imaginar pues una nube muy dinámica, turbulenta y de desarrollo super-veloz. El descubrimiento confirma la gran relación existente entre la cosmoquímica y la cosmología, dos campos de la ciencia que parecían relativamente distanciados. Información adicional en: http://near.jhuapl.edu Imagen: http://near.jhuapl.edu/iod/20000605/20000605.jpg (Un mosaico de imágenes del asteroide Eros.) (Foto: APL) http://near.jhuapl.edu/iod/20000530/small_ani.gif (Animación de la rotación del asteroide Eros.) (Foto: APL) http://near.jhuapl.edu/iod/20000619/20000619.jpg (Un pequeño detalle de la superficie de Eros.) (Foto: APL) Azúcar en el espacio Los científicos han descubierto una nueva molécula orgánica en el espacio interestelar. No es la primera ni la última, pero su naturaleza la hace cuando menos curiosa. Las perspectivas de la existencia de vida en otros lugares del Universo se han tornado de pronto un poco más dulces, gracias al reciente descubrimiento de una sencilla molécula orgánica que puede considerarse una forma de azúcar. La citada molécula se llama glicolaldehído y se ha encontrado en una nube de gas y polvo gigante situada hacia el centro de nuestra galaxia, la Vía Láctea. El hallazgo se ha llevado a cabo mediante un radiotelescopio instalado en Kitt Peak, en Arizona, y sirve también para entender mejor el origen de la vida en nuestro planeta. Las condiciones de la Tierra primitiva se asemejan en ciertos aspectos a las existentes en las nubes interestelares, de modo que estudiar su química es útil para conocer cómo aparecieron las biomoléculas esenciales para la vida. Algunos científicos sugieren que la Tierra fue "sembrada" por este tipo de moléculas cuando un cometa, formado y condensado a partir del material procedente de la nube interestelar que creó al Sistema Solar, pasó cerca de ella. El glicolaldehído es una molécula de ocho átomos compuesta por carbono, oxígeno e hidrógeno, y puede combinarse con otras para formar azúcares más complejos como la Ribosa o la Glucosa. La Ribosa es un componente principal de los ácidos nucleicos tales como el ARN o el ADN, que transporta el código genético de los seres vivos. 977 El Hijo de El Cronopio No. 85 El glicolaldehído fue detectado en una nube de gas y polvo situada a 26.000 años luz de distancia. De un diámetro fantástico, estas nubes constituyen el material a partir del cual pueden después surgir las estrellas. Son también el escenario de complejas reacciones químicas que se producen a lo largo de cientos a miles de millones de años. Tanto es así que hasta la fecha se han descubierto en ellas unas 120 moléculas diferentes, la mayoría con un número pequeño de átomos. El hallazgo del glicolaldehído implica que incluso moléculas relativamente complejas pueden llegar aparecer en tales condiciones de baja densidad, algo que no creíamos fuera posible. La química prebiótica, pues, se halla cada vez más completa. Información adicional en: http://www.nrao.edu Imagen: http://www.aoc.nrao.edu/pr/ballstick.gif (La molécula descubierta.) (Foto: NRAO); http://www.aoc.nrao.edu/pr/sugarcompare.gif (Comparación de la molécula Glicolaldehído, con otras semejantes.) (Foto: NRAO) La dieta de los Neandertales El debate sobre si estos hombres prehistóricos eran o no carroñeros parece haberse resuelto por fin. A través de estudios químicos de los huesos fósiles de varios Neanderthales, los científicos han llegado a la conclusión de que estos hombres primitivos consumían carne semejante a la que comían otros carnívoros, como leones o lobos. Que los Neanderthales consumieran carne de mamut, por ejemplo, es un hecho significativo, ya que hasta ahora existía el debate abierto de si eran cazadores por derecho propio o si se limitaban a buscar los restos abandonados por otros depredadores. Con una dieta dominada por la proteína animal, tuvieron que ser cazadores efectivos, lo que a su vez refleja una complejidad de comportamiento y organización social superiores a los atribuidos normalmente a esta especie. Los Neanderthales, pues, eran carnívoros de altísimo nivel, y vivían principalmente de la carne de animales cazados. Se ha llegado a esta conclusión gracias al análisis de una mandíbula y un fragmento de cráneo de dos Neanderthales de hace 28.000 años de edad. Los fósiles fueron encontrados en la cueva de Vindija, al norte de la capital croata, Zagreb. Su composición química comparada después con la otros animales europeos del mismo período. El hallazgo de herramientas de cacería y restos de huesos de animales en los lugares donde vivían no era prueba suficiente de sus hábitos cazadores, ya que su dieta principal podía ser otra. Ahora sabemos que comían casi exclusivamente carne. Información adicional en: http://www.niu.edu/pubaffairs/RELEASES/2000/june/carnivore.html http://news-info.wustl.edu/headline.html Imagen: http://www.niu.edu/pubaffairs/carnivore/hi-res/jawbone.JPG (Una imagen de la mandíbula.) (Foto: Croatian Academy of Sciences and Arts) Por la cara El reconocimiento del rostro de un usuario se convertirá en el principal sistema de seguridad para garantizar el acceso autorizado a la información contenida en un ordenador. 978 El Hijo de El Cronopio No. 85 Investigadores de la University of Manchester han empezado a diseñar un sistema de seguridad para ordenadores que utiliza la cara del usuario autorizado como la clave para permitir el acceso a sus contenidos. Medidas de seguridad de tal calibre se hacen necesarias cuando el mayoritario uso de Internet y el comercio electrónico ponen en peligro la confidencialidad de nuestra información personal. El proyecto permitirá a un ordenador reconocer nuestra cara, utilizándola como clave única para proteger nuestros datos. Si funciona, ya no será necesario recordar una contraseña, un sistema que siempre puede llegar a ser descubierto por piratas informáticos. Nuestra cara es un ente único e intransferible, y por tanto es ideal para nuestro propósito. Recientes incidentes acaecidos en la red han propiciado que la Comisión Europea haya decidido financiar la investigación y desarrollo de este nuevo sistema de seguridad. Sus aplicaciones, por otro lado, serán amplias. Podrá usarse también, por ejemplo, para que puertas inteligentes nos franqueen o no el paso. El programa se llama UFACE (User Friendly Access Control) y se llevará a cabo en cooperación con los italianos Giunti Interactive Labs y los griegos Netsmart, BioTrast y SoSol. Se espera obtener un primer prototipo para dentro de un año. La desaparición del texto impreso Desde la invención del lenguaje escrito, los métodos de escritura han cambiado mucho. Los grabados en piedras y las secuencias de bytes son los extremos más separados de este progreso. Es muy probable que el siglo XXI sea el de la desaparición del texto impreso. Cuando Gutenberg inventó la imprenta, una nueva era se abrió para nuestra civilización. Hasta entonces, el conocimiento se transmitía oralmente o por escritura manual, lo que invalidaba su difusión más allá de unos cuantos afortunados. A partir de ese momento, el almacenamiento y la transmisión del conocimiento aumentaron en progresión exponencial. Los libros se editaron por tiradas. Aparecieron los periódicos y las revistas. Se inventaron nuevas técnicas de impresión. Nacieron la máquina de escribir y la fotocopiadora. Con la acelerada implantación de la informática y las comunicaciones electrónicas en la sociedad industrializada, parece que nos hallamos cerca de un nuevo umbral, que puede llevarnos a la completa desaparición del texto impreso sobre papel, como se mostraba en la famosa película de ciencia-ficción "Farenheit 451". En la década de 1980, el auge de los ordenadores personales y el abaratamiento de los soportes de almacenamiento ya constituyeron los primeros síntomas de que iba a iniciarse una revolución tan importante como la que desencadenó Gutenberg con su invento. En los años noventa comenzó el principio del fin para el texto impreso, debido sobre todo a la transformación técnica y social de Internet en un fenómeno cultural de masas. En todo este proceso, los costes de producción han jugado un papel decisivo. Cuando el Hombre llegó a la Luna, la sociedad todavía se basaba en el papel impreso, siendo los ordenadores una tecnología para campos muy específicos. Al finalizar la década de 1970, la informática estaba más próxima a la realidad cotidiana de los ciudadanos en las naciones industrializadas, pero su coste no podía aún competir con el del papel. Poco a poco, el pulso entre ambos medios fue siendo ganado por el texto electrónico. Hace 979 El Hijo de El Cronopio No. 85 tiempo que el soporte informático es muchísimo más barato que el papel impreso. La única contrapartida es la inversión inicial que supone adquirir un ordenador o instrumento comparable y los accesorios necesarios para cada caso. Pero esta inversión cada vez es menos costosa y goza de más aplicaciones prácticas adicionales. Los hábitos de escritura y lectura de una parte cada vez mayor de la población de las naciones industrializadas han cambiado. Ya no son fenómenos minoritarios el correo electrónico, la lectura diaria de las publicaciones online favoritas, o el tener en casa un ordenador para redacción e impresión de textos en lugar de una máquina de escribir. Todavía hay personajes públicos que mantienen abiertamente una dura oposición al soporte informático por considerar que la literatura depositada en él pierde su carisma, su esencia, y sus valores artísticos, convirtiéndose en un producto desnaturalizado. Tan singular opinión procede básicamente del completo o casi completo desconocimiento que estos individuos tienen del fenómeno tecnológico y cultural que critican. Basta recordar un debate televisivo en el que un conocido escritor manifestó airado que "el encanto del texto escrito jamás desaparecerá ante el texto hablado de un CD-ROM". El hombre, que sólo alcanzaba a identificar el disco compacto con la música, creía que un CD-ROM de texto era un disco de audio en el que un locutor leía el texto. Esta anécdota ilustra la ignorancia de quienes se oponen tan férreamente al texto electrónico. Su oposición casi siempre viene determinada porque desconocen el medio y se han creado ideas negativas equivocadas de lo que imaginan que es dicho medio. Quizá el texto informatizado no tenga el encanto del impreso, pero no precisa talar árboles para fabricar papel. Cada año se talan en el mundo varios millones de hectáreas de bosque sólo para fabricar el papel de los periódicos. Es bien sabida la preocupación de las organizaciones ecologistas al respecto. El papel reciclado, una iniciativa ecológica loable, es útil en muchos casos, pero presenta el problema de su alto coste. El soporte informático aventaja al papel en ambas cualidades: Precio y Protección Ecológica. El placer de leer un buen libro tumbado en el campo bajo la sombra de un árbol, o el acto cotidiano de hojear el periódico en el metro, reflejan el hecho de que el texto impreso es portátil y manejable en pequeñas cantidades, cualidad que, hasta hace poco, no poseía el texto informatizado, el cual, si bien más concentrado que el impreso, requería equipos nada portátiles para su lectura. Pero la aparición de los ordenadores de maletín, los lectores de bolsillo, y las nuevas generaciones de teléfono móvil con prestaciones para lectura de textos, están contribuyendo a introducir el hábito de la lectura de páginas electrónicas en todos aquellos casos en los que la única opción posible en cuanto a leer parecía ser la brindada por el texto impreso. Y lo mismo puede decirse del proceso de escribir. La agenda, el bloc de notas, y los lápices o bolígrafos, están cada vez más desplazados por las agendas electrónicas o los propios teléfonos móviles. Incluso para trabajadores que ejercen su actividad circulando, haciendo entregas, tomando pedidos, realizando inspecciones de mantenimiento, verificando mercancías, efectuando inventarios de existencias, consultando precios, y recogiendo datos, el garabatear papeles y más papeles no es ya una condición inamovible de su actividad. Para ellos, el papel se puede no sólo sustituir sino superar. Los terminales portátiles de ordenador tienen el tamaño de una calculadora y pueden traspasar a un ordenador de sobremesa toda la información que se les ha introducido durante la jornada, o inclusive permanecer conectados con una computadora central desde cualquier parte y en movimiento, mediante radioenlace telefónico. 980 El Hijo de El Cronopio No. 85 Hasta para los amantes de la escritura de puño y letra existen microordenadores sin teclado, a los que se da instrucciones escribiéndolas o señalándolas sobre la pantalla con un lápiz electrónico. El sistema refleja en la pantalla el mismo trazo que detecta sobre la superficie de la misma. Estos ordenadores no sólo son capaces de entender la letra manuscrita de cada persona, sino que pueden distinguirla de la de otras, siendo capaces de reconocer la firma de su dueño y ponerse en funcionamiento sólo después de haber identificado como auténtica la firma introducida. En el terreno de los programas informáticos, también cabe destacar por su potencial contribución a la desaparición del texto impreso los procesadores de texto activados por voz. El funcionamiento de tales sistemas no puede ser más simple: se habla y el ordenador escribe el texto dictado. La pereza de escribir que muchas personas tienen puede moverles a abandonar el papel impreso y pasarse al medio informático, para escribir con la voz en vez de con las manos. Lo aparatoso de una biblioteca repleta de libros, donde a menudo es difícil encontrar el tomo que buscamos, e imposible hallar una frase determinada entre tantos volúmenes, difiere claramente de las características de ahorro de espacio físico y capacidad de búsqueda de datos y procesamiento de los mismos que ofrece esa misma biblioteca si está informatizada. Un CD-ROM puede albergar fácilmente el texto de entre seiscientos y mil libros de extensión convencional. La inclusión de gráficos reduce el espacio disponible, pero en cualquier caso hace viable tener en un cajón de una mesa una biblioteca de cien mil libros. Y si repetimos estos cálculos con la capacidad de almacenamiento de soportes como el DVD o los empleados para almacenar los datos reunidos durante un viaje interplanetario, fácilmente podemos llegar a conclusiones como que el texto de una pila de folios de ocho kilómetros de altura cabrá en el bolsillo de una chaqueta. Información adicional en: http://www.gutenberg.net (Proyecto Gutenberg. Proyecto para crear una biblioteca universal en formato electrónico, incluyendo libros clásicos.) http://www.giga.com.ar/axxon/ (Axxon. Revista en formato electrónico pionera en lengua española. De temática en torno a la ciencia-ficción y fantasía, incluye relatos, artículos y noticias.) http://www.uni.edu/darrow/computers/history.html (Página del Dr. Donald Darrow sobre la historia de los ordenadores y de Internet. Enlaces a distintas páginas dedicadas a cuestiones concretas dentro del tema.) Imagen: Desapar1.jpg (La magia del libro impreso podría desaparecer muy pronto.) (Foto: J. Munnshe) Desapar2.jpg (El CDROM es uno de los nuevos formatos de almacenamiento de datos más utilizados.) (Foto: J. Munnshe) 981 Boletín El Hijo de El Cronopio Facultad de Ciencias Universidad Autónoma de San Luis Potosí No.86, 14 de agosto de 2000 Boletín de información científica y tecnológica de la Facultad de Ciencias Repudian atentado contra la libertad de expresión Publicación semanal Edición y textos Fís. José Refugio Martínez Mendoza Parte de las notas de la sección Noticias de la Ciencia y la Tecnología han sido editadas por los españoles Manuel Montes y Jorge Munnshe. La sección es un servicio de recopilación de noticias e informaciones científicas, proporcionadas por los servicios de prensa de universidades, centros de investigación y otras publicaciones especializadas. Cualquier información, artículo o anuncio deberá enviarse al editor. El contenido será su responsabilidad. e-mail: flash@galia.fc.uaslp.mx Números anteriores del boletín, pueden consultarse por Internet en la página de la UASLP: Tras la destrucción del cuadro La patrona del caricaturista de la Jornada Manual Ahumada, realizado por dos jóvenes católicos, que se exhibía en el Museo del periodismo y las Artes Gráficas de Guadalajara. Los compañeros caricaturistas del autor repudian el acto en una carta enviada a la directora del periódico La Jornada Señora directora: La destrucción del dibujo La patrona, de Manuel Ahumada, en el Museo del Periodismo en Guadalajara, es un acto de intolerancia que atenta contra la libertad de expresión artística y de rechazo a la civilidad. Si un sector se siente ofendido por la obra, basta con que no la vea. http://phobos.dtc.uaslp.mx/publi.html Nuestra total solidaridad con Manuel Ahumada. Eduardo del Río (Rius), Rogelio Naranjo, Helioflores, Rafael Barajas (El Fisgón), Antonio Helguera, Gonzalo Rocha, José Hernández y Patricio Ortiz El Hijo de El Cronopio No. 86 El Garambullo (Los polvos de esos caminos)/ La paradoja de Cerro de San Pedro A veinte kilómetros al noreste de la capital potosina, se encuentra enclavado el histórico Cerro de San Pedro, tan traído y llevado en los últimos años por el redescubrimiento de su riqueza en oro. El descubrimiento del mineral de Cerro de San Pedro hace más de cuatrocientos años por el capitán mestizo Miguel Caldera, provocó el establecimiento en el Valle de Tangamanga del actual San Luis Potosí, asumiendo el nombre de las minas del Potosí en Bolivia, al compararse la riqueza de las entrañas de San Pedro. A lo largo de los siglos, tanto Monte Caldera, pequeña población antecesora de Cerro de San Pedro que se encuentra a unos diez kilómetros de Cerro, y el propio Cerro de San Pedro fueron cediendo su crecimiento y desarrollo a la futura capital del estado de San Luis Potosí en plena puerta de la región Guachichila. El descubrimiento de Cerro de San Pedro propició que se cambiará el asentamiento principal de la zona (capital española) de Mezquitic a Cerro de San Pedro y posteriormente a San Luis Potosí. Al “agotarse” las explotaciones mineras, como en todo gran pueblo minero, se echa al olvido. Esta no es la excepción en Cerro de San Pedro, población semi abandonada, una especie de pueblo fantasma, al igual de Real de Catorce, vaya que se echó al olvido. Pocas personas, antes de 1990, lo visitaban, uno que otro pintor le daba vida recreando sus fachadas y callejones en lienzos rematados por tenues colores. Por mucho tiempo, al menos en mi caso, era el conocimiento que tuve de este añejo y abandonado pueblo minero. Antes de 1990, mi hermano que estudiaba geología lo visitaba regularmente para realizar sus prácticas de la carrera. Acampaban en esas noches de frío, dentro de la iglesia, para lo cual era menester sacar borregos y cabras del lugar. Ni quien pelara a tan antiquísima y rica iglesia, que albergaba grandes obras pictóricas. El abandono total. En plena crisis de la industria minera la compañía Peñoles emprendió estudios geológicos en la zona a fin de explorar la posibilidad de encontrar yacimientos de oro. En esa época, mi hermano trabajaba para la compañía Minera las Torres en el mero Guanajuato. De primera mano me enteré de los descubrimientos que el grupo de geólogos de Peñoles realizaba en Cerro de San Pedro. Definitivamente había grandes cantidades de oro, al menos lo suficiente como para emprender una explotación. En mayo de 1989 iniciamos en el Planetario del Parque Tangamanga, el programa de divulgación Domingos en la Ciencia, programa que tuvo mucho éxito y en el cual nosotros mismos, los organizadores del Instituto de Física y de la Facultad de Ciencias , debutamos como expositores ante niños. Una de esas pláticas, me correspondió y tuvo lugar en el mes de enero de 1990, el tema “El encanto de los cristales”, en la plática por necesidad surgió el tema de la minería y al final de la misma, como era ya costumbre, se tenía una reunión con la prensa de los diarios Momento y Pulso. En dicha reunión no aguante la tentación y di la información que me había proporcionado mi hermano, acerca del redescubrimiento de yacimientos de oro en Cerro de San Pedro. Al siguiente día apareció una nota con el encabezado: San Luis, potencia mundial en la producción de fluorita y como subtítulo: Sin embargo, hace falta más apoyo para avanzar en el estudio de su utilización. Un día después aparece en el periódico Pulso, edición del martes 9 de enero de 1990 la nota: Descubren yacimiento de oro en Cerro de San Pedro. Firme posibilidad de que resurja el otrora emporio minero. Ya en el cuerpo de la nota aparecía: un nuevo yacimiento de oro fue descubierto hace un par de meses en el Cerro de San 983 El Hijo de El Cronopio No. 86 Pedro y una empresa particular realiza los estudios previos a la explotación, con la finalidad de determinar si el descubrimiento es importante y resulta rentable. Esta información, por lo pronto, no tuvo una repercusión inmediata. Los directivos de Peñoles declinaron entrarle a explotarlo y cedieron la información oficial al gobierno del estado. Para entonces la vida de Cerro de San Pedro, seguía transcurriendo en el mismo desinterés cultural y social. Esa remota pero real oportunidad de que Cerro de San Pedro fuera el nuevo emporio minero del estado, no importó a ningún sector de la sociedad. El asunto cambia cuando el gobernador en turno Horacio Sánchez, en gira por Canadá ofrece la información a empresarios canadienses, entregada por Peñoles, de la potencialidad del yacimiento de oro encontrado en Cerro de San Pedro. Minera San Xavier aprovecha la oferta ofrecida por el gobierno potosino y se viene todo un reclamo de parte de sectores de la población oponiéndose a su explotación. Comienza a publicitarse a Cerro de San Pedro como patrimonio histórico y a la iglesia del lugar como una de las joyas arquitectónicas y culturales que encierran más de cuatrocientos años de historia. Aparece entonces por arte de magia un letrero en el anillo periférico y en la carretera central que anuncia, con flecha acusatoria Templo de San Pedro, aunque aún hay que sacar las cabras de su interior. Sin embargo, Cerro de San Pedro, el verdadero, no el de papel, sigue en el abandono total. Nace un grupo plural, ecológico y anexas que defiende a capa y espada invaluable patrimonio. Se pierde sospechosamente un retablo del siglo XVII o XVIII y también sospechosamente se “suicida” el alcalde en turno. Continua el desgarramiento de camisetas, por un lado, en la defensa del patrimonio histórico que representa Cerro de San Pedro; imagínense nuestra santa cuna, y por el otro la defensa de un desarrollo económico para el estado y la población. Las posturas se radicalizan, la UASLP participa en un estudio que evalúa el posible deterioro ambiental y la factibilidad de una explotación “sana”. Al conocerse los resultados que la universidad emite, se cuestiona su calidad y su honestidad. Mientras, Cerro de San Pedro sigue en el olvido y abandono; digan lo que digan, los grupos en conflicto. En ese inter, me decido ir a conocer el mentado Cerro de San Pedro, lo encuentro casi como lo imaginaba, resulta extraño conocer mucho tiempo después el lugar en el que se forjó nuestra ciudad. Al igual que muchos potosinos, incluidos quienes participan en el dime y direte, simplemente no lo conocía. Tanto se pregona, en el caso del pueblo minero, la defensa a la ecología y al patrimonio histórico, que resulta paradójico que en pleno pueblo, en una especie cañón-arrollo que pasa justo enfrente al templo, una cantidad exagerada de basura se acumule indiscriminadamente, mientras en la gran ciudad se debate su suerte, alegando un futuro deterioro ecológico. En la pasada semana de pascua, regresé con mi familia a Cerro de San Pedro y Monte Caldera, sólo para descubrir que después de un año de alegatos, confrontaciones y movilizaciones de grupos ecologistas, Cerro de San Pedro siga descaradamente inundado de basura plástica; basura que lejos de disminuir se ha ido acumulando en su lecho; ahora Cerro de San Pedro se puede “vanagloriar”, mientras continua la eterna discusión, de contar además del cerro de oro con ese otro más abundante cerro de basura. Definitivamente existen dos Cerros de San Pedro, el real sobre el que no hay interés de desarrollarlo y que poco importa, no sólo su deterioro, tampoco su deteriorada imagen causada por la basura. El otro el de la disputa, en el que poco importa el pueblo en sí, sólo lo económico y lo político. 984 El Hijo de El Cronopio No. 86 El Xoconoxtle (Personajes potosinos)/ Semos los colectiveros El título es prestado por Les Luthiers, ese grupo argentino de extraordinario sentido del humor y no menos extraordinarias dotes musicales. En su candonga de los colectiveros, según Les Luthiers, un híbrido de candombe y milonga opus 61 de Johan Sebastian Mastropiero, recrea humorísticamente las diarias faenas al volante que los chufas de, lo que aquí llamamos, camiones urbanos realizan impunemente con su “arma” llamada colectivo. Al parecer en todas partes se cuecen habas, pero no con la temperatura que en nuestras tierras altiplanas. Para nadie es ajeno el viejo problema del servicio de transporte urbano que padecemos en San Luis. En estas tierras la impunidad de quienes manejan el asunto del transporte han invadido esferas ajenas a la calle. Quince días estuve fuera de la ciudad, justo cuando aparecieron por nuestras calles los nuevos camiones DINA custodiados por patrullas y polimotocicletas, como si sobrarán, y cuestionados por el pulpo-mafia camionero, la leve ausencia no me permite estar informado de la evolución de acontecimientos, pero recién observo una huelga de hambre en plena Plaza de Armas, perpetrada por las “víctimas”, sufridos servidores de la sociedad en su diario deambular por calles potosinas. De acuerdo al “servicio” que ofrecen, como que no les queda tremendo teatro, independientemente de la situación legal de la concesión otorgada a DINA de Guadalajara. Sistemáticamente los permisionarios regatean con el gobierno del estado componendas a su favor e igualmente en forma sistemática burlan los acuerdos para mejorar el servicio. Que se quitan los relojes checadores, para disfrazarse con personal colocado a lo largo de la ruta checando la hora en una discreta libreta; Que se elevan los pasajes sólo en los camiones seminuevos, para con una manita de gato disfrazar las tartanas de camión seminuevo y cobrar la cuota alta; Que se uniformarán a los choferes, para seguir con el trato déspota que los caracteriza. En fin, sería cuento de nunca acabar, de toda esta situación he sido testigo por treinta años, el servicio sigue siendo pésimo, a tal grado que los camiones urbanos representan un serio peligro para transeúntes, ciclistas, usuarios y automovilistas que le dan vida a esta ciudad, y como su impunidad llega a los planos legales, pueden con toda comodidad arrollar autos y uno que otro peatón o ciclista. Ya lo dicen Les Luthiers: Corro siempre nunca aflojo/con coraje y con valor/si el semáforo está en rojo/acelero sin temor/Pero no me olvido el freno/yendo a gran velocidad/con el colectivo lleno/que porrazo de verdad. En lo particular he tenido que sufrir amargas experiencias, tanto como automovilista que como usuario, no hablo del pasado sino del presente, de vez en cuando tengo que usar el camión y convertirme prácticamente en ganado transportado por los individuos uniformados de café. A los usuarios que les puedo decir, lo viven en carne propia, día a día; como automovilista, también que les puedo decir, más de uno ha de haber sufrido la experiencia de ver como se lanzan contra uno tremendos monstruos de seis llantas. Recorren a alta velocidad las calles indiscriminadamente agrediendo a la población, por más que trata uno de buscar la excepción es trabajo difícil; ahora ellos se sienten agredidos al entrar en concesión DINA de Guadalajara, que se tiene la esperanza de que repercuta en una mejora sustancial al servicio de transporte público y que por fin tenga la población un servicio digno y seguro; al margen de la situación legal esta concesión encierra una esperanza, verde como sus camiones que espero redunde en un giro en la organización y en si en el servicio que actualmente prestan los permisionarios potosinos. 985 El Hijo de El Cronopio No. 86 Noticias de la Ciencia y la Tecnología Nuevo satélite joviano Los astrónomos han descubierto el primer satélite exterior de Júpiter nuevo en 25 años. El programa Spacewatch, ideado para localizar de forma sistemática asteroides y cometas, nos ha proporcionado un hallazgo inesperado. En octubre de 1999, el viejo telescopio situado en Kitt Peak fue dirigido hacia una zona del cielo cercana a Júpiter, precisamente cuando el planeta se encontraba casi en su fase de mayor proximidad respecto a la Tierra. Es en estos momentos cuando Júpiter brilla más para nosotros, lo cual es igualmente cierto para sus satélites, mucho más débiles. Intentando aprovechar esta circunstancia, Jim Scotti programó diversas observaciones durante el mes, con la esperanza de obtener información interesante sobre el sistema joviano. Las imágenes electrónicas resultantes fueron enviadas después al Minor Planet Center, donde serían estudiadas con atención. La zona presentaba varios asteroides, y así fueron catalogados en las publicaciones profesionales habituales. Sin embargo, uno de los objetos, designado 1999 UC18, se movía de forma algo diferente. Lo hacía como un cometa, pero no parecía serlo. Esto propició nuevas observaciones de confirmación. Meses después, el pasado 18 de julio, el análisis de imágenes anteriores a las de octubre de 1999 ayudaron a profundizar en su verdadera naturaleza. Las predicciones no parecían encajar si se consideraba que el objeto giraba alrededor del Sol. Entonces se consideró la posibilidad de que estuviera orbitando Júpiter. En ese momento, todo encajó. Se trataba de un satélite joviano. Lo más interesante, sin embargo, es que no era ninguna de las lunas conocidas. Dado que no se encontraron referencias a una observación anterior, el cuerpo recibió el nombre provisional de S/1999 J 1. Los análisis sugieren que el nuevo satélite pertenece a un subgrupo de las lunas exteriores de Júpiter, las cuales giran alrededor de éste en órbitas irregulares a una distancia media de unos 22 millones de kilómetros, siguiendo períodos de traslación de unos dos años. La influencia gravitatoria solar convierte en muy erráticas estas órbitas. Además, los citados satélites giran en sentido contrario a los demás, de manera que seguramente fueron capturados hace mucho tiempo. S/1999 J 1 es el primer satélite exterior de Júpiter descubierto desde 1974. Las observaciones de esta luna sólo cubren el período de un mes, así que serán necesarias otras para confirmar su existencia y características. Cuando ello ocurra, podremos decir que Júpiter posee al menos 17 satélites, el más pequeño de los cuales (quizá unos 4 ó 5 km de diámetro) sería el descubierto recientemente. Información adicional en: http://cfa-www.harvard.edu/cfa/ps/pressinfo/S1999J1.html Groenlandia es el modelo Si lo que queremos es conocer el estado del clima global, bastará con prestar atención al hielo que rodea a la mayor isla de la Tierra. 986 El Hijo de El Cronopio No. 86 Múltiples son los factores que influyen en los procesos que gobiernan el clima mundial. Por eso, controlarlo y estudiar su evolución no es sencillo. Sin embargo, los meteorólogos creen que existe un paraje donde el cambio climático puede seguirse con total precisión. Los científicos, en efecto, sólo tienen que medir el comportamiento del hielo que rodea a Groenlandia para hacerse una buena idea de lo que está ocurriendo a nivel global. Durante un proyecto dirigido por Bill Krabill, de la Wallops Flight Facility, un equipo de investigadores ha podido comprobar que el área helada que rodea a la mayor isla del mundo está disminuyendo su grosor. En algunos lugares, el ritmo es incluso de 1 metro al año. Los científicos saben que la desaparición del hielo está directamente relacionada con el aumento de las temperaturas sobre la Tierra. La principal consecuencia será un apreciable aumento en el nivel de los océanos. Siguiendo estimaciones conservadoras, se piensa que se está produciendo una pérdida de 51 km cúbicos de hielo al año, suficiente como para elevar 0,005 pulgadas el nivel del mar. Esta cifra es un 7 por ciento de la magnitud global y ella sola no supone un especial peligro para las costas. Los científicos creen que los glaciares son el principal origen del hielo que penetra en los mares. A pesar de todo, las mediciones proporcionan suficientes pistas como para darnos cuenta de que la pérdida de grosor en la capa de hielo es ya un hecho incontestable, el resultado de un proceso de cambio que no podemos ignorar. Groenlandia tiene el 85 por ciento de su superficie cubierta por hielo, el cual alcanza grosores de hasta 3 km en algunos lugares. Su punta sur penetra en latitudes templadas, de manera que la vigilancia de esta región es ideal para detectar inmediatamente cambios climáticos. Se ha precisado un período de siete años para levantar un mapa completo de la capa helada que cubre esta isla. Se han empleado altímetros láser a bordo de aviones, que han medido la zona desde 1993. El mapa tiene ahora el suficiente detalle y precisión como para que sea posible detectar pequeños cambios de elevación, una clara indicación de los procesos de deshielo. En el futuro, será el satélite ICESat, cuyo lanzamiento está previsto en 2001, quien se encargará de la tarea, ocupándose tanto de Groenlandia como de la Antártida. Información adicional en: http://aol.wff.nasa.gov/aoltm.html http://www.earth.nasa.gov Imagen: http://svs.gsfc.nasa.gov/imagewall/greenland.html El robot que se alimenta de carne Los ingenieros han desarrollado un robot móvil que no consume combustibles fósiles o de otro tipo sino alimentos convencionales. Chew Chew es su nombre. Su aspecto es extraño: parece un tren de pequeñas dimensiones, dotado de varios vagones. A diferencia de la mayoría de sus congéneres, Chew Chew es un robot que prefiere la comida a los combustibles para obtener su fuente de energía. 987 El Hijo de El Cronopio No. 86 Se le llama también gastro-robot y estará listo en agosto. Su "estómago" es una célula de combustible microbiana (MFC), un dispositivo que utiliza una amplia población de bacterias, en este caso la conocida E. coli, para descomponer la comida y convertir la energía química en electricidad. La carne sería el alimento ideal, en términos energéticos, aunque ello requiere de procesos de captura complejos que consumen a su vez demasiada energía. Para el robot, coger vegetación es más sencillo, pero ésta no es tan "nutritiva" como la carne. Según su inventor, Stuart Wilkinson, de la University of South Florida, los sucesores de Chew Chew podrían ser empleados para cortar hierba, siendo totalmente autónomos. En su forma presente, consiste en tres vagones, totalizando 12 ruedas, cada uno de los cuales mide 1 metro de largo. Por ahora, el "estómago" es alimentado con azúcar. Las bacterias lo asimilan bien y apenas producen desechos. Son los microbios quienes producen enzimas que descomponen los carbohidratos. Cada vez que rompemos una molécula de glucosa en otras más pequeñas, liberamos electrones. Estos electrones se utilizan para alimentar una batería gracias a una reacción de reducción/oxidación. El resultado es electricidad y un poco de agua y dióxido de carbono. Por supuesto, si el robot consumiera vegetación o carne, los desechos serían más cuantiosos. Pero serán necesarios este tipo de alimentos ya que el azúcar no proporciona suficiente energía como para que Chew Chew pueda moverse constantemente. Hay que esperar a que las baterías se carguen en su totalidad antes de que funcionen los motores. El futuro de los robots que se autoalimentan está cada vez más claro, pero aún falta mucho tiempo para que podamos verlos en nuestros hogares. Por ejemplo, la energía necesaria para mover un vehículo es demasiado elevada. En cambio, quizá podrían usarse más fácilmente bajo el agua. Podríamos así imaginar un robot que se alimentase de peces y que patrullara las costas para defenderlas de los tiburones. (New Scientist) La forma de las proteínas Los científicos se preguntaban desde hace mucho por qué las proteínas adoptan formas en espiral. La respuesta a esta cuestión ayudará a identificar las funciones de las proteínas humanas. Jayanth R. Banavar, un profesor de física de la Penn State University, y varios colegas americanos e italianos creen haber encontrado una explicación a la curiosa forma adoptada por las proteínas, las cuales se estructuran como las espirales geométricas. De hecho, dicha explicación se basa solamente en principios de geometría. Las proteínas tienen el aspecto de filamentos en las que destaca una espina dorsal hecha con aminoácidos. Son el producto de genes y también la materia estructural de las células y los tejidos. Como cualquier herramienta, la forma de cada proteína juega un importante papel a la hora de determinar su función. Así, Banavar y sus compañeros han preguntado en lenguaje matemático qué forma puede llevarnos a ciertas propiedades conocidas de las proteínas. Muchas secuencias de aminoácidos se retuercen siguiendo las mismas o similares estructuras, lo que sugiere que éstas tienen más importancia que la propia secuencia de 988 El Hijo de El Cronopio No. 86 aminoácidos. Por tanto, es lícito preguntarse por qué las proteínas adoptan unas formas concretas en cada caso y no otras. Los investigadores han formulado diversas cuestiones matemáticas sobre su forma óptima de trabajo, incluyendo el máximo espacio posible alrededor de cada aminoácido. Para cada cálculo, la respuesta fue una hélice espiral. La espina dorsal de una proteína necesita ser compacta para poder mantener fuera de su región central a las moléculas de agua. También necesita tener suficiente espacio para que sus componentes atómicos pueden estar dispuestos a lo largo de su estructura, incluyendo un poco de espacio extra para facilitar el movimiento. Una vez calculada la forma que suponga un compromiso aceptable para cumplir estos requisitos, ésta resulta ser asimismo una hélice. La forma de hélice espiral, pues, ocurre de forma natural en las proteínas, ya sea desde el punto de vista químico como desde el punto de vista geométrico. Los motivos secundarios de la estructura, como la forma de hélice, parecen proporcionar a las proteínas muchas más opciones para unirse entre ellas, de manera que los procesos de plegado pueden efectuarse con mayor rapidez. Información adicional: http://www.psu.edu/ur/2000/banavarsci.html La ecología también puede ser una fuente de riqueza Empresas y ecologistas no siempre se ponen de acuerdo sobre el valor real de los escenarios por los que unos y otros discuten. Proteger la belleza o explotarla parecen eternamente enfrentados. Las cosas quizá cambiarían si se pudiese otorgar valor económico a la labor de los defensores del medio ambiente. Cuando está en juego la supervivencia de una selva amazónica auténtica, los argumentos que se barajan suelen mantenerse enfrentados. Mientras que los ecologistas mantienen que el paraje debe ser protegido a toda costa para preservar su inherente belleza, la compañía que trata de explotarlo contraataca afirmando que su valor real se encuentra única y exclusivamente en su madera. El valor económico de una selva, por tanto, es muy difícil de calcular, pues depende del punto de vista que se emplee para tasarlo. Las cosas podrían sin embargo cambiar de forma radical si la tarea de la conservación propugnada por los ecologistas fuera algo económicamente lucrativo. Según la bióloga Gretchen C. Daily, el tiempo del que dispone la Tierra se acaba y aquellos que deseen salvarla deberán crear incentivos económicos para que esto sea posible. Es decir, habría que recompensar a las personas para que se preocupen de la protección de los bienes medioambientales. Así, el enfrentamiento de las dos posturas, ambas utilizando criterios económicos, tendría un marco de negociación más adecuado. Daily es directora del Tropical Research Program en el Center for Conservation Biology de la Stanford University. Su teoría es clara: los ecosistemas mundiales se han convertido en bienes capitales. Si se dirigen de manera apropiada, pueden producir un interesante flujo de servicios vitales, incluyendo productos como la pesca o la madera, procesos de apoyo a la vida como la polinización y la purificación de agua, o condiciones para fomentar la satisfacción humana (belleza y serenidad). A diferencia de otras formas de capital, los ecosistemas no están bien estudiados, están peor vigilados y en muchos casos están sufriendo una rápida degradación y/o 989 El Hijo de El Cronopio No. 86 agotamiento. A menudo, la importancia de los servicios que proporcionan los ecosistemas sólo son apreciados ampliamente cuando ya se han perdido. En Australia y Costa Rica existe una cierta voluntad por evitar que esto ocurra. Por ejemplo, la firma Earth Sanctuaries cotiza ya en la bolsa australiana. Valorada en 25 millones de dólares, la empresa compra tierras y restaura la vegetación nativa y la vida salvaje, consiguiendo ingresos a partir del turismo, la consultoría o la información. Para ello tuvo que luchar para cambiar las leyes, ya que los animales de los territorios adquiridos no estaban considerados como bienes. Otra compañía, Sydney Futures Exchange (SFE), hace negocios mediante sus "créditos de carbono". Así, si una empresa acuerda comprar y proteger un bosque australiano, SFE calculará cuánto dióxido de carbono podrá éste absorber de la atmósfera. El benefactor recibirá entonces un crédito de carbono, autorizado por las Naciones Unidas, que permitirá a sus fábricas emitir una cantidad equivalente de CO2. Desde 1997, el gobierno de Costa Rica ha estado pagando a los propietarios de tierras que protegen la biodiversidad y las masas de agua, fomentando además su belleza. Las cifras barajadas son de unos 20 dólares al año por acre, y se financian en parte por un impuesto especial sobre los combustibles fósiles. El resultado ha sido una restauración y conservación boscosa considerables. A nivel mundial, algunos ecosistemas ya están siendo protegidos porque ayudan a controlar las inundaciones, filtrar el agua, mejorar la fertilidad del suelo, estabilizar el clima, etc. Estos esfuerzos son recompensados mediante mecanismos financieros innovadores, y su variedad seguramente crecerá en los próximos años. En 1996, la ciudad de Nueva York decidió invertir 1.500 millones de dólares en restaurar las montañas Catskill para conseguir mejorar la calidad del agua potable, en vez de gastar hasta 6.000 millones en nuevas instalaciones de tratamiento. Esta es probablemente la vía a seguir. Otorgando el valor económico adecuado a la conservación de los ecosistemas, más allá de otros criterios más o menos románticos, se garantizará que la Tierra afronte en mejores condiciones su futuro. Los ecologistas han empezado a ser más prácticos. A los argumentos habituales se une ahora la economía, un arma formidable que hasta ahora no se tenía en cuenta. Daily sugiere cuatro pasos básicos para calcular el valor de un ecosistema. Primero es necesario hacer una lista de los bienes y servicios de los que dependemos para sobrevivir. Después, hay que determinar cuáles son los más amenazados. En tercer lugar, se debe averiguar cómo afectaría a la sociedad su pérdida (no sólo en dólares sino también en términos de bienestar humano). Por último, una vez los riesgos hayan sido definidos, la gente de todas las capas de la sociedad deberían trabajar unidos para crear incentivos que propicien la protección de los elementos más críticos del ecosistema. Información adicional en: http://www.stanford.edu/dept/news/pr/00/ecovalue726.html Imagen: http://www.stanford.edu/dept/news/pr/gifs/ecosystems_daily_200.jpg (La especialista Gretchen Daily.) (Foto: Stanford U.) http://147.238.100.101/Fkcs/_borders/costa_rican_rainforest.jpg (La selva de Costa Rica.) (Foto: Fort Knox High School) 990 El Hijo de El Cronopio No. 86 Nueva teoría del desarrollo del esqueleto Los tejidos que dan lugar a los huesos que conforman el cuerpo humano obtienen la información que necesitan para ello de un lugar inesperado. Los médicos y científicos en general pensaban hasta ahora que tanto el cartílago embriónico como los dedos y las extremidades son sistemas que se desarrollan de forma independiente y que se diferencian autónomamente. No obstante, nuevos experimentos desmienten esta hipótesis y permiten poner en pie una teoría de mayor alcance. Los investigadores de la University of Wisconsin Medical School han estado estudiando cómo se desarrollan los dedos de las patas de los pollos cuando éstos aún se encuentran en el interior del huevo. Utilizando microcirugía, han descubierto que el futuro carácter único de cada dedo embriónico viene determinado por el tejido situado junto a él. Hasta ahora se consideraba que este tejido interdigital, que desaparece antes del nacimiento, tenía poca importancia. Lo cual es interesante, ya que en la mayoría de las especies, su desaparición venía dada por una muerte celular programada, única forma de separar cada dedo de los demás. Ha sido una sorpresa averiguar que el cartílago que formará el esqueleto consigue la información sobre lo que acabará siendo a partir del tejido blando que lo rodea. Esta información permitirá la aparición de las estructuras oportunas, como un pulgar o un meñique, o un hueso de mayores dimensiones. Durante los experimentos, se han encontrado niveles específicos de una sustancia llamada proteína morfogénica ósea (BMP), la cual es producida por las células situadas en la red interdigital y que juega un papel crucial a la hora de determinar las características concretas (identidad) de cada dedo. La identidad de cada dedo, entonces, se determina progresivamente a medida que se produce su desarrollo. Cada uno de los tejidos interdigitales que se hallan entre los futuros dedos proporciona las instrucciones necesarias al dedo anterior, en dirección al pulgar. Para comprobarlo, los investigadores dividieron por la mitad uno de los dedos embrionarios de un pollo, insertando una pieza de metal entre las dos partes. Siguiendo la teoría en boga, cada una de ellas debería contener la misma información posicional y por tanto desarrollarse como dos dedos separados con la misma identidad. Pero para sorpresa de todos, una mitad formó el dedo que se suponía debería aparecer y la otra transformó su identidad en la del siguiente. En términos humanos, si dividimos un dedo índice, la mitad más próxima al dedo corazón o central se convertirá en un dedo índice y la otra mitad, más cercana al pulgar, en un pulgar. El siguiente paso fue investigar las moléculas que el tejido interdigital puede usar para enviar sus mensajes a los futuros dedos. Manipulando los niveles de proteína BMP, los científicos pudieron transformar las identidades de los dedos más cercanos. La observación implica que el embrión en desarrollo usa las BMP para influir en la forma que las estructuras individuales obtendrán su propia identidad, ya sean dedos, vértebras, dientes u otros elementos. Es incluso posible que el desarrollo preciso de todos los elementos del esqueleto en el cuerpo requiera la participación del tejido que los rodea. Esta información podría ser clínicamente útil a la hora de proporcionar nuevos avances en la detección y tratamiento 991 El Hijo de El Cronopio No. 86 de enfermedades genéticas relacionadas con el esqueleto, reparación y reemplazo de cartílago y hueso. Siendo un poco más ambiciosos, los investigadores podrían tratar de entender mejor el proceso con el objetivo de intentar la regeneración de dedos humanos perdidos durante una amputación traumática. Los equipos que han llegado a estas conclusiones no se encuentran en este campo de investigación desde tiempos recientes. Algunos llevan 30 años explorando cómo se especializan los tejidos durante el desarrollo del embrión y analizando la forma en que los dedos asimétricos emergen y se convierten en fijos, ya sea en tortugas, reptiles o humanos. Información adicional en: http://www.news.wisc.edu/thisweek/view.msql?id=5109 Imagen: http://www.cc.gatech.edu/projects/large_models/images/hand/hand.lg.jpg (Modelo de los huesos de una mano.) (Foto: Clemson University) http://www.cc.gatech.edu/projects/large_models/images/hand/hand.lg.jpg (Esqueleto óseo de un hombre.) (Foto: Georgia Tech) El giro del pulsar El radiotelescopio Lovell ha descubierto un púlsar cuyo movimiento especial permitirá a los astrónomos conocer mejor cómo es este tipo de estrellas muertas. Un púlsar es una estrella de neutrones, un resto extremadamente denso que es el resultado de una explosión supernova. De la estrella original sólo queda un objeto muy pequeño, de unos 20 km de diámetro, pero con una masa millones de veces superior a la de la Tierra. El proceso de su formación obliga a la estrella de neutrones a girar muy velozmente, como una peonza, y a hacerlo con una regularidad muy exacta, hasta el punto que pueden ser empleados como verdaderos relojes cósmicos. Un púlsar, además, produce sendos chorros de radio-ondas desde sus polos magnéticos, exactamente como lo haría un faro óptico. Cuando uno de estos rayos alcanza la Tierra, los radiotelescopios reciben un pulso periódico de radiación que puede ser detectado y estudiado. El personal de uno de los observatorios más famosos del mundo, el Lovell Telescope del Jodrell Bank Observatory (un radiotelescopio de 76 metros de diámetro), gestionado por la University of Manchester, ha estado analizando con mucha atención los datos obtenidos durante 13 años de un púlsar especialmente interesante. Se trata del PSR B1828-11, una estrella de neutrones que gira sobre su eje 2,5 veces por segundo. A diferencia de otros púlsares, muestra un movimiento superpuesto de precesión que se desarrolla con un período de unos 1.000 días. Dicho movimiento es parecido al que experimenta la parte superior de una peonza o un giroscopio. Esta precesión tiene dos manifestaciones: por un lado, la forma del pulso observado varía, y por otro, el tiempo entre los pulsos también cambia, haciéndose a veces más largo, y en otras más corto. Este fenómeno está dando algunas pistas a los astrónomos sobre las características del púlsar. Por ejemplo, el objeto no ya no puede ser perfectamente esférico. Se trata, no obstante, de una diferencia muy pequeña (sólo 0,1 milímetros frente a una esfera perfecta de 20 km de diámetro). En la Tierra, tal diferencia implicaría apenas las dimensiones de una "montaña" de 3 cm de altitud. 992 El Hijo de El Cronopio No. 86 Por eso, lo sorprendente del fenómeno no es lo pequeño que pueda llegar a ser, sino que pueda ser descubierto desde nuestro planeta. Las teorías actuales sugieren que un púlsar está hecho principalmente por un superfluido de neutrones, con una corteza sólida. La interacción del superfluido y la corteza deberían eliminar cualquier precesión de forma muy rápida. Dado que el púlsar observado tiene unos 1.000 años de antigüedad, los astrofísicos deberán volver a examinar sus teorías e intentar explicar el por qué del movimiento observado. Información adicional en: http://www.jb.man.ac.uk/news/neutronstar/ Imagen: http://www.jb.man.ac.uk/news/neutronstar/neutronlarge.gif (La estrella de neutrones.) (Foto: University of Manchester/M. Kramer) http://www.jb.man.ac.uk/news/neutronstar/neutronstar.gif (Animación del movimiento del púlsar.) (Foto: University of Manchester) http://www.jb.man.ac.uk/research/seti/Lovell.jpg (El radiotelescopio Lovell.) (Foto: University of Manchester) La Ciencia desde el Macuiltépetl/ Las dos culturas Por Manuel Martínez Morales Para los griegos, la creación de una obra de arte era el producto de dos actos inseparables: mimesis y methexis. La mimesis corresponde al acto de imitar, de recrear lo visto, lo sentido, lo vivido; y la methexis, al acto mediante el cual el artista se compromete con la realidad, se compenetra de ella para así poder representar no sólo la forma, sino también la esencia, lo sustancial de lo representado en su obra. Con el paso del tiempo, esos dos actos han sido tajantemente separados, a tal grado que en muchas ocasiones se llama arte al simple ejercicio de una técnica, al llano simbolismo, al elemental dominio de un método. De la misma manera, se han separado dos modos de abordar la realidad por el hombre, modos que en su esencia deben ser inseparables. Me refiero a lo que se ha dado en llamar las dos culturas. Por una parte se tiene el núcleo de las humanidades que incluyen las artes, la literatura, la filosofía, etc., y, por otro lado, se ubica a las ciencias con sus fríos modelos e insensibles máquinas. Para las humanidades existen valores éticos y estéticos, esto es, la moral, la belleza y la justicia; pareciera que las ciencias dentro de la concepción moderna tienen que ser, a tal grado, “objetivas” que no deben permitir en sus dominios los juicios de valor . Esta situación se refleja obviamente en las características psicológicas y hábitos de quienes se han formado en una u otra cultura. Le sugiero una experiencia interesante: invite a tomar café a un “humanista” y a un “científico”; plantéeles un tema de conversación cualesquiera y note su manera de hablar, de juzgar, de analizar y de exponer conclusiones. En el fondo, la separación entre lo humanístico y lo científico es artificial y conlleva serios riesgos si no es superada adecuadamente. Más de uno de los grandes científicos de nuestra era ha dicho que no sólo buscaba que su teoría fuese correcta, sino que, además, fuera bella. Bella en el sentido de que presentara regularidades en su estructura, ciertas simetrías. 993 El Hijo de El Cronopio No. 86 Un destacado divulgador de la ciencia, J. Bronowsky, dice: Uno de los prejuicios contemporáneos más nefastos ha sido el que el arte y la ciencia son cosas diferentes y en cierto modo incompatibles. Hemos caído en el hábito de contraponer el sentido artístico al científico; incluso los identificamos con una actividad creadora y otra crítica. En una sociedad como la nuestra, que practica la división del trabajo, existen naturalmente actividades especializadas como algo indispensable. Es desde esta perspectiva, y sólo desde ella, que la actividad científica es diferente de la artística. En el mismo sentido, la actividad del pensamiento difiere de la actividad de los sentidos y la complementa. Pero el género humano no se divide en seres que piensan y seres que sienten, de ser así no podría sobrevivir mucho tiempo. (El sentido común de la ciencia, Península, 1978) Hay que agregar que no sólo se ha contrapuesto el arte a la ciencia, sino que tal contraposición se ha hecho extensiva a muchos dominios de las humanidades. Desde luego que la creatividad, esencial en cualquier arte o ciencia, exige un cierto grado de especialización. Conjuntar nuevamente mimesis y methexis no implica formar “todólogos”, es decir, no se necesita se músico profesional para disfrutar y apreciar la buena música, ni es necesario ser científico para estar al tanto de los adelantos de la ciencia, lo que se requiere es una reintegración de esos aspectos de la actividad del hombre. El divorcio entre humanidades y ciencias está enraizado, en última instancia, en la enajenación que produce un sistema fincado en la división de la sociedad en clases y en la explotación del trabajo humano. Para los fines de tal sistema, el hombre tiene que ser, debe ser, parcelado, es decir, mutilado, y solamente debe atender al desarrollo de aquellas facultades que son directamente útiles en la producción. Además, no produce para sí, sino para satisfacer los requerimientos de un mercado lejano y abstracto. El productor, obrero, artista o científico, siente que su obra encierra poderes que lo dominan, que poseen una suerte de vida propia. Se habla del arte, de la ciencia, de la filosofía como entidades con vida autónoma que dictan leyes para ser obedecidas por los hombres. Lejos estamos todavía de entender que esas grandiosas obras del arte, de la ciencia y de la filosofía, son producto de la actividad humana y que es el hombre mismo quien puede darles el sentido apropiado para que esas obras sean verdaderas fuentes de satisfacción, de belleza, de entendimiento y de paz. Así, lo que muchos deseamos y todos necesitamos es que llegue el día en que no haya más obreros pintores o científicos, sino simples hombres que, entre muchas otras cosas, produzcan, pinten o hagan ciencia. El Cabuche (crónicas de la Facultad de Ciencias)/ Esos pioneros La física, como disciplina es nuestro país es joven, y por lo tanto lo son la mayoría de los profesionales que la cultivan (también existimos más jóvenes aún). A principios de los años cincuenta comenzaron a fincarse instituciones de formación de estos nuevos ejemplares de la ciencia en provincia. Puebla y San Luis figuran entre estas instituciones. De aquellos personajes que contribuyeron a su consolidación han y están pasando de 994 El Hijo de El Cronopio No. 86 jóvenes a personas mayores y eventualmente dejan este mundo; aunque, existen lamentables casos de accidentes que, prematuramente, han dejado a la física sin sus valiosas contribuciones. El 26 de mayo Virgilio Beltrán López fue vencido por el cáncer, yéndose así uno de los pioneros de la física en provincia. Virgilio Beltrán formó parte de ese importante grupo de físicos que a principios de los sesenta engalanaba a la universidad poblana. Junto con Eugenio Ley Koo y García Colín, entre otros, se desarrollaban en ese ambiente difícil y hasta hostil que representa emprender trabajos de investigación en entornos un tanto cerrados, muy propios de universidades y sociedades conservadoras. En aquellos tiempos el ímpetu de la universidad poblana contrastaba con su mojigata sociedad. Consecuencia de esas confrontaciones fue la total destrucción (así literalmente) de la escuela de física, a manos de los retrogradas caballeros de colón (no merecen ponerles mayúsculas). La ahora Facultad de Ciencias Físico-Matemáticas de la UAP ha sabido reponerse a esos obstáculos y figura como una de las instituciones importantes del país. En San Luis la facultad ha tenido que enfrentarse a ese tipo de presiones, aunque de forma más sutil; aunque en número de profesores e investigadores no podemos compararnos con la facultad poblana, su desarrollo en épocas tempranas fue tan glorioso como el caso de Puebla; tan glorioso que podemos vanagloriarnos de que en nuestras aulas se formó el primer grupo de física experimental en provincia y que tal grupo alcanzó niveles insospechados en aquella época, no igualados sino hasta la época actual. Gustavo del Castillo y Gama, fundador de la escuela y de la física en San Luis, apenas el quinto doctorado en física de México, formado, como los anteriores, en el extranjero, jugo un papel clave. Ante los embates del centro, poco es conocido su papel y contribuciones, tanto a la física como disciplina, como a la formación y consolidación de grupos de investigación en provincia. Se hace necesario destacar el papel de estos pioneros. Por lo pronto los trabajos del XVIII Concurso Regional de Física y Matemáticas, mejor conocido como Fis-Mat, está dedicado a Gustavo Del Castillo y Gama como un modesto y justo reconocimiento a su labor. Labor que contradice, al igual que el mural plasmado en un bar por el rector de Cuénamo, en la novela de Jorge Ibargüengoitia “Estas ruinas que ves”, que fue maravillosamente llevada a la pantalla grande y difundida por la chica, en una película del mismo nombre. En el mural el rector (en la película encarnado por Rafael Banquels, el famoso gutierritos, que no pertenecía al HUMO, esa sociedad de nuestra facultad que reúne a los maridos oprimidos y de la cual, sobra decir, formo parte) pintó figuras de la ciencia que evolucionan en imágenes desde cuando el hombre fue primate hasta culminar en Einstein, posados sobre un colorido arcoiris que representa la luz, mientras que en la parte inferior aparece un grupo de personajes con garrotes que aseguran, aunque el mundo les demuestra lo contrario: “La ciencia no existe” y firman C.C. Cuando interroga al rector uno de los profesores que lo acompaña en la faena, qué significa C.C., éste explica, -la frase, la firman los caballeros de colón. Siempre que se hace una historia/Se habla de un viejo, de un niño, o de sí,/pero mi historia es difícil/no voy a hablarles de un hombre común/haré la historia de un ser de otro mundo/de un animal de galaxia./Es una historia que tiene que ver/con el curso de la Vía Láctea,/es una historia enterrada/es sobre un ser de la nada 995 Boletín El Hijo de El Cronopio Facultad de Ciencias Universidad Autónoma de San Luis Potosí No.87, 21 de agosto de 2000 Boletín de información científica y tecnológica de la Facultad de Ciencias Publicación semanal Edición y textos Fís. José Refugio Martínez Mendoza Parte de las notas de la sección Noticias de la Ciencia y la Tecnología han sido editadas por los españoles Manuel Montes y Jorge Munnshe. La sección es un servicio de recopilación de noticias e informaciones científicas, proporcionadas por los servicios de prensa de universidades, centros de investigación y otras publicaciones especializadas. Cualquier información, artículo o anuncio deberá enviarse al editor. El contenido será responsabilidad del autor. e-mail: flash@galia.fc.uaslp.mx Números anteriores del boletín (La Ciencia en San Luis del 1 al 45), pueden consultarse por Internet en la página de la UASLP: http://phobos.dtc.uaslp.mx/publi.html Una columna de silencio: Las lobas andan sueltas El Hijo de El Cronopio No. 87 Darwin regresa a la escuela La teoría darwiniana sobre la evolución de las especies reaparecerá en los programas de estudio de las escuelas públicas de Kansas, EU, para felicidad de varios organismos científicos estadounidenses. La reaparición surge luego que la oficina de educación de Kansas votara, en el verano pasado, por la supresión de la enseñanza de la teoría de Darwin, en una decisión que era hasta ahora una victoria para la comunidad fundamentalista cristiana, a favor de creacionismo, teoría fundada en una interpretación literal de la Biblia sobre los orígenes del mundo. Organismos como el Instituto estadounidense de Física (AIP, por sus siglas en inglés), la Asociación Estadounidense para el Progreso de la Ciencia (AAAS) o la Unión Estadounidense de Geofísica (AGU), saludaron este avance. El plan estatal afectaba todos los niveles de estudio, desde el inicial al secundario, que actualmente no hace prácticamente mención de los conceptos ligados a la teoría de la evolución (selección natural, genealogía de las especies) ni a los orígenes del Universo (Afp). Noticias de la Ciencia y la Tecnología El control de la capa del ozono, ¿da resultado? Que hay ciertos productos químicos producidos por el Hombre que destruyen la capa del ozono es algo que está demostrado científicamente. Pero, las medidas que se han empezado a implantar para evitarlo, y que cuestan más dinero a los consumidores, ¿están funcionando realmente? La paulatina desaparición de los CFCs, y en particular el cese de la utilización de gases como el freón, que al ser liberados en la atmósfera atacan la molécula de ozono y destruyen la capa que nos protege de los efectos perniciosos de los rayos ultravioleta, está implicando una carga económica considerable sobre el consumidor. Los CFCs se usan no sólo en sistemas de refrigeración, sino en muchos otros campos, como el empaquetado, los sprays, etc. Su sustitución por otros gases no perniciosos para la capa del ozono incrementa los costes de investigación y explotación, así que a todos nos interesa saber si ese dinero que estamos pagando de más realmente está valiendo la pena. Pues bien, los especialistas creen que así es. Los sofisticados instrumentos de medida que se emplean para comprobar el estado de la capa del ozono han empezado a mostrar síntomas de que, a ciertas altitudes, se están produciendo ya cambios interesantes. Si comparamos imágenes tomadas desde satélite de la zona antártica (tras el récord de extensión experimentado por el agujero en septiembre de 1998) con otras tomadas ahora, 997 El Hijo de El Cronopio No. 87 éste se muestra algo más pequeño un año después. Sin embargo, sigue en pie el debate sobre la naturaleza y momento exacto de la recuperación esperada de la capa del ozono. De momento, se han detectado cambios en la carga de halógenos, pero no está claro si su disminución afectará al ozono a largo plazo. Para detectar las concentraciones de ozono en la atmósfera, los científicos han utilizado cuatro sensores TOMS a bordo de satélites desde 1978. Estos sensores proporcionan a su vez cuatro productos: la columna de ozono total, el índice de aerosoles, el grado de exposición a los rayos ultravioleta y la reflectividad. A diferencia del gas oxígeno normal, que tiene dos átomos, el ozono posee tres átomos de oxígeno. Forma además una fina capa en la alta atmósfera que protege a animales y plantas de la radiación ultravioleta nociva. También podemos encontrar ozono cerca de la superficie de la Tierra (normalmente producido por las actividades humanas), pero entonces éste se convierte en un peligroso contaminante si se halla en altas concentraciones. Por su parte, los aerosoles son partículas microscópicas de polvo, humo o ceniza. Los volcanes, la deforestación, las tormentas de los desiertos y los incendios, tanto naturales como inducidos por el Hombre, pueden generarlos. En cuanto a la exposición a los rayos ultravioleta (UV), ésta se mide en función de la cantidad de radiación que atraviesa la atmósfera y alcanza el suelo. Medida por el TOMS en términos de kilojulios por metro cuadrado, es la intensidad de la radiación UV solar que alcanza a las plantas y la vida animal después de haber sido filtrada por el ozono estratosférico, las nubes y los aerosoles, multiplicada por sus daño biológico potencial. Por último, la reflectividad se deriva del porcentaje de luz solar reflejada por la superficie terrestre que llega al instrumento de medida. Cualquier objeto o superficie refleja luz, incluyendo el suelo, el agua, el hielo, la vegetación y las nubes. Estudiando el porcentaje de luz, los investigadores pueden determinar la reflectividad de las nubes y observar diferentes fenómenos meteorológicos sobre tierra o mar. Obteniendo las magnitudes de todos estos conceptos, el TOMS está considerado hoy en día como el instrumento estándar para el estudio del ozono. Tanto es así que siempre debe haber alguno de ellos en órbita. La página web que describe los resultados que obtiene permite al usuario consultar localidades geográficas concretas, incluyendo el nivel de ozono, la exposición ultravioleta y comparar niveles con otros puntos del globo. Las cifras de aerosoles estarán disponibles en el futuro. Para confirmar que los resultados enviados por los TOMS son correctos, los científicos lanzan globos con ozono-sondas, que realizan mediciones locales a hasta 35 km de altitud. Los lanzamientos se realizan desde zonas estratégicas y además sirven para capturar medidas de temperatura, humedad, etc. Todo ello nos ayuda a mantener una vigilancia estricta que nos mostrará si el ozono se está recuperando o no, confirmando la efectividad de las medidas tomadas a nivel mundial. A pesar de todo, el trabajo científico no habrá finalizado aún. A los investigadores les interesa saber si la recuperación sigue los modelos matemáticos desarrollados, o si es más rápida o más lenta. Además, debido a las complejas interacciones atmosféricas de los incrementos del CO2 , que provocan cambios climáticos, la recuperación de la capa del ozono podría no ser tan rápida como nos gustaría. Información adicional en: http://svs.gsfc.nasa.gov/~gshirah/toms/ 998 El Hijo de El Cronopio No. 87 http://toms.gsfc.nasa.gov/; http://toms.gsfc.nasa.gov/fltmodel/satpage.html http://hyperion.gsfc.nasa.gov/Data_services/shadoz/ http://science.nasa.gov/headlines/y2000/ast26jun_1m.htm Imagen: http://science.nasa.gov/headlines/images/ozone/ozone03oct99.jpg (El color azul denota el agujero en la capa del ozono de la zona antártica.) (Foto: NASA) http://science.nasa.gov/headlines/images/ozone/aerosols_strip.gif (Distribución de aerosoles.) (Foto: GSFC) http://science.nasa.gov/headlines/images/ozone/uvexposure_med.gif (Distribución de la reflectividad.) (Foto: NASA) http://science.nasa.gov/headlines/images/ozone/O3Sonde4.JPG (Globo sonda para el ozono.) (Foto: UAH) Energías alternativas, negocio a la vista De la necesidad puede surgir a veces un potencial económico inesperado. La búsqueda de sistemas de explotación de energías alternativas goza de grandes perspectivas. Cuando éstos sean requeridos a gran escala, las empresas que más hayan invertido en ellos se convertirán en las compañías petroleras del futuro. El petróleo no va a durar eternamente, por eso ahora es el momento de emprender iniciativas orientadas a perfeccionar motores eléctricos o de otro tipo para coches, a buscar posibles combustibles sintéticos de bajo coste, o a abordar soluciones imaginativas hoy difíciles de prever. Investigar en estos campos, o como mínimo, fabricar paneles solares, aerogeneradores, y otros dispositivos tendentes a un mejor aprovechamiento de los recursos energéticos, puede ser la llave para hacer grandes negocios en los próximos años. Bastantes son los conceptos de viabilidad factible que hoy se preparan para competir entre sí con el objetivo de robarle el monopolio a los motores convencionales basados en el petróleo o sus derivados. De todos ellos, el motor eléctrico aparenta ser el más firme candidato a hacerse con una porción del mercado antes que los demás. Su uso habitual en vehículos de carga dentro de almacenes demuestra la solidez técnica del diseño básico. Los primeros prototipos de coches eléctricos que ya han sido fabricados por marcas bien conocidas también auguran un excelente resultado para dicha iniciativa. El motor eléctrico no debe verse forzosamente como un competidor del de petróleo. La idea de un coche híbrido, que reúna a ambos para utilizar uno u otro según convenga, está ganando muchos adeptos y además parece una opción sensata de transición o combinación. La motivación de un automóvil híbrido es aprovechar lo mejor de cada motor en cada circunstancia. Por ejemplo, para trayectos cortos como los efectuados dentro de una ciudad el eléctrico resultaría ideal, mientras que para largos viajes a través de autopista el que consume derivados del petróleo ofrecería un perfil óptimo. La locomoción mediante motores químicos no debe, a pesar de todo, ser desestimada como futuro terreno de nuevos desarrollos competitivos. La obtención a bajo coste de combustibles sintéticos es una meta difícil, pero sin duda de un valor incalculable. La industria química no es la única que puede acometer con éxito esta empresa. El nuevo campo de la biotecnología está dando constantes sorpresas, y la obtención de un sistema rentable para la creación de esos combustibles milagrosos mediante el uso de microorganismos productores, no parece en modo alguno una utopía. 999 El Hijo de El Cronopio No. 87 El motor más atractivo por sus inmejorables prestaciones y por la abundancia extraordinaria de su combustible está sin embargo aún lejos de las posibilidades de las técnicas actuales. Se trata del motor de hidrógeno, llamado también motor de agua por obtener de ella dicho elemento, y envuelto en sus inicios en un cierto clima de leyenda, al parecerse a la piedra filosofal de los alquimistas. En efecto, un motor que utilice hidrógeno puede extraerlo del agua, con lo cual, para poner en marcha nuestro coche podría bastar con llenar su depósito con este líquido. La factura, en todo caso, sería mucho más barata que la de la gasolina. No obstante, aunque válido, este concepto es sólo teórico en su supuesto ahorro. La tecnología requerida para un motor de coche alimentado por hidrógeno es aún prohibitiva tanto por su complejidad y espacio ocupado, como por su precio. Aunque el hidrógeno es un combustible usado en el campo aeroespacial para motores-cohete, adaptarlo para su uso en vehículos de superficie es un enorme reto que sin duda ocupará décadas de investigación y desarrollo. Por su parte, la energía solar está destinada a ocupar un puesto de primera magnitud en el mercado futuro de las energías alternativas. Su carácter de fuente inagotable y el firme progreso tecnológico que su aprovechamiento registra año tras año la sitúan ahora en el inicio de una espectacular expansión futura. Por un lado, el coste de los paneles solares y sus accesorios disminuye cada vez más, haciendo viable para particulares disponer de una instalación casera privada. Por otro, la eficiencia de los paneles también está experimentando importantes saltos tecnológicos. Hasta hace poco, era en el medio rural donde mayor implantación se registraba, pero cada vez resulta más habitual ver paneles solares cubriendo tejados en la ciudad. La energía solar se ha demostrado ya capaz de proporcionar electricidad a gran escala, con lo cual los paneles fotoeléctricos no son ya sinónimo de instalaciones de potencia ínfima, capaces tan sólo de abastecer una vivienda. Las centrales eléctricas solares que ya funcionan en el mundo demuestran la viabilidad de manejar esta energía en grandes proporciones. La investigación avanzada da sus frutos no sólo optimizando el poder de conversión fotoeléctrico de las nuevas generaciones de paneles, sino también abriendo nuevas posibilidades de aprovechamiento. Un ejemplo de esto último lo constituyen los sistemas revolucionarios que además de usar la luz hacen lo propio con el calor. Los rayos del Sol emiten desde luego una buena dosis de energía térmica en ciertas zonas de la Tierra durante parte del año. Es obvio que si este calor se aprovecha también, el potencial de producción de electricidad puede crecer de forma notable. El volumen de negocio que en las próximas décadas veremos generarse alrededor de todo este progreso técnico en materia de energía solar puede ser tan espectacular como lo fue el crecimiento del negocio petrolero a partir de la invención del automóvil. Mientras, el subsuelo de diversas áreas ofrece un potencial energético que, en muchos casos, todavía sigue sin explotarse convenientemente. Si bien la energía geotérmica no es un recurso tan generalizado como la solar, pude resultar una fuente muy útil, ya que a la producción eléctrica a partir de ella también debemos añadirle la disponibilidad inmediata de esa energía "en bruto" como fuente de calor. Este uso directo es más ventajoso de lo que podría creerse. En Islandia, por ejemplo, existen numerosas viviendas que tienen resuelto para siempre el problema de la calefacción, algo nada trivial en un país frío como ése. En muchos hogares, el agua calentada geotérmicamente circula por los radiadores y alimenta duchas y grifos. En la isla de Lanzarote, existen 1000 El Hijo de El Cronopio No. 87 ciertos puntos, como por ejemplo el patio de un restaurante, donde se puede cocinar gratis. El calor interno de la tierra es canalizado a través de unos tubos o pozos hacia la superficie, y el resultado es disponer de un horno y una barbacoa que siempre están encendidos sin que haya que gastar electricidad, gas, leña ni ningún otro combustible. Por supuesto, la energía geotérmica no es un recurso al alcance de todas las ubicaciones geográficas, pero existen más zonas de aprovechamiento de lo que se piensa. A menudo, en lugares donde la manifestación del calor subterráneo no se hace patente en la superficie, bastaría excavar una mina para disponer en ella de una central energética de funcionamiento constante. Los avances tecnológicos también jugarán un papel destacado en la aventura mercantil geotérmica. En particular, el fondo oceánico podría constituir un terreno óptimo para las iniciativas más atrevidas al respecto. Usando como punto de partida la tecnología de las plataformas petrolíferas marinas, sería viable abordar el diseño y construcción de centrales geotérmicas que se alimentasen del calor del vulcanismo subacuático. No faltan incluso quienes se atreven a especular con la posibilidad de abrir pozos de muchos kilómetros de profundidad para llegar al calor subterráneo del planeta, con independencia de que la zona muestre o no una actividad termal cerca de la superficie. Por supuesto, la creación de tales "volcanes artificiales" domesticados debería abordarse con la máxima prudencia, debido a los peligros geológicos que podría atraer para el entorno. Otras fuentes de energía están ya siendo utilizadas de manera habitual para producir electricidad en determinadas ubicaciones geográficas de características especiales. La energía eólica supone aprovechar de manera inteligente la fuerza del viento. El estudio de determinados procesos químicos o biológicos está permitiendo vislumbrar el posible desarrollo de toda una nueva generación de combustibles sintéticos. Existen asimismo diversas ideas sobre el aprovechamiento energético de fenómenos físicos o fuerzas naturales, que van desde almacenar la electricidad de las tormentas, hasta usar la fuerza del oleaje marítimo, por citar algunos casos. Aún es prematuro apostar por la viabilidad comercial a gran escala de alguna de esas fuentes energéticas. Sin embargo, puede ser positivo por parte de los laboratorios el mantener una cierta labor de investigación, así como para la industria en general el estar atenta a todo avance en ese terreno, por insignificante que sea. Información adicional en: http://www.eurosolar.org (European Solar Energy Association) http://www.engr.ucdavis.edu/~its/ (Institute of Transportation Studies, Universidad de California, en Davis) http://www.cabildo.com/aec/casa-volcanes/casa1.htm (Casa de los Volcanes del Cabildo de Lanzarote) http://www.awea.org (American Wind Energy Association) Imagen: Energ1.jpg (Tuberías por las que circula el vapor ardiente de un yacimiento geotérmico, usado para generar electricidad.) (Foto: Electricity Corporation of New Zealand Ltd.) Energ2.jpg; (Los vehículos con motor eléctrico, exponentes de la más sofisticada tecnología, son la clase mejor preparada para misiones científicas de elevada importancia.) (Foto: NASA) Energ3.jpg; (El hidrógeno quizá acabe por reemplazar a la gasolina, y el aspecto de las gasolineras se parezca al de los depósitos criogénicos.) (Foto: NASA) 1001 El Hijo de El Cronopio No. 87 Energ4.jpg; (Otro depósito criogénico para almacenamiento de gases licuados a muy baja temperatura.) (Foto: NASA) Prueba de aliento para la biomedicina Un nuevo dispositivo analizador puede ser empleado para detectar enfermedades gástricas y de otro tipo sin que sea necesario utilizar técnicas invasivas. La bacteria Helicobacter pylori es un sujeto relativamente peligroso. Puede establecerse en el estómago humano causando gastritis crónica, úlceras pépticas y quizá incluso cáncer de estómago. Su actividad y consecuencias se detecta de forma habitual con endoscopia o biopsia, para después cultivarla, pero esto lleva tiempo, es duro para el paciente y se corre el riesgo de infección. Afortunadamente, hay otra técnica que explota la capacidad de la H. Pylori de degradar rapidísimamente la urea produciendo grandes cantidades de dióxido de carbono. Así, tras tragar urea "etiquetada" con carbono-13, el paciente exhala CO2 . El carbono-13 es estable e inocuo pero para medirlo hacía falta hasta hace poco un caro espectrómetro de masa y una persona cualificada. Esto cambiará gracias a los resultados proporcionados por una "Acción Competitiva de Apoyo" de la Comisión Europea titulada "Convalidación de Procedimientos de Muestras, Calibración y Medición para la Técnica de Medición Infrarroja No-Dispersiva (NDIR) Aplicada a la Biomedicina". Tras este largo y complicado título se oculta el analizador IRIS, un aparato que se emplea para la detección de carbono-12 y 13. El proyecto comenzó con el IRIS Mark I, un analizador NDIR de este tipo de moléculas que se aplica sobre el aliento humano. ¿Cómo funciona? Se hace pasar un rayo de luz infrarroja por una muestra en la que los dos carbonos lo absorben en dos longitudes de onda ligeramente diferentes, pasando por dos cámaras, una con CO2 de carbono-12 y otra con CO2 de carbono-13. Estos gases se calientan al absorber lo que queda de la luz y se mide el aumento de presión que se produce. El paciente ingiere urea con carbono-13 y sopla en un saquito que es un analizador, consistente en un ordenador con un programa que se encarga del resto en un par de minutos. Una enfermera puede calibrar la máquina con su propio aliento y luego diluir la muestra del paciente gradualmente en aire libre con CO2 (una operación de calibrado sencilla y ya patentada, una de las principales innovaciones de IRIS). El objetivo del proyecto era dar a conocer el IRIS a todo el mundo. Para ello, el equipo tenía que ser convalidado según las normas del Instituto de Materiales de Referencia y Mediciones, uno de los ocho institutos del centro Común de Investigación de la Comisión Europea. Esta transferencia de tecnología permitió que los socios del proyecto siguieran perfeccionando un equipo relativamente sencillo. El método es fidedigno, como se demostró en pruebas y mejoras propuestas. El analizador se hizo más estanco, de temperatura estable y más robusto. Se perfeccionó también el programa de ordenador, añadiendo sobre todo una base de datos de pacientes, procedimientos normalizados de pruebas y resultados de éstas con los sucesivos pacientes. La realizada con la H. pylori, en particular, se hizo más sensitiva. Los socios convalidaron luego los diversos experimentos en hospitales. Con diferentes substratos etiquetados, IRIS puede medir la motilidad gástrica, las funciones del hígado y del páncreas, consumo de energía, actividad total de amilasa, etc. El resultado final es el analizador IRIS Mark II, reconocido hoy día en todo el mundo como un nuevo instrumento de categoría. Su prueba de la H. pylori, superior a todos los 1002 El Hijo de El Cronopio No. 87 demás métodos, es específica al 98 por ciento, y sensitiva al 98 por ciento. Una prueba con metacetina de carbono-13 distingue varias condiciones del hígado, de normal a cirrosis severa. Otras pruebas con IRIS están demostrando también lo que valen, aunque persistan aún, paradójicamente, algunos obstáculos a su distribución, tales como la necesidad de patentarlas en los Estados Unidos o bien su escasa compensación en algunos países de la UE (a pesar de que una prueba IRIS de H. pylori cuesta de 20 a 25 veces menos que un cultivo tras endoscopia o biopsia). Los socios del proyecto estiman que una campaña de salud con el IRIS para disminuir en un 10 por ciento al año los casos problemáticos relacionados con H. pylori reduciría los costes sanitarios de la UE en unos mil millones de euros anuales después del tercer año de campaña. Información adicional en: http://www.wagner-bremen.de http://www.irmm.jrc.be Imagen: http://www.wagner-bremen.de/bilder/girl_1.jpg (El IRIS, en acción.) (Foto: Wagner) http://www.wagner-bremen.de/bilder/detail.jpg; (Detalle del IRIS.) (Foto: Wagner) El hierro nos da la pista El descubrimiento de filamentos de óxido de hierro en rocas pertenecientes a distintos períodos geológicos delata la presencia prehistórica de bacterias. El método podría emplearse también para buscar indicios de vida en otros planetas. No siempre es necesario hallar fósiles de organismos que una vez estuvieron vivos para demostrar que proliferaron en un paraje determinado. Los doctores Robert L. Folk y Kitty L. Milliken, profesores de geología de la University of Texas, han demostrado que algunos de los filamentos de óxido de hierro que pueden encontrarse en rocas de una serie de períodos geológicos muy antiguos fueron producidos por seres vivos que actuaban a escala microscópica. Ya hace más de cien años que los científicos debaten sobre si el proceso que da lugar al óxido de hierro se debe a circunstancias biológicas o inorgánicas. La cuestión sobre si organismos como las bacterias o los virus podrían jugar un papel en la formación de rocas con alto contenido de óxido de hierro no ha sido aún clarificada. Sin embargo, las formas microscópicas que han encontrado Folk y Milliken sugieren que la materia viva está muy relacionada con dichos procesos. Folk es un especialista en el tipo de bacteria que denominamos Nannobacteria. Estos seres diminutos son 1.000 veces más pequeños que las bacterias normales y 1.000 millones de ejemplares podrían vivir juntos en la cabeza de una aguja. Algunos biólogos creen que ninguna criatura viva puede medir menos de 0,2 micrones (1 micrón es una millonésima de metro) porque no habría espacio suficiente para contener el material genético necesario para garantizar su existencia. Pero Folk descubrió las primeras Nannobacteria mineralizadas en Italia, hace 10 años. Los trabajos más recientes de este científico y de Milliken muestran que los depósitos de óxido de hierro modernos contienen las mismas estructuras filamentosas, cuya forma nos recuerda la de microbios muy pequeños. El óxido de hierro también contiene un verdadero "zoo" de cuerpos de tamaño nanométrico, lo cual podría implicar la presencia de vida. 1003 El Hijo de El Cronopio No. 87 Folk encontró las mismas formas tanto en los depósitos de hierro modernos como en los antiguos. Dichas formas se repiten tanto en el óxido de una cañería como en rocas de hace 3.000 millones de años, por ejemplo. Las estructuras a escala nanométrica son claramente de origen orgánico porque permanecen en forma de residuo incluso después de que el óxido de hierro ha sido lixiviado. Las bacterias y las Nannobacteria dejan abundantes evidencias de su presencia en los óxidos d