2000 - Facultad de Ciencias

Anuncio
Boletín
El Hijo de El Cronopio
Facultad de Ciencias
Universidad Autónoma de San Luis Potosí
No.62, 24 de enero de 2000
Boletín de información científica y
tecnológica de la Facultad de Ciencias
Publicación semanal
Edición y textos
Fís. J. Refugio Martínez Mendoza
Cualquier información, artículo o
anuncio deberá enviarse al editor
e-mail: flash@galia.fc.uaslp.mx
Este boletín y números anteriores,
pueden consultarse por Internet en la
página de la UASLP:
http://phobos.dtc.uaslp.mx/publi.html
Reiniciamos
actividades
en este año 2000
deseándoles lo mejor
para ustedes y los suyos
La Sociedad Mexicana para la
Divulgación de la Ciencia y la Técnica
Convoca a comunicadores, periodistas, científicos, maestros, estudiantes y
toda persona interesada en la
divulgación de la ciencia a participar
en el Congreso Nacional a celebrarse
del 5 al 7 de abril en Morelia, Mich., el
cual tendrá como tema central La
Divulgación de la Ciencia y la Técnica
en el nuevo Milenio.
Se podrá participar con exposiciones
orales y carteles sobre el tema central
del Congreso, presentando estudios y
análisis de actividades de divulgación
de la ciencia y la técnica, realizadas a
través de diversos medios.
Las propuestas de ponencias orales y
de carteles sobre el tema central,
deberán enviarse a más tardar el 12
de febrero del 2000.
Recepción de trabajos por correo
electrónico
o
fax:
Guadalupe
Zamarrón Garza Tels 56 58 78 85, email: zamarron@servidor.unam.mx
El Hijo de El Cronopio No. 62
Noticias de la Ciencia y la Tecnología
Asistencia digital
Un científico de la University of Massachusetts ha desarrollado un ordenador portátil que
"se lleva encima".
Aunque los ordenadores son cada vez menos voluminosos y pueden ser transportados
fácilmente, aún no poseen el nivel de integración adecuado para responder a las tareas
diarias de cualquier persona. Precisan de nuestra voluntad para proporcionar
información.
Andy Fagg, un experto en informática de la University of Massachusetts, sin embargo,
ha construido una máquina sofisticada que "se lleva" encima como una prenda de ropa
más. Una mini-pantalla de cristal líquido situada frente a uno de los ojos basta para
darnos acceso visual a la información que quiera proporcionarnos. Se trata, pues, de un
asistente digital, el cual puede ser programado para que "note" el lugar en el que
estamos, actuando en consecuencia.
Así, si entramos en un supermercado, nos mostrará la lista de la compra. Si vamos a una
reunión, preparará los documentos pertinentes y notas sobre las discusiones de la última
vez. También se le puede decir que vamos a cocinar un plato determinado, y él nos
presentará de inmediato la receta apropiada y los pasos a seguir.
Por supuesto, será capaz de actuar como agenda, recordándonos todo lo que debemos
hacer durante el día. Y puede servir como puente para conectarnos a Internet.
El sistema se ha construido con materiales ya disponibles, y pesa menos de 3 kg. Posee
todo tipo de puertos para conexiones con otros dispositivos, un receptor GPS para
posicionamiento global, auriculares, etc.
Uno de los principales retos es enseñar al ordenador a interrumpirnos en los momentos
adecuados. No nos interesa saber cuál es la lista de la compra cuando aún estamos en la
oficina, o recibir información visual mientras conducimos nuestro vehículo.
Lo importante es que la máquina no nos aburrirá diciendo que hemos olvidado comprar
la botella de leche, sino que nos avisará de ello cuando aún estemos en disposición de
resolver el problema.
Información adicional en: http://www-anw.cs.umass.edu/~fagg/projects/wearables
http://www.umass.edu/newsoffice/press/00/0105wearableComp.html
Imagen: http://www.umass.edu/newsoffice/photos/faculty/Fagg_Andrew-300.jpg
(Andy Fagg y su ordenador portátil.) (Foto: UMass.)
Decreciendo
Los huesos de los seres vivos tienen la capacidad de crecer hasta un punto óptimo, pero
en algunos casos también pueden seguir el camino inverso, un camino que es posible
invertir.
Cuando los científicos que miden las dimensiones de un determinado tipo de vertebrados
repiten la experiencia un cierto tiempo después y descubren que el espécimen ha
disminuido su tamaño, la primera explicación que se les ocurre es que se ha producido
650
El Hijo de El Cronopio No. 62
un error durante la medición. Sin embargo, esto no tiene siempre por qué ser así, como
demuestran 18 años de estudios y datos obtenidos en las islas Galápagos.
Investigadores que estudian las iguanas marinas en dos poblaciones distintas de estas
islas han informado que dichos reptiles han reducido su tamaño en unos 6,8 cm (un 20
por ciento de su longitud corporal) en un período de sólo dos años. Al parecer, las
iguanas (Amblyrhynchus cristatus) han disminuido su tamaño para incrementar sus
posibilidades de supervivencia durante un cambio meteorológico prolongado.
La mencionada disminución ya había sido notada en otros momentos (1982-83, 1987-88,
1992-93 y 1997-98), pero se había desestimado como un error de medición. Un
seguimiento más cercano ha puesto de manifiesto un claro patrón: los períodos de
disminución coinciden con los años en los que ha reinado El Niño, el famoso fenómeno
meteorológico.
Las iguanas comen algas. Sus islas experimentan habitualmente corrientes frías, ricas en
nutrientes, procedentes tanto del oeste como del sur. Pero durante los años de El Niño,
las corrientes son más cálidas y las lluvias intensas provocan un incremento de la
temperatura del agua. En ese instante, las iguanas se ven obligadas a comer algas
marrones, menos digestibles que las habituales algas rojas y verdes. Esto desencadena
una disminución del tamaño de los animales, ya que sólo así se harán más delgados, con
bocas más pequeñas y adecuadas para la captura de tan diminutas algas.
En los años posteriores a El Niño, las iguanas que logran sobrevivir (las que han
reducido su tamaño más) comen mucho y engordan, y entonces empiezan a crecer de
nuevo.
Es decir, las iguanas decrecen hasta alcanzar unas dimensiones bajo las que su
posibilidad de supervivencia aumenta. Una disminución de 1 cm puede suponer un
incremento del porcentaje de supervivencia en un 10 por ciento, pudiendo llegarse hasta
el 35 por ciento. Tan interesante como que los huesos se acorten es que después vuelvan
a su tamaño original. Esto podría aportar pistas sobre cómo vencer la osteoporosis en los
humanos.
Información adicional en: http://www.life.uiuc.edu/alumni/wikelski.htm
Imagen: http://www.life.uiuc.edu/alumni/images/Martin%20.jpg
(Martin Wikelski y una iguana de las Galápagos.) (Foto: U. of Illinois)
Adiós a las cicatrices
Un nuevo pulverizador de aplicación sobre la piel evitará la formación de las
antiestéticas cicatrices.
Cuando una herida se cierra, el tejido de la piel en la zona afectada suele tener una
estructura más débil de lo normal. Aparece la cicatriz, delatora de que algo ha ocurrido y
poco agradable a la vista.
Para evitarlas, científicos británicos han desarrollado un pulverizador (spray) que, al ser
utilizado sobre la herida, depositará una fina red de fibras de polímeros que ayudarán a la
formación de una estructura cutánea más resistente.
Cuando la piel resulta afectada por un corte, el daño destruye a menudo la estructura
trenzada de colágeno, la misma que le proporciona su resistencia habitual. Cuando el
cuerpo intenta reparar la herida, se produce una situación anómala que hemos heredado
651
El Hijo de El Cronopio No. 62
del pasado. Una persona podía morir si no cicatrizaba lo antes posible, de modo que el
cuerpo evolucionó evitando la reconstrucción del complejo de colágeno original,
sustituyéndolo por una medida de emergencia que supone la colocación de finas tiras
alineadas de colágeno. El material resultante tiene un aspecto más pálido y menos
flexible que la piel normal. Es lo que denominamos tejido de cicatriz.
En los tiempos que corren, no es tan importante cicatrizar rápido como que la cicatriz se
vea lo menos posible. Por eso, una compañía de biotecnología llamada Electrosols ha
desarrollado el pulverizador antes mencionado. Las fibras de polímeros biodegradables
que aplica sobre la herida proporcionarán a las células que producen colágeno una red
sobre la que crecer. El resultado es una estructura de colágeno regular, muy parecida a la
piel normal, y por tanto, alejada del habitual aspecto de las cicatrices.
El "spray" está hecho con etanol y un polímero biodegradable como el ácido poliláctico,
mezclados en un contenedor superconductor y a los cuales se les aplica después una
carga eléctrica. Dado que la herida posee un potencial eléctrico muy inferior al polímero,
la solución resulta atraída por la superficie de la piel, formando pequeñas fibras de no
más de 5 micrómetros de diámetro. Como las fibras tienen la misma carga, se repelen
unas a otras, adoptando un espaciado regular.
El aplicador tiene la forma de un bolígrafo de 15 cm de largo y 2,5 cm de diámetro. Su
uso es apto incluso para primeros auxilios. (New Scientist)
Anticuerpos a la carta
Científicos de la University of Texas han desarrollado un método para sintetizar
anticuerpos.
Los anticuerpos son fundamentales para los seres vivos evolucionados ya que forman
parte del sistema inmunológico. Reconocen y se unen a sustancias invasoras (antígenos),
ayudando a luchar contra las enfermedades.
Los anticuerpos son proteínas muy importantes en el campo biomédico, pero son frágiles
y difíciles de producir. Es por eso que los científicos están interesados en hallar sustitutos
que suplan su función de una forma más sencilla y menos costosa.
Investigadores del Southwestern Medical Center de la University of Texas han realizado
un interesante paso en este sentido, ya que han descubierto un método que permitirá
producir y sintetizar sustitutos de los anticuerpos naturales para su aplicación en áreas
diversas como la diagnosis médica, la biotecnología y la investigación biomédica.
Su método sirve para encontrar y seleccionar péptidos que imitan a los anticuerpos. Se
trata de pequeñas moléculas que no son proteínas pero que pueden reconocer un tipo
particular de aminoácidos. Su producción es mucho más rápida y sencilla que los
anticuerpos, ya que éstos son grandes y deben proceder de animales. Esta misma línea de
investigación permitirá fabricar sensores para detectar agentes de guerra biológica.
Los péptidos ya se emplean en ciertos trabajos biomédicos para detectar o purificar
determinadas proteínas. Pero los péptidos no se unen tan fuertemente como los
anticuerpos, de manera que el próximo paso a seguir será incrementar su afinidad.
Información adicional en:
http://irweb.swmed.edu/newspub/newsdetl.asp?story_id=204
652
El Hijo de El Cronopio No. 62
Cerebro y vejez
La vejez afecta a la química del cerebro, lo cual explica en parte el deterioro
cognoscitivo que experimentan algunas personas mayores.
Con contadas excepciones, la vejez afecta de forma progresiva a la capacidad
desarrollada por el cerebro. Las razones para ello no son muy conocidas, pero poco a
poco vamos encontrando nuevas pistas que completan el cuadro.
Investigadores del Brookhaven National Laboratory, la State University of New York y la
University of Pennsylvania School of Medicine han descubierto que la vejez viene unida
a determinados cambios químicos en el cerebro, los cuales podrían influir en el deterioro
de la capacidad cognoscitiva.
Con la edad, el cerebro sufre una disminución de la actividad de la dopamina, un
compuesto químico relacionado con el placer. Esto hace avanzar más despacio el
metabolismo en regiones del cerebro que se consideran relacionadas con la mencionada
capacidad cognoscitiva.
En concreto, la edad se encuentra unida a un declive significativo de los receptores de
dopamina D2, moléculas que transmiten señales asociadas a la sensación del placer.
Aproximadamente un 6 por ciento de estos receptores se pierden por cada década de
vida, entre los 20 y los 80 años. Cuando ello ocurre, disminuye el metabolismo de la
glucosa en las regiones frontales del cerebro y en otras importantes para el trabajo
intelectual, traduciéndose a su vez en un descenso de la actividad cerebral. La parte
frontal se ocupa de funciones tales como la resolución de problemas, la habilidad de
pensar de forma abstracta, o la capacidad de realizar varias tareas simultáneamente.
También resultan afectados el control de los impulsos, el humor o la atención.
La relación entre metabolismo y disponibilidad de dopamina se hace patente incluso si
no tenemos en cuenta la edad de los individuos. De hecho, hay personas jóvenes que
tienen menos dopamina que otras mucho mayores.
Las investigaciones se han realizado mediante una técnica de imágenes llamada
tomografía de emisión de positrones. Se examinaron 37 voluntarios de 24 a 86 años de
edad, todos saludables y bajo ningún tipo de medicación.
Información adicional en:
http://www.bnl.gov/
Noticias del Espacio
La Luna en el horizonte
¿Se ha parado a pensar por qué la Luna se ve más grande cuando se encuentra cerca del
horizonte?
Desde siempre, cuando hemos visto a la Luna salir o "ponerse" tras el horizonte, nos ha
dado la impresión de que su tamaño es mayor que cuando se encuentra mucho más
arriba, cerca del cenit. Por supuesto, su diámetro aparente y su distancia respecto a
nosotros son iguales durante el corto período de un único día, de modo que nos
encontramos frente a una ilusión óptica.
653
El Hijo de El Cronopio No. 62
Dos científicos americanos, padre e hijo, creen haber encontrado la explicación a este
fenómeno. Según los doctores Lloyd Kaufman y James H. Kaufman, ello ocurre porque
el cerebro interpreta que la Luna sobre el horizonte se encuentra más lejos de nosotros
que cuando está más elevada en el cielo. Es pues la distancia aparente y no su distancia
real, lo que determina su tamaño relativo.
La explicación es un resultado importante porque ayuda a los científicos a entender cómo
nuestro cerebro percibe el espacio y la distancia. Kaufman padre propuso su teoría en
1960, pero hasta ahora no había aportado las pruebas necesarias. Según esta teoría, el
cerebro "calcula" las distancias respecto a los objetos que contemplamos. En el caso de
la Luna, cuando ésta se halla cerca del horizonte, el terreno, en un plano más cercano,
afecta al cálculo, sugiriendo que nuestro satélite se encuentra a una distancia enorme. Por
el contrario, cuando la Luna se halla elevada en el cielo, disponemos de menor cantidad
de pistas sobre su distancia real. Como resultado de ello, el tamaño que percibimos para
la Luna lejana es dos veces mayor que el de la Luna cuya distancia no sabemos definir
bien.
Un efecto similar es descrito bajo la ilusión de perspectiva de Ponzo, la cual data de
1913.
La familia Kaufman diseñó dos experimentos para medir directamente la distancia de la
Luna que percibimos. Ambos utilizaron un aparato construido por IBM Research para
proyectar imágenes estereoscópicas de lunas artificiales. Un grupo de voluntarios
participó en las posteriores mediciones.
Los humanos somos capaces de percibir el tamaño de un objeto sea cual sea su distancia.
Lo hacemos gracias a que nuestro cerebro realiza cálculos comparativos entre objetos y
paisaje, teniendo en cuenta la realidad geométrica. Normalmente, el terreno nos da
suficientes puntos de referencia para ello, pero al parecer, distancias tan alejadas como
las de la Luna están más allá de la capacidad de nuestro cerebro, lo que provoca ilusiones
ópticas.
Información adicional en:
http://www.sandlotscience.com/Distortions/Ponzo_java.htm
http://www.research.ibm.com/news/detail/moon_illusion.html
http://www.research.ibm.com/news/detail/newmoon.html
Animación de los experimentos:
http://www.pnas.org/content/vol97/issue1/images/data/500/DC1/newmoons.gif
(Animación de la demostración estereográfica.) (Foto: PNAS)
La Galileo vuelve a visitar Europa
El primer sobrevuelo del año de la sonda Galileo se ha llevado a cabo con gran éxito. La
nave visitó la luna joviana Europa el pasado 3 de enero, confirmando que bajo su corteza
helada puede haber un océano líquido de agua.
La misión oficial de la sonda Galileo debía finalizar el 31 de enero, pero su buen estado
de salud y los recursos energéticos que aún transporta a bordo permiten prolongarla
algunos meses más, quizá años.
El último sobrevuelo previsto para su actual periplo se realizó el 3 de enero. La nave
interplanetaria, en órbita alrededor de Júpiter, pasó a 351 km de la luna Europa,
654
El Hijo de El Cronopio No. 62
realizando observaciones de campos magnéticos y partículas cargadas. Dichas
observaciones fueron diseñadas para detectar interferencias magnéticas que podrían ser
debidas a corrientes eléctricas presentes en el océano líquido que se cree se encuentra
bajo su corteza helada. También se efectuaron observaciones lejanas de Amaltea, Thebe,
Io y Metis.
La radiación ambiental provocó falsas indicaciones de reinicializaciones del ordenador
de la sonda, pero éstas fueron convenientemente afrontadas por el software de a bordo.
Desde diciembre de 1995, la Galileo ha soportado dosis que duplican la radiación para la
cual fue diseñada, pero a pesar de todo sigue activa. Visto su comportamiento, y aunque
como hemos dicho su misión debía finalizar tras este último sobrevuelo, la dirección de
la NASA ha aprobado en principio una prolongación de sus actividades.
La nueva Galileo Millenium Mission, cuyo presupuesto e itinerario no han sido decididos
aún, podría contemplar un sobrevuelo de Io el 22 de febrero y dos de Ganimedes (30 de
mayo, 28 de diciembre). La nave realizará asimismo observaciones de Júpiter
coincidiendo con la llegada (en ruta hacia Saturno) de la sonda hermana Cassini, lo cual
ayudará a calibrar sus instrumentos.
La NASA quiere que la Galileo aporte información mientras pueda resistir los efectos de
la radiación ambiental, ya que así se compensa en parte la pérdida que supuso la no
apertura de su antena de alta ganancia, situación que redujo la cantidad de datos que es
posible transmitir en tiempo real.
Sin duda, su visión del sistema de Júpiter está revolucionando nuestros conocimientos
sobre este astro y sus satélites. Quizá el más espectacular descubrimiento sea el posible
océano de agua líquida que se encontraría bajo la corteza exterior de hielo de Europa.
Durante el sobrevuelo del 3 de enero, el magnetómetro de la Galileo detectó cambios de
dirección que coinciden con lo que ocurriría si el satélite tuviese una masa "subterránea"
de material conductor, como por ejemplo, un océano líquido salado.
Las imágenes del exterior mostrando grietas y desplazamientos en el hielo ya hacían
sospechar sobre la real existencia de dicho océano. Su posición estaría en algún punto
por debajo de los 100 km más exteriores de la luna.
El campo magnético de Júpiter en la posición de Europa cambia de dirección cada 5
horas y media. Este campo cambiante puede inducir corrientes eléctricas en un material
conductor, como lo sería el océano. Dichas corrientes producen a su vez un campo
magnético similar al terrestre, aunque con su polo norte magnético situado cerca del
ecuador y moviéndose constantemente (siguiendo el ciclo de 5 horas y media).
En anteriores sobrevuelos, la Galileo había identificado el polo norte magnético de
Europa, pero no puedo determinar si se movía con el paso del tiempo. Esto se ha
comprobado por fin en esta última ocasión, confirmando la teoría de la existencia del
océano. No es fácil que una superficie sólida de hielo permita que corrientes eléctricas
fluyan a través de ella, pero en cambio, cuando el hielo se funde, se convierte en un buen
conductor si contiene sales disueltas, como pasa en los océanos terrestres.
Información adicional en:
http://galileo.jpl.nasa.gov
http://www.jpl.nasa.gov/galileo
http://galileo.jpl.nasa.gov/news/release/press000110.html
Imagen: http://photojournal-b.jpl.nasa.gov//outdir/PIA02099.21238.gif
(Superficie de Europa.) (Foto: JPL)
655
El Hijo de El Cronopio No. 62
Naves espaciales a dieta
Los ingenieros luchan para idear formas de reducir el peso de los vehículos espaciales,
logrando con ello propuestas poco convencionales.
Las últimas investigaciones realizadas en el Air Force Research Laboratory apuestan por
nuevos métodos que permitan disminuir la masa de las futuras naves espaciales. Sólo así
bajará el coste del acceso al espacio y podremos ir más lejos.
Una de las propuestas de este laboratorio se centra en el desarrollo de estructuras
inflables. El primer prototipo tiene el aspecto de un platillo volante transparente, o quizá
el de una gigantesca lentilla.
Está hecho con un plástico especial y podría reemplazar a algunos elementos como
antenas, sistemas ópticos, etc., que por su peso y dimensiones encarecen mucho su envío
al espacio. Las estructuras inflables pueden tener el mismo uso, pesan mucho menos y
pueden ser lanzadas a bordo de un cohete ocupando poco volumen. Una vez en órbita, un
dispositivo de hinchado especial, cargado de un gas inerte, les dará su forma definitiva.
La solución no es desdeñable, puesto que enviar un kilogramo al espacio cuesta unos
5.000 dólares. Además, las estructuras inflables, dado su pequeño volumen inicial,
pueden dar lugar a gigantescos elementos una vez en órbita.
Los satélites espía necesitan de antenas y sistemas ópticos lo más grandes posible, ya que
ello implica una resolución mucho mayor y una capacidad superior a la hora de descubrir
objetos cada vez más pequeños sobre la superficie de la Tierra. Es evidente, pues, que las
estructuras inflables tienen un alto interés militar. Estas últimas son, además, 10 veces
más baratas y 10 veces más ligeras que las convencionales.
Noticias de la Facultad
Exámenes profesionales
Un total de 19 exámenes profesionales fueron presentados por alumnos de la Facultad en
el periodo comprendido del 10 de diciembre de 1999 al 19 de enero del 2000, 15 de ellos
en la modalidad de realización de tesis, a continuación los datos de los exámenes
referidos.
Roberto Antonio de Lira Hueso
Presentó su examen profesional con la presentación de la tesis Estructura y propiedades
eléctricas de hexaferritas de bario coprecipitadas con adición de SiO2 , el 10 de
diciembre de 1999 para obtener el título de Licenciado en Electrónica Instrumentista. El
trabajo de tesis fue asesorado por Manuel Mirabal García (IF-UASLP), Salvador
Palomares Sánchez (IF-UASLP) y A. Huanosta (IIM-UNAM).
Arturo Delgadillo Vázquez
Presentó su examen profesional con la presentación de la tesis Ajuste de curvas
experimentales mediante descomposición de gaussianas , el 13 de diciembre de 1999
para obtener el título de Matemático. El trabajo de tesis fue asesorado por Facundo Ruiz
(IF-UASLP) y Gerardo Ortega Zarzosa (FC-UASLP).
656
El Hijo de El Cronopio No. 62
Miguel A. Rivera Rubio
Presentó su examen profesional con la presentación de la tesis Mantenimiento correctivo
y preventivo de lectores láser, el 10 de diciembre de 1999 para obtener el título de
Ingeniero Electrónico. El trabajo de tesis fue asesorado por Mario Llanas Arana (FCUASLP).
Hugo O. López López
Presentó su examen profesional con la presentación de la tesis Mantenimiento correctivo
y preventivo de lectores láser, el 10 de diciembre de 1999 para obtener el título de
Ingeniero Electrónico. El trabajo de tesis fue asesorado por Mario Llanas Arana (FCUASLP).
Héctor G. Covarrubias Zapata
Presentó su examen profesional con la presentación de la tesis Estudio del inversor
monofásico de media onda, el 14 de diciembre de 1999 para obtener el título de
Licenciado en Electrónica en Sistemas Digitales. El trabajo de tesis fue asesorado por
Benito Pineda Reyes (FC-UASLP) y Isaac Campos Cantón (FC-UASLP).
Mireyda Salinas Carrizales
Presentó su examen profesional con la presentación de la tesis Características y
aplicaciones de los amplificadores de instrumentación, el 14 de diciembre de 1999 para
obtener el título de Licenciado en Electrónica en Sistemas Digitales. El trabajo de tesis
fue asesorado por Gonzalo Hernández Jiménez (IF-UASLP).
Adriana Martínez Guerrero
Presentó su examen profesional con la presentación de la tesis Diseño y construcción de
un sensor de corriente alterna, el 14 de diciembre de 1999 para obtener el título de
Licenciado en Electrónica en Sistemas Digitales. El trabajo de tesis fue asesorado por
Gonzalo Hernández Jiménez (IF-UASLP).
José Alfredo Camarillo Hernández
Presentó su examen profesional con la presentación de la tesis Diseño y construcción de
un sensor de corriente directa, el 14 de diciembre de 1999 para obtener el título de
Ingeniero Electrónico. El trabajo de tesis fue asesorado por Gonzalo Hernández Jiménez
(IF-UASLP).
Juan José del Castillo Rojas
Presentó su examen profesional con la presentación de la tesis Innovaciones tecnológicas
para motores monofásicos de C.A., el 15 de diciembre de 1999 para obtener el título de
Licenciado en Electrónica Instrumentista. El trabajo de tesis fue asesorado por Benito
Pineda Reyes (FC-UASLP) y Isaac Campos Cantón (FC-UASLP).
Héctor Luna Mejía
Presentó su examen profesional con la presentación de la tesis Innovaciones tecnológicas
para motores trifásicos de C.A., el 15 de diciembre de 1999 para obtener el título de
657
El Hijo de El Cronopio No. 62
Licenciado en Electrónica Instrumentista. El trabajo de tesis fue asesorado por Benito
Pineda Reyes (FC-UASLP) y Isaac Campos Cantón (FC-UASLP).
Fernando Magdaleno Gil
Presentó su examen profesional con la presentación de la tesis Introducción a la visión
digital, el 16 de diciembre de 1999 para obtener el título de Licenciado en Electrónica en
Sistemas Digitales. El trabajo de tesis fue asesorado por J. Jesús Acosta Elías (FCUASLP).
Angélica Rosales López
Presentó su examen profesional con la presentación de la tesis Sistema Netware, el 16 de
diciembre de 1999 para obtener el título de Licenciado en Electrónica en Sistemas
Digitales. El trabajo de tesis fue asesorado por Yolanda Luna Rivera (FC-UASLP).
Carlos Manuel Morales Vázquez
Presentó su examen profesional con la presentación de la tesis Programación de CGI, el
16 de diciembre de 1999 para obtener el título de Ingeniero Electrónico. El trabajo de
tesis fue asesorado por J. Jesús Acosta Elías (FC-UASLP).
Eduardo Tenorio López
Presentó su examen profesional con la presentación de la tesis Estudio de la informática
para el nivel medio superior, el 16 de diciembre de 1999 para obtener el título de
Licenciado en Electrónica en Sistemas Digitales. El trabajo de tesis fue asesorado por
José Gustavo Pérez (FC-UASLP).
José María Agundis Flores
Presentó su examen profesional con la presentación de la tesis Einstalación de una
estación terrena solo receptora de televisión de la red EDUSAT, el 16 de diciembre de
1999 para obtener el título de Licenciado en Electrónica en Comunicaciones. El trabajo
de tesis fue asesorado por José Gustavo Pérez (FC-UASLP).
Edgar Armando Cerda Méndez
Obtuvo el título profesional de Ingeniero Físico el 7 de enero del 2000, mediante la
modalidad de obtención de promedio. El promedio obtenido por Cerda Méndez en toda
su carrera fue de 9.58.
Francisco Alfonso Alba Cadena
Obtuvo el título profesional de Ingeniero Electrónico el 7 de enero del 2000, mediante la
modalidad de obtención de promedio. El promedio obtenido por Alba Cadena en toda su
carrera fue de 9.77.
José Fernando Medina Jaramillo
Obtuvo el título profesional de Ingeniero Electrónico el 18 de enero del 2000, mediante
la modalidad de obtención de promedio. El promedio obtenido por Medina Jaramillo en
toda su carrera fue de 9.27.
658
El Hijo de El Cronopio No. 62
Aldo Mirabal Esparza
Obtuvo su título profesional de Ingeniero Electrónico el 19 de enero del 2000, mediante
la alternativa de realización de un semestre de maestría con obtención de un promedio
superior al ocho. Mirabal Esparza realizó su semestre de maestría en el INAOE de
Puebla.
La Ciencia desde el Macuiltépetl/ Perfil ideológico de la tecnocracia
Por Manuel Martínez Morales
En las últimas semanas se levantó algo de polvo debido a varias declaraciones en torno al
surgimiento de cierta “nueva clase política”. El presente artículo es la reproducción de
otro que con igual título publiqué en los números 3-4 de la revista Márgenes de la
facultad de sociología de la Universidad Veracruzana. Por considerarlo de interés y
actualidad procedo a su presentación en Diario de Xalapa. He aquí el texto:
El sugimiento de la visión tecnocrática de la sociedad corresponde a un
momento determinado del desarrollo social. Coincide con un
crecimiento acelerado de un país, fincado fundamentalmente en la
aplicación de tecnología avanzada a diversas ramas de la producción y
a la organización del trabajo. Este crecimiento, en el marco de una
sociedad capitalista, conduce a una agudización de los conflictos entre
clases sociales. La modernización –en el sentido antes expuestocuando tiene como objetivo primordial incrementar la tasa de
acumulación de capital, conlleva al detrimento generalizado de las
condiciones de vida de los asalariados. Este proceso conjunto de
tecnificación en la producción y agudización de los conflictos sociales
implica una complejidad creciente en el manejo de la economía y el
gobierno del país; hace necesario, entonces, buscar alguna nueva forma
de ejercer la dominación, pues los moldes usuales son ya insuficientes.
Así, el político tradicional, práctico, es desplazado por el administrador
de alta escuela, el experto en planificación, quien sin embargo
comparte con aquél la misma ambición de poder. Deja de ser
determinante la experiencia adquirida en puestos de elección popular;
cuenta ahora más tener formación “teórica” sobre el Estado, la
economía, la planificación. Poco a poco va surgiendo el grupo de los
tenócratas para hacerse cargo del mando del país.
El surgimiento de esta nueva “clase” gobernante se acompaña de una cierta concepción
sobre el funcionamiento social, de cierta ideología propia que le ayuda a consolidarse
como grupo privilegiado, y a la vez el sirve de justificación de las medidas que toma para
lograr los objetivos buscados.
Umberto Cerroni (Técnica y libertad, Fontanella, 1973) nos proporciona un excelente
acercamiento a la caracterización de la tecnocracia. Al analizar diversas actitudes frente
al proceso de desarrollo técnico-científico y los correspondientes problemas éticosociales, resume así la visión tecnocrática de la sociedad:
659
El Hijo de El Cronopio No. 62
En la actualidad el predominio de la ciencia y la técnica ha llegado a
ser tal que invoca la eliminación de todos los controles que no sean de
naturaleza técnico-científica y particularmente del control político que
es propio de la democracia [...] En el supuesto de que se aceptase
reducir la problemática social moderna a mera problemática técnicocientífica habría que deducir que el problema central de nuestra época
consiste en una pura cuestión de incremento cuantitativo de la riqueza
[...] Sin embargo, la realidad demuestra que el aumento de la riqueza y
del bienestar económico global no representa io ipso un aumento del
bienestar humano: no se da ni bienestar económico para todos ni
satisfacción de las aspiraciones del hombre.
A lo anterior hay que agregar que la ideología tecnocrática se asienta en última instancia
en una concepción mecanicista y cientificista del mundo, según la cual toda realidad
física, biológica, humana o social, se expresa o puede llegar a expresarse como un
sistema de unidades elementales y bajo formas matematizables; concepción que oscurece
de manera absoluta la realidad de las clases sociales, sus conflictos, la base de sus
contradicciones y con ello reduce la mayoría de los problemas sociales a meros
problemas de eficacia.
El énfasis en objetivos parciales y vagamente definidos encubre la ausencia de objetivos
sociales globales y precisos. La preocupación por las estadísticas, aunque sólo algunas,
sustituye al estudio de la realidad social. El eclecticismo pragmático es el prototipo de
los métodos empleados por la tecnocracia; se toma de todo un poco, desdeñando la
profundización teórica y conceptual con tal de obtener alguna solución. Ciertas ciencias
son suplantadas por técnicas ajenas, por ejemplo, la ingeniería de sistemas sustituye a las
teorías pedagógicas, la cibernética a la sociología, la economía política es desplazada por
la econometría, etcétera.
La objetividad del tecnócrata se basa en la aplicación sui generis del método matemático
a cualquier problema: identificar las variables dependientes e independientes, formular
matemáticamente las funciones que la relacionan, usar la investigación de operaciones, la
estadística, el cálculo, y lo que no sea medible se excluye.
No existen, en el discurso tecnocrático, explotados y explotadores, sino factores de la
producción; los mecanismos de coerción y sujeción de los trabajadores son medidas para
lograr el equilibrio de dichos factores. El eufemismo y el sofisma sustituyen a la
auténtica reflexión científica. Como en toda ideología enajenante se pierde la visión de la
totalidad; lo histórico es cercenado de lo lógico, la filosofía es degradada a un simple
ejercicio especulativo, la especialización técnica es sobrevaluada respecto a la
concentización social.
Hasta aquí, gran parte de lo expuesto corresponde a la descripción de rasgos generales de
aspectos diversos de la ideología capitalista; mas en el actual ámbito político no se
reducen a un nuevo ropaje verbal de la ideología de la dominación, sino que se hacen
acompañar de medidas prácticas en diversos campos del quehacer social, la puesta en
marcha de ambiciosos programas en los ámbitos de la educación, la agricultura, la
producción industrial, la legislación política; acciones que eventualmente desembocarán
en una acentuación de la pobreza de las mayorías y una mayor regulación de la vida
social, en fin, en una nueva fase, más dura aún, de la tiranía del capital sobre el trabajo.
17 de febrero de 1984
660
El Hijo de El Cronopio No. 62
El Cabuche (crónicas de la Facultad de Ciencias)/
Cambalache, siglo XX
Aquél que nunca haya armado un tango, que tire la primera nota; por que es de humanos
el escándalo y más perversa es la simulación. Los tangos, los benditos tangos, llevados a
su plenitud por Carlos Gardel, representan toda una gama de vicisitudes, nostalgias,
engaños, desengaños, enfados, ... en fin. Acompañados de bandoneón, piano y guitarra,
la vida es un tango. Y hablando de tangos, Santos Dicépolo, que al menos sé es
argentino, escribió Cambalache. Viene a cuento, pues en esta transición de siglo y
milenio, que estamos viviendo no se vislumbra un cambio para bien en nuestra sociedad.
El año dos mil, año de esta transición, siempre se veía como la esperanza y la referencia
a un futuro mejor, una transición a una sociedad mexicana mejor; viendo a nuestro
alrededor, en pleno año dos mil, nada es nuevo bajo el sol. Nuestra sociedad dista mucho
del modelo de sociedad que aspirábamos para el tercer milenio. Los políticos y doctores
cuentachiles que rigen nuestro destino, así lo demuestran. Coincido con Germán Dehesa,
que en su columna del Reforma La Gaceta del Ángel, critica las menciones de que el dos
mil llegó acompañado de una nueva sociedad con un mejor desarrollo y un futuro
promisorio. Por lo pronto basta mencionar el aumento a la tortilla, parte de la dieta básica
del mexicano, al menos del mexicano pobre; cada vez serán menos familias las que
puedan hoy disfrutar de un taco. Qué pasará con la reacción de la clase política
mexicana, lo anticipa el mismo Dehesa “nuestros macrochamanes, con la sensibilidad
social que todos les reconocemos, han decidido aumentar el precio de la tortilla. Supongo
que aparecerán en la televisión y nos ofrecerán un ramillete de explicaciones a cual más
plausibles, a cual más ininteligibles de los patrióticos motivos que tuvieron para proceder
así. Me temo que no nos van a explicar nada de la siniestra historia de Conasupo, los
fraudes, las trapacerías, los inexplicables apoyos a Maseca y las bestiales cantidades de
dinero nuestro que en todos estos oscuros contubernios se dilapidaron. Nosotros estamos
para callar y obedecer”. Y a seguir con el tango que es nuestra vida, con el jugoso
aumento al salario mínimo (10%) que a decir de los que dicen que saben, es más que
suficiente y ayuda a mantener al país en la estabilidad económica que requiere (aunque
no alcance para comprar un kilo de tortillas para el pipirín). Estos económicos casos nos
anticipan que no hay nada nuevo bajo el sol, seguiremos jodidos por obra y gracia de
farsantes, pseudopolíticos, vividores del presupuesto del pueblo mexicano, presupuesto
con el que ellos ¡vaya que si pueden comer! Este ejemplo, representa una medida de toda
la compleja situación social, entre cuyos parámetros se encuentra la educación y por lo
tanto la situación de la Escuela-Facultad en toda esta problemática, pues cumpliendo
satisfactoriamente con su cometido (creo que tiene alguno) participará con su granito de
arena en el ansiado desarrollo de nuestra sociedad. La reflexión del papel de la EscuelaFacultad nos sigue correspondiendo y realizando nuestro trabajo negaremos lo que en
nuestro siglo XX empeñamos en demostrar: que es lo mismo el que labora noche día
como un buey que el que vive de los otros o está fuera de la ley. Las mejoras
administrativas y de servicio de la Facultad no son suficientes, sigue postergado el
desarrollo académico al que siempre hemos aspirado, llegó el dos mil y en este terreno,
tampoco hay nada nuevo bajo el sol. Por lo pronto debemos seguir con nuestro empeño
de lograr el ansiado desarrollo. Hay que seguir trabajando con ahínco, aunque sigan
existiendo, quienes no lo quieren y evitan que los demás trabajen. La pregunta queda en
661
El Hijo de El Cronopio No. 62
el aire ¿podremos en un futuro cambiar el tango hecho canción, de Santos Dicépolo? No
lo pueden oír, tendrán que imaginarlo (o tocarlo virtualmente) acompañado
magistralmente por bandoneón, piano y guitarra este tango de la vida, que interpretado
por Eugenia León, adquiere dimensiones superiores.
Haciendo una excepción, he aquí toda la letra, y
¡Hasta el próximo tango!
Que el mundo fue y será una porquería, ya lo
sé, en el quinientos seis y en el dos mil
también, que siempre ha habido chorros
maquiavelos y estafaos, contentos y
amargaos, valores y duble; pero que el siglo
veinte es un despliegue de maldad insolente,
ya no hay quien lo niegue, vivimos revolcados
en un merengue y en un mismo lodo, todos
manoseaos.
Hoy resulta que es lo mismo ser derecho que
traidor, ignorante, sabio, chorro, generoso,
estafador; todo es igual, nada es mejor, lo
mismo un burro que un gran profesor, no hay
aplazaos ni escalafón, los inmorales nos han
igualao.
Si uno vive en la impostura y otro roba en su
ambición, da lo mismo que si es cura,
colchonero, rey de bastos, caradura o polizón.
Qué falta de respeto, qué atropello a la razón,
cualquiera es un señor, cualquiera es un
ladrón mezclao con Stavinsky va Don Bosco
y la Mignon, Don Chicho y Napoleón,
Carnera y San Martín, igual que en la vidriera
irrespetuosa de los cambalaches se ha mezclao
la vida y herida por un sable sin remaches ves
llorar la Biblia contra un calefón.
Siglo veinte cambalache problemático y
febril, el que no llora no mama y el que no
afana es un gil, dale nomás, dale que va, que
allá en el horno nos vamos a encontrar.
No pienses más, sentate a un lao que a nadie
importa si naciste honrao, es lo mismo el que
labora noche y día como un buey que el que
vive de los otros, que el que mata, que el que
cura o está fuera de la ley.
662
Boletín
El Hijo de El Cronopio
Facultad de Ciencias
Universidad Autónoma de San Luis Potosí
No.63, 31 de enero de 2000
Boletín de información científica y
tecnológica de la Facultad de Ciencias
Publicación semanal
Edición y textos
Fís. J. Refugio Martínez Mendoza
Cualquier información, artículo o
anuncio deberá enviarse al editor
e-mail: flash@galia.fc.uaslp.mx
Este boletín y números anteriores,
pueden consultarse por Internet en la
página de la UASLP:
http://phobos.dtc.uaslp.mx/publi.html
El Cronopio No. 10 en
preparación
En estos momentos se prepara la
edición del número diez de la revista
de divulgación, educación y cultura
científica El Cronopio. El número
tendrá un énfasis en artículos de
enseñanza, lo que no obsta para
aceptar contribuciones de divulgación
y cultura científica. Los interesados en
participar con artículos favor de
hacerlos llegar lo más pronto posible,
para su revisión y posible aceptación,
a fin de terminar de diseñar el
contenido del mismo.
Interesados, favor de enviar su
contribución por correo electrónico a
la siguiente dirección:
flash@galia.fc.uaslp.mx
Facultad de Ciencias, UASLP
Zona Universitaria
Tel. (4) 8 26 23 16 al 20
Fax (4) 8 26 23 18
El Hijo de El Cronopio No. 63
Noticias de la Ciencia y la Tecnología
Los precursores de las moléculas orgánicas
La síntesis química de los elementos más básicos que dan forma a la vida podría estar
produciéndose cerca de las estrellas.
El origen de la vida es un tema fascinante. Estamos aún muy lejos de comprender
completamente cómo ocurrió, pero los científicos tienen cada vez más pistas sobre ello.
Por ejemplo, las moléculas orgánicas complejas, que no pueden considerarse de ninguna
manera entes "vivos" al examinarlos de forma individual, han sido identificadas a
menudo como los más básicos "ladrillos" del edificio que es la vida. Averiguar cómo y
dónde surgen ayudará a avanzar en nuestra búsqueda de una teoría razonable sobre el
origen de esta última.
Si bien la vida es un fenómeno complejo y que precisó seguramente de la convergencia
de una gran cantidad de circunstancias ambientales para hacerse realidad, no ocurre lo
mismo con las moléculas orgánicas. Recientes investigaciones realizadas con el
telescopio espacial europeo ISO, un observatorio infrarrojo orbital, han puesto de
manifiesto que dichas moléculas pueden ser sintetizadas químicamente en medios
estelares.
Sun Kwok y Kevin Wolk, de la University of Calgary, y Bruce Hrivnak, de la
Valparaiso University, han analizado la composición de los envoltorios que rodean a las
estrellas viejas. Para ello han elegido tres tipos de soles que representan diferentes
estados de evolución. En concreto, las gigantes rojas muy desarrolladas, las nebulosas
protoplanetarias, y las nebulosas planetarias.
El análisis de sus espectros infrarrojos, que permite identificar los diferentes tipos de
moléculas que se encuentran en ellas, ha revelado que presentan procesos químicos de
síntesis de compuestos orgánicos en marcha. Son suficientes unos pocos miles de años
para que se formen grandes moléculas orgánicas complejas. Por ejemplo, el acetileno que
puede ser detectado en el envoltorio exterior de las estrellas gigantes rojas sirve como
punto de partida para la aparición de benceno e hidrocarburos aromáticos más complejos
(como los presentes en una nebulosa planetaria).
Aún no sabemos cómo se pueden llevar a cabo reacciones químicas tan eficientes en un
medio ambiente de tan baja densidad, pero el descubrimiento permite asegurar que las
estrellas son verdaderas fábricas de este tipo de moléculas.
Esto es interesante, porque podemos imaginar que algunas de ellas puedan acabar
alcanzando las superficies de planetas cercanos. Se sospecha incluso que las estrellas
pueden sintetizar aminoácidos, otro aspecto fundamental para el desarrollo de la vida.
Esto último quizá podrá confirmarse en el 2007, cuando se lleve a cabo el lanzamiento
del nuevo telescopio espacial infrarrojo FIRST.
Información adicional en:
http://sci.esa.int/newsitem.cfm?TypeID=1&ContentID=8891&Storytype=18
http://sci.esa.int/newsitem.cfm?TypeID=1&ContentID=8831&Storytype=18
Imagen:
http://www.iso.vilspa.esa.es/images/cam/helix_lw2c.gif
(Nebulosa planetaria de la Hélice, vista por el satélite ISO.) (Foto: ESA)
664
El Hijo de El Cronopio No. 63
No estamos solos, ¿o si?
Dos científicos de la University of Washington argumentan su escepticismo sobre la
posibilidad de que haya otras civilizaciones avanzadas en el Universo.
El paleontólogo Peter Ward y el astrónomo Donald Brownlee, a diferencia de otros
colegas del mundo científico, no son tan optimistas a la hora de valorar las posibilidades
de que existan otros seres en el Universo, lo que reduciría a la Tierra y sus habitantes a
un ente único y aún más valioso.
Basan sus argumentos en la gran cantidad de condiciones especiales que parecen haberse
dado en la Tierra y que al mismo tiempo han resultado ser esenciales para el desarrollo
de la vida. Condiciones en cierta manera casuales y que, al no existir y coincidir en otros
lugares, dificultan una repetición del mismo proceso que nos ha traído hasta aquí.
Los dos científicos no niegan que pueda haber vida en otros planetas (quizá distinta a la
que conocemos), pero sí que afirman que la evolución necesita un período muy largo
para dar paso a la aparición de seres complejos como los animales o nosotros mismos,
algo que quizá muy pocos planetas pueden llegar a experimentar.
Especialmente crucial es mantener el equilibrio durante mucho tiempo en ingredientes
tales como la temperatura o la disponibilidad de agua líquida. Si bien los microbios
pueden vivir en circunstancias extremas, esto no es cierto para seres más evolucionados
como las plantas y los animales, los cuales requieren una gran estabilidad en las
condiciones ambientales.
Nuestros estudios indican que durante el 90 por ciento de la edad de nuestro planeta, la
vida se circunscribió al fondo de los océanos. Por tanto, tuvo muy pocas oportunidades
de prosperar en dirección a la complejidad de la que ahora disfruta.
Algunos factores que hay que tener en cuenta para justificar la aparición y el desarrollo
de la vida son: la distancia adecuada entre el Sol y la Tierra, que permite la
disponibilidad de un hábitat apropiado para la vida compleja y asegura que el agua se
mantenga líquida (y no como vapor o hielo); la Tierra posee una masa di eal para retener
una atmósfera y los océanos en su forma actual, así como un sistema de placas tectónicas
que actúan como una especie de termostato atmosférico, dando lugar a masas sólidas y a
la mejora de la diversidad biótica; nuestro planeta disfruta asimismo de la presencia
cercana de un gran planeta como Júpiter, ni muy próximo ni muy lejano, cuya gravedad
ayuda a reducir el riesgo de llegada de cometas y asteroides que puedan impactar contra
él; la Tierra posee además una órbita estable, no perturbada por planetas mucho mayores,
y una Luna grande a la distancia precisa para estabilizar su inclinación orbital,
asegurando que las fluctuaciones climáticas estacionales no sean demasiado severas; y
por último, dispone de suficiente carbono como para facilitar el desarrollo de la vida,
pero no demasiado como para provocar una condición de "efecto invernadero".
La propia posición del Sistema Solar en la galaxia Vía Láctea es clave. Muy al borde de
su disco, las estrellas carecen de los metales útiles para la formación de planetas, y muy
cerca del núcleo galáctico se desarrollan procesos energéticos demasiado peligrosos para
la vida.
Por supuesto, el "paraíso" en el que nos encontramos no durará siempre. Un día, el Sol se
hará viejo, crecerá y la Tierra verá evaporados sus océanos. Todo rastro de vida habrá
desaparecido.
665
El Hijo de El Cronopio No. 63
La nueva Atlantis
Nueva Orleans podría desaparecer bajo las aguas del mar hacia el año 2100.
La ciudad norteamericana de Nueva Orleans se encuentra en el camino que llevará a su
total destrucción. Dentro de un siglo, la combinación del ritmo de incremento del nivel
del mar previsto, la pérdida de tierra firme y el proceso natural de hundimiento del suelo,
convertirán a esta ciudad en una ruina submarina.
El Delta del río Mississippi y la evolución de las costas conspiran para que ello ocurra.
Chip Groat, Director del United States Geological Survey (USGS), Shea Penland (de la
University of New Orleans) y Denise Reed, han dedicado buena parte de sus carreras a
averiguar qué está pasando. Y lo que han encontrado es que la costa de Nueva Orleans
está cercana al colapso.
Según los cálculos, la ciudad se hunde 1 metro cada siglo, ocho veces más rápido que el
ritmo medio mundial. De hecho, la ciudad se encuentra en estos momentos a unos 2,5
metros por debajo del nivel del mar, casi 4 metros en algunos puntos. Se espera que
algunas de las islas próximas desaparezcan en el 2050.
A pesar de todo, Penland, Reed y otros investigadores creen que el ecosistema costero,
aunque dañado, se encuentra lo bastante ni tacto como para que un urgente esfuerzo de
restauración pueda llegar a tener éxito. Esta iniciativa costaría unos 14.000 millones de
dólares hasta el 2050, el precio de evitar que Nueva Orleans se convierta en una moderna
Atlantis.
La estrategia incluiría restaurar las islas que actúan como barrera, estudiar la bioquímica
de los canales, medir y detectar la estratificación del agua, etc. Uno de los puntos más
importantes sería el adiestrar a la próxima generación de estudiantes, los cuales deberán
afrontar el futuro de su ciudad.
Información adicional en: http://www.uno.edu/
A la captura de meteoritos
La búsqueda de meteoritos en lugares remotos como la Antártida se agilizará mucho
gracias a la participación de robots autónomos especiales.
La Antártida es uno de los puntos en los que es más fácil descubrir meteoritos. El
contraste con el suelo helado y blanco los hace mucho más visibles.
Pero la zona es, naturalmente, inhóspita, de manera que investigadores de la Carnegie
Mellon han preparado un robot llamado Nomad que puede realizar esta tarea de
búsqueda y recolección de forma automática.
El Nomad tiene cuatro ruedas y un brazo manipulador. Con él puede localizar, mover y
clasificar los fragmentos meteóricos, que pueden ser examinados mediante instrumentos
científicos. De hecho, el Nomad es un prototipo de un vehículo que podría ser enviado a
Marte o a la Luna para hacer un trabajo semejante.
La expedición es el resultado de una colaboración entre el personal de la Carnegie
Mellon y el del programa Antarctic Search for Meteorites (ANSMET) de la National
Science Foundation.
El ANSMET fue organizado en 1976 y desde entonces sus miembros han recogido más
de 10.000 meteoritos durante sus expediciones anuales al continente helado.
666
El Hijo de El Cronopio No. 63
El Nomad ya está operando en una zona remota del este de la Antártida, en Elephant
Moraine, no muy lejos de la estación científica de McMurdo.
Su actividad, como ya se ha dicho, será autónoma. Se ocupará de buscar y clasificar
muestras de rocas, intentando identificar las que son meteoritos. A bordo se encuentra
una cámara de alta resolución y un sistema de espectroscopia para medir su composición.
Los instrumentos son colocados sobre las piedras gracias al brazo robótico.
La expedición, que es experimental, durará unas tres semanas. Se espera tener éxito, ya
que en la zona se han encontrado ya casi 2.000 especimenes durante las siete visitas
previas, incluyendo el primer meteorito identificado como procedente de Marte.
Si el Nomad hace bien su trabajo, y ya lo está haciendo, estará preparado para empresas
más ambiciosas, en dirección a Marte y otros cuerpos del Sistema Solar. Habrá
demostrado sus capacidades de navegación autónoma (gracias a su visión artificial) y su
alta maniobrabilidad. Un equipo de expertos sigue constantemente al vehículo para
recoger las muestras y para evitar que deba afrontar accidentes geográficos insalvables.
Información adicional en: http://www.ri.cmu.edu/~meteorobot2000
http://www.bigsignal.net
Imagen:
http://www.frc.ri.cmu.edu/projects/meteorobot/exp2k/pics_20000121/search_2.jpg
(El Nomad, con el brazo extendido.) (Foto: Carnegie Mellon)
http://www.frc.ri.cmu.edu/projects/meteorobot2000//rams2k/images/hires/eet0001-hires.jpg (Meteorito encontrado por el Nomad.) (Foto: Carnegie Mellon)
Poder eólico
El aprovechamiento de la fuerza del viento para producir energía eléctrica de forma cada
vez más óptima depende del desarrollo de tecnologías avanzadas.
El crecimiento de las energías alternativas, y en especial de la generación de electricidad
por medios eólicos, ha supuesto una reducción de los costes y una mayor inversión en
tecnología que permita obtener el máximo aprovechamiento posible de la fuerza del
viento.
Uno de los puntos clave de esta tecnología es el diseño de las palas de las turbinas. Es
necesaria una experimentación continuada para medir las cargas puntuales producidas
por las turbulencias, así como para construir mejores y más efectivas hélices.
Científicos de los Sandia National Laboratories han instalado tres turbinas de 16 metros
de diámetro sobre torres de 22 metros de alto, en Bushland, Texas, para efectuar dichos
experimentos. Su presencia posibilitará realizar mediciones continuadas sobre las hélices
(durante más de 1 año), para lograr una base de datos completa sobre su propio
comportamiento y el del viento a lo largo de todo este tiempo.
Hasta ahora, las mediciones se habían hecho durante períodos de pocas horas. Su
prolongación permitirá desarrollar herramientas de diseño y componentes que
incrementen la eficiencia de las turbinas y su habilidad de producir energía eléctrica
fiable.
Sandia ya ha probado con anterioridad turbinas de varios tipos, incluyendo unas de eje
vertical de unos 34 metros de diámetro, cuya tecnología perdió el favor de la industria
hace algunos años.
667
El Hijo de El Cronopio No. 63
Las turbinas que se emplearán para los experimentos son menores de lo habitual, pero
serán también menos costosas y más aptas para la fase científica del programa.
El proyecto LIST, como se le denomina, utilizará instrumentos automáticos que tomarán
medidas de la velocidad y la dirección del viento, y la carga que soportarán las hélices,
unas 30 veces por segundo durante al menos un año. Esta información será almacenada
en discos compactos y enviada al laboratorio de Sandia, donde será analizada.
Su principal interés se halla en la comprensión de cómo afectan las cargas sobre las
palas, sobre todo durante episodios de un aumento súbito de la velocidad del viento.
Algunos de estos episodios pueden por sí solos reducir a la mitad la vida útil de la hélice.
Otro resultado esperado es la definición de una hélice construida con materiales
avanzados, con procesos de fabricación mejores y diseños más eficientes de las palas. Se
desea así obtener turbinas más ligeras, fiables y menos caras. El objetivo es que no se
rompan ante vientos muy fuertes, y que duren entre 20 y 30 años.
Información adicional en:
http://www.sandia.gov/media/NewsRel/NR2000/wind.htm
Imagen: http://www.sandia.gov/media/NewsRel/NR2000/images/jpg/turbine.jpg
(Las tres turbinas experimentales.) (Foto Sandia N.L.)
Gran protuberancia
El satélite SOHO ha detectado una enorme protuberancia en la superficie de nuestro Sol.
Nuestra estrella se dirige con paso firme hacia su punto de máxima actividad dentro del
presente ciclo solar. No es pues de extrañar que nos esté ya ofreciendo un gran
espectáculo en forma de expulsiones de materia coronaria y protuberancias.
Una de estas últimas ha sido observada y fotografiada por el potente observatorio solar
que denominamos SOHO. El Solar and Heliospheric Observatory, propiedad de la
Agencia Espacial Europea y de la NASA, pone a nuestra disposición lo que, por otro
lado, no resulta visible a ojo desnudo.
El satélite se encuentra en un punto de libración de Lagrange (L1), a unos 1,5 millones
de kilómetros de la Tierra. Desde allí tiene una visión ininterrumpida de lo que sucede en
el Sol. Así, el 18 de enero, el vehículo detectó una espectacular prominencia cuyo
alcance máximo fue de 100 veces el diámetro de nuestro planeta.
Estas prominencias son bucles de campos magnéticos que presentan gases calientes
atrapados en su interior. Cuando los campos se convierten en inestables, provocan una
erupción y se levantan sobre la superficie del Sol durante unos minutos u horas. Si se
encuentran orientadas hacia la Tierra, pueden provocar auroras y otros tipos de actividad
geomagnética.
Las protuberancias son más frecuentes cerca del punto de máxima actividad solar,
marcado por la presencia de un mayor número de manchas solares, algo que
probablemente ocurra a partir de mediados de este año.
Información adicional en: http://spaceweather.com/; http://sohowww.nascom.nasa.gov/
http://spacescience.com/headlines/y2000/ast20jan_1.htm
Imagen: http://spaceweather.com/images/18jan00/prominence_anim.gif
(Animación de la protuberancia captada por el SOHO.) (Foto: NASA/ESA)
668
El Hijo de El Cronopio No. 63
Noticias del Espacio
♦ La estadounidense Mars Society trabaja intensamente para facilitar la futura
colonización del Planeta Rojo. El 30 de diciembre de 1999, contrató a la empresa
Infrastructure Composites International (Infracomp) para la construcción de la estructura
primaria de la llamada Mars Arctic Research Station (MARS). Dicha estructura será
fabricada mediante tecnología de fibra de vidrio en forma de panel de abeja. Estará lista,
incluyendo puertas y ventanas, en mayo de este año, tras lo cual le serán instalados los
equipos interiores, hasta que sea trasladada entre junio y julio a la isla de Devon, en el
Ártico. Se espera una campaña de ocupación de tres meses durante el verano del 2001,
en cooperación con el Haughton Mars Project de la NASA. MARS ayudará a los
científicos a desenvolverse en un ambiente de aislamiento y temperaturas no demasiado
diferente del que podríamos encontrar en Marte.
♦ La Agencia Espacial Europea prepara el lanzamiento de los cuatro satélites Cluster-II
que reemplazarán a los que se perdieron durante la primera misión del cohete Ariane-5.
El cuarto de ellos, en todo caso, tiene una historia curiosa, ya que se trata del ClusterFM5, un vehículo denominado más comúnmente como Phoenix y que ha sido construido
mediante diversos elementos sobrantes que quedaron del ensamblaje de sus cuatro
antecesores. Su coste, por tanto, ha sido inferior, añadiéndose a los otros tres Cluster-II
totalmente nuevos que también ya están listos. Durante el mes de enero, el Phoenix está
siendo sometido a las últimas pruebas pre-vuelo, incluyendo ensayos térmicos y de
vibración. Su estructura es, en realidad, la que se construyó en primer lugar (1992), y la
que, dado que no debía ser colocada en órbita, sufrió todas las pruebas para poner a
punto a sus hermanos, los cuatro Cluster-I. Los instrumentos que transporta también
debían ser unidades de reserva ya disponibles, pero como se han tenido que construir
otras nuevas para los Cluster-II, también el Phoenix está equipado con ellas. Se han
añadido algunas mejoras, como un grabador de estado sólido con más memoria, dos
nuevos ordenadores, un mejor amplificador de alta energía y un transpondedor digital.
Las pértigas extensibles se han acortado un poco para encajar dentro del carenado del
cohete Soyuz-U. Otros elementos que ya no se fabrican han debido ser reemplazados.
Más información en:
http://sci.esa.int/cluster
http://esapub.esrin.esa.it/bulletin/bullet91/b91cred.htm
http://sci.esa.int/newsitem.cfm?TypeID=1&ContentID=8591&Storytype=8
♦ Los análisis de la trayectoria obtenida tras la corrección realizada el 28 de diciembre
(TCM-A) por la sonda Stardust indican que ésta se llevó a cabo de forma casi perfecta.
Sólo se ha detectado un pequeño desplazamiento de 3 cm en la posición del centro de
masas del vehículo respecto a los cálculos pre-lanzamiento, lo cual se está estudiando en
estos momentos. Se ha decidido que la próxima gran maniobra (DSM-1, Deep Space
Maneuver-1), se realizará en tres partes, los días 18, 20 y 22 de enero. Más información
en: http://stardust.jpl.nasa.gov
669
El Hijo de El Cronopio No. 63
♦ En cuanto a la sonda NEAR, se encuentra ya a menos de 52.000 km del asteroide
Eros. Mañana 11 de enero se iniciará la fase científica, con transmisiones diarias de
información mediante la antena de alta ganancia. Tres días después comenzarán las
observaciones de navegación en preparación para el encuentro. La primera maniobra
para este último se efectuará el 2 de febrero, con otra de ajuste el 8 del mismo mes. La
entrada en órbita alrededor del asteroide está prevista para el 14 de febrero. Más
información en: http://near.jhuapl.edu
♦ El equipo formado por las empresas Lockheed Martin y Orbital Sciences ha recibido
el contrato definitivo para la construcción del nuevo satélite japonés de comunicaciones
móviles de la compañía DoCoMo. La firma del contrato se produjo el 6 de enero e
incluye el satélite, el segmento terrestre y el lanzamiento. El N-STAR-c estará listo en el
2002 y trabajará en las bandas C y S. Información adicional en:
http://www.lmcommercialspace.com
Noticias de la Facultad
Acuerdos del H. Consejo Técnico Consultivo
En la sesión correspondiente al mes de enero el H. Consejo Técnico Consultivo de la
Facultad de Ciencias llegó a los siguientes acuerdos: Con respecto a la solicitud del
joven Claudio Davet Gutiérrez Lazos de inscripción a la Facultad para concluir la carrera
de físico-matemático, después de haber solicitado un permiso no refrendado, para
realizar estudios de maestría en el CINVESTAV, mismos que concluyó. Se turnó el
análisis de su solicitud a la Comisión de Rescate Académico para alumnos que por
cuestiones de reglamento están impedidos de obtener su título, a fin de que presenten una
propuesta al Consejo Técnico en su oportunidad. El joven Armando Gómez Lárraga
solicitó autorización para inscripción a la Facultad y continuar sus estudio. Debido a
impedimentos de reglamento y a su desarrollo académico pobre, se le negó la solicitud.
Respecto a la solicitud del Fís. Joaquín Sada Anaya, Jefe del Departamento de Física de
que las materias de Biología I y Termodinámica y Mecánica Estadística I del plan
anterior sean acreditadas como Biología y Termodinámica del nuevo plan, se turnó a su
análisis y a un análisis global de los planes de los otros departamentos de la Facultad a
una comisión formada por los jefes de departamento, secretarías académica y escolar, y
personal académico de apoyo para que presenten una propuesta global, en lo académico
y administrativo.
La Ciencia desde el Macuiltépetl/ El método bibliométrico
Por Manuel Martínez Morales
Uno de los síntomas más agudos de nuestra dependencia, en lo que se refiere a ciencia y
tecnología, es el seguimiento de las modas y pautas vigentes en los países desarrollados.
670
El Hijo de El Cronopio No. 63
En esos países está establecido que uno de los parámetros más importantes para “medir”
la excelencia académica o científica es el número de trabajos publicados por un
investigador; el prestigio de un científico crece en proporción al número de artículos que
logra publicar en revistas especializadas. Se ha llegado al extremo, incluso de
“descubrir” un nuevo método de evaluación de la productividad científica al que se ha
llamado pomposamente el método bibliométrico.
En realidad, este sistema de evaluación elevado a rango de método puede conducir a
falsas apreciaciones sobre la productividad científica.
Ya, en 1939, John D. Bernal señalaba que
Posiblemente cerca de tres cuartas partes de los artículos publicados
(en revistas científicas) no merecían ser publicadas en absoluto; han
sido publicadas por consideraciones económicas que nada tienen
que ver con la ciencia. La posición de todo trabajador científico
depende demasiado del número, más que de la calidad de lo
publicado. Las publicaciones frecuentemente son prematuras [...] y
son una indicación de lucha necesaria del investigador por
sobrevivir en el mundo científico” (The Social Function of Science;
MIT, 1973).
En 1966, se publicó un trabajo que corrobora la apreciación de Bernal:
en una muestra de 149 artículos seleccionados de 10 revistas
médicas de reconocido prestigio, se encontró que 72%, esto es,
alrededor de 107 trabajos presentaban conclusiones que no estaban
suficientemente fundamentadas. ( S. Schor, I. Karten, Statistical
Evaluation of Medical Journal Manuscripts, J. Am. Med. Ass.,
1966.)
La fiabilidad de este “método” es cuestionable. El hecho de que este análisis sea
favorecido por algunos autores, no garantiza su validez metodológica; además,
admitamos que es práctica común de muchos investigadores publicar el mismo trabajo
con algunas modificaciones de forma, en diferentes revistas (refritos). También un
científico que domine una técnica de uso extendido (microscopía electrónica, digamos),
aparecerá como coautor de numeroso artículos en los cuales poco tendrá que ver con su
contenido esencial. Hay que señalar, asimismo, que la probabilidad de publicar un
trabajo no es la misma para todas las áreas; por ejemplo, es mucho más difícil publicar,
por la complejidad del tema, un trabajo de biología teórica que los resultados de un
trabajo experimental; entonces, el número de publicaciones por sí mismo no refleja el
esfuerzo y la verdadera productividad científica.
Aún el recuento de citas bibliográficas es un mal indicador de productividad, pues al
escogerlas se da preferencia a aquellas que provienen de reconocida autoridad, es decir,
que grupos o instituciones de reciente formación y/o recursos modestos tienen menos
posibilidades de aparecer citados en la literatura. Por otra parte, es un hecho confirmado
que pueden transcurrir muchos años antes de que se reconozca un trabajo.
Por citar tan sólo un ejemplo, en uno de los trabajos de Ronald Fisher, quien ha sido pilar
de la estadística moderna, se deduce la distribución del coeficiente de correlación para
muestras pequeñas. Fue rechazado durante años por los editores de Biometrika y
671
El Hijo de El Cronopio No. 63
finalmente apareció en una publicación de segundo orden editada en Italia. Este trabajo
fue ignorado durante años por matemáticos y científicos experimentales por igual. Como
éste, podría citarse muchos otros casos. Al no tener en cuenta estos elementos, el simple
recuento de citas pierde sentido como indicador de productividad.
Los que utilizan y creen en este “método” confunden un medio con un fin. La
comunicación científica es indudablemente un elemento fundamental de la práctica
científica, pero es sólo un medio para intercambiar información y someterla al juicio de
la comunidad científica y no un fin en sí mismo, ni mucho menos un “indicador
objetivo” para evaluar la productividad científica. Un trabajo científico debe valorarse en
cuanto a su correspondencia con los objetivos (teóricos y/o prácticos) que tal trabajo
persigue. Ya no es tan importante, decía Norbert Wiener, el saber hacer (know how), sino
el saber qué hacer (know what). El cómo resulta del qué, no del objeto específico, sino de
un conjunto de objetivos. La discusión sobre los objetivos de la ciencia en nuestro país
apenas comienza; sería de suma importancia conocer en qué medida una investigación ha
cumplido con los objetivos propuestos y, más aún, determinada relevancia de tales
objetivos.
Recurrir a la “bibliometría” para evaluar la productividad científica soslaya los
verdaderos y urgentes problemas a que las ciencias deben dar una respuesta. El aumento
en el número de publicaciones ¿está asociado con la disminución de la mortalidad
infantil en el país?, ¿ha aumentado la esperanza de vida de la población?, ¿ha mejorado
la calidad de nuestra alimentación? A estos índices deben recurrirse para evaluar la
importancia del trabajo científico.
Seguir considerando el número de publicaciones como un indicador “de eminencia”
repercute negativamente en la práctica científica. Esta tendencia ha sido calificada en
otros países como la carrera de la rata: publicar o morir (The rat race: publish or perish).
Asumir que el objetivo de la investigación es publicar influye nocivamente en la
formación de nuevos científicos. Aquí resulta inevitable volver a citar a Bernal:
el joven graduado que acaba de escapar de las presiones del sistema
de exámenes se encuentra con que ha cambiado un tipo de
servilismo por otro, ya que ahora su futuro depende de sus
publicaciones. Los años que sería más provechoso pasarlos –como
los grandes científicos lo hicieron– en el estudio, la meditación y la
experimentación aparentemente sin sentido, le son negados a los
jóvenes investigadores. El resultado es paralizar la originalidad en la
época que ésta es más fructífera y cuando se está libre de
responsabilidades administrativas y sociales. Otra consecuencia de
esto es cargar la literatura científica con grandes volúmenes de
artículos inútiles.
El “método biblimétrico”, en síntesis, no es sino una expresión más de alineación de los
científicos, refleja la opacidad con la que el hombre de ciencia percibe su propia práctica
y la vinculación de ésta con la realidad. Esta alineación sólo puede superarse mediante el
análisis y la autocrítica constante sobre los objetivos de nuestro trabajo y la
confrontación de éstos con la realidad.
13 de enero de 1984
672
El Hijo de El Cronopio No. 63
El Cabuche (crónicas de la Facultad de Ciencias)/ Todo un best seller
Los cursos de ciencias que a lo largo de nuestra preparación, esté en proceso o no,
tuvimos que cursar y que los actuales estudiantes de nuestra escuela-facultad seguirán
cursando, espero que no indefinidamente, se caracterizan, entre otras cosas, por los libros
en los cuales se basan, a tal grado que aunado al trabajo del maestro y del propio alumno,
los libros constituyen esa guía indispensable para comprender los intrincados misterios
de la ciencia. En ciertos casos, los libros se convierten en el principal ingrediente en
nuestra formación. En el caso de la escuela-facultad, a principios de los setenta comenzó
a utilizarse para los cursos de física general el libro en tres volúmenes de Marcelo
Alonso y Edward J. Finn, mejor conocido como el Alonso y Finn. Por más de una década
estos libros acompañaron el devenir histórico de nuestra facultad; mientras en ingeniería
llevaban el Resnick en la escuela-facultad, se llevaban los tres Alonso y Finn en lo que
eran los dos primeros años de la carrera de física y posteriormente las carreras que se
fueron incorporando en la estructura de la facultad. ¡Vaya que tenían su complejidad!
Recuerdo que en vacaciones de verano seguía repasándolos, pues su contenido y
principalmente el formalismo utilizado, sería de gran utilidad en los cursos intermedios
que se cursaban a partir del cuarto semestre y tercer año. Después, ya como profesor en
la escuela-facultad, al regresar de realizar estudios de maestría en la universidad poblana,
me tocó el turno de discutir su contenido con alumnos de las carreras de física y
electrónica. Posteriormente apareció una versión simplificada (más “digerible”) que
Marcelo Alonso trabajó con Onofre Rojo profesor venezolano que por un tiempo
impartió clase en el IPN de México, inmediatamente fueron incorporados en los cursos
de introducción a la física que se añadieron a la curricula de la facultad para tratar de
nivelar a los alumnos de nuevo ingreso. Publicados en 1967 con el título Fundamental
University Physics por Addison-Wesley, y en 1970 en su versión en español por el
Fondo Educativo Interamericano, los tres volúmenes del Alonso y Finn marcaron un hito
en la enseñanza de la física teniendo una gran aceptación en todo el mundo y por
supuesto en nuestra entonces escuela; a través de sus páginas la mayoría de los físicos e
ingenieros de los cinco continentes completaron su formación profesional. El enfoque de
los libros era algo novedoso pues no concebía, como el resto de los libros, a la física
como si fuera un conglomerado de varias ciencias más o menos relacionadas, pero sin un
punto de vista realmente unitario. En su lugar Alonso y Finn seguían una presentación
lógica unificada, haciendo énfasis en las leyes de conservación, en los conceptos de
campos y de ondas y en el punto de vista atómico de la materia. El mismo Alonso
indicaba en el prólogo “esperamos que este texto ayude a los educadores progresistas,
quienes constantemente se preocupan por mejorar los cursos que dictan; esperamos,
también, que estimule a los estudiantes, quienes merecen una presentación de la física
más madura que la de los cursos tradicionales”. Lo que sabíamos de Alonso en la década
de los setenta, es que era un profesor de origen latino, posiblemente cubano, que
trabajaba en el Departamento de Física de la Universidad de Georgetown, Washington,
DC. Quién iba a pensar que veinticinco años después, tendría la oportunidad de
conocerlo y convivir durante una semana con él. No sólo eso, sino que asistiría a su
reencuentro con su tierra natal que dejó, por asuntos que no tengo muy claros, hace casi
cuarenta años. Abandonó Cuba y en particular la Facultad de Física de la Universidad de
La Habana, un 29 de febrero de 1960. Pilar en el desarrollo de la universidad cubana en
673
El Hijo de El Cronopio No. 63
sus inicios, misma en la que estudio, para después incorporarse como profesor. Alonso,
en los años cincuenta se dio a la tarea de promover los estudios de Física Atómica y
Nuclear en Cuba (de los cuales también tiene un par de libros, que no se usaron en
nuestra facultad) impartiendo cursillos, publicando un texto, y echando las bases de un
laboratorio dedicado a aquella materia en la cátedra de Física Teórica de la Universidad
de La Habana. Marcelo Alonso persona alegre y jovial con más de ochenta años a
cuestas, para terminar pronto, es una gran personalidad en la enseñanza e investigación
de la física, aunque, por problemas de salud, tiene tiempo de no dedicarse a ello, sigue
dictando cursillos, talleres y conferencias en los cinco continentes. De una lucidez y
alegría envidiables está preparando un libro sobre sistemas complejos, lo más nuevo en
investigación no sólo en física, digamos ciencias. Por mi parte fui uno de los diez
afortunados que durante el Taller Iberoamericano celebrado en la Universidad de La
Habana me obsequiaron uno de sus libros que la Universidad de Las Palmas de Gran
Canaria de España, le publicó con el título ¿Somos muy conservadores en la enseñanza
de la física? Mismo en el que al pie de su título se lee Marcelo Alonso “Principal
Research Scientist (Retired), Florida Institute of Technology”. Sobra decir que el libro es
por demás excelente y encierra un enfoque muy poco usado para la enseñanza de la
física. En la cuarta de forros del libro (contraportada) como presentación del libro y del
autor puede leerse “el Dr. Marcelo Alonso, físico estadounidense de origen cubano, es
conocido en el ámbito de la física, fundamentalmente debido a sus libros de texto sobre
física general, física atómica y mecánica cuántica. El más internacional de ellos, el curso
de física en tres volúmenes escrito en colaboración con el Dr. E. Finn, ha sido traducido
a 12 lenguas diferentes, es usado como libro de texto en varias universidades de todo el
mundo y, como si de un best seller se tratase, se han vendido más de un millón
trescientas mil copias del mismo.
El Dr. Marcelo Alonso ha recorrido los cinco continentes para impartir conferencias en
diversas universidades, ha publicado alrededor de un centenar de trabajos sobre
enseñanza de la física, desarrollo científico y tecnológico, energía en general y energía
nuclear. También ha sido solicitado como asesor por diversos organismos internacionales
sobre todo en temas relacionados con educación científica, planificación energética y
política científica y tecnológica.
En la actualidad, desde su residencia en Florida, mantiene una intensa actividad
impartiendo conferencias y publicando trabajos, que como este, dan fe tanto de su
preocupación por el mundo de la enseñanza de la física, como del profundo
conocimiento que de esta disciplina posee”.
Me congratulo de haber asistido a su reencuentro y a mi encuentro con tan grato
personaje que le da sentido al estudio amplio y no reducido, como se acostumbra, de la
física como disciplina universal. Por lo pronto, después de más de veinte años,
seguiremos haciendo historia con su libro.
Cuando salí de La Habana ¡válgame Dios!/Nadie me
ha visto salir si no fui yo/Si a tu ventana llega una
paloma/trátala con cariño que es mi persona/ cuéntale
tus amores bien de mi vida/ corónala de flores que es
cosa mía/¡ay chinita que si!/¡ay que dame tu amor!
¡ay! que vente conmigo chinita/a donde vivo yo
674
Boletín
El Hijo de El Cronopio
Facultad de Ciencias
Universidad Autónoma de San Luis Potosí
No.64, 7 de febrero de 2000
Boletín de información científica y
tecnológica de la Facultad de Ciencias
Publicación semanal
Edición y textos
Fís. J. Refugio Martínez Mendoza
Cualquier información, artículo o
anuncio deberá enviarse al editor
e-mail: flash@galia.fc.uaslp.mx
Este boletín y números anteriores,
pueden consultarse por Internet en la
página de la UASLP:
http://phobos.dtc.uaslp.mx/publi.html
TOP TEN 1999
La revista Science repasa los 10 avances
científicos más importantes del año que
finalizó.
Cuando acabó el año 1999, es hora de
repasar cuáles han sido los avances
científicos más importantes que se han
llevado a cabo durante los últimos 12 meses.
La lista sitúa en lo más alto los progresos
realizados en el control de las llamadas
células embrión, las que
son capaces de dar lugar a
cualquier tipo de tejido y
que en el futuro podrían ayudar a resolver
innumerables enfermedades. Sin embargo,
no están aún resueltos los diferentes
aspectos éticos y sociales que ello sin duda
comportará.
La Genómica es probablemente una de las
áreas científicas que más ha progresado este
año. Se han mostrado genomas completos de
diversos microbios, e incluso la primera
secuencia de un cromosoma humano.
Otros campos de similar interés los tenemos
en: la creación del primer mapa molecular
del ribosoma, la fábrica de proteínas
esencial de la célula; la definición de un
nuevo gas cuyos átomos residen en la
categoría de los fermiones, uno de los dos
tipos de partículas elementales de la
naturaleza, y que podría servir para avanzar
en la investigación de la estructura básica de
la materia o para construir la próxima
generación de relojes atómicos y láseres; el
descubrimiento de signos de células
eucariotas (con núcleo) en rocas australianas
de 2.700 millones de años de antigüedad, lo
que retrasa en 1.000 millones de años la
aparición de vida compleja; el hallazgo de la
relación existente entre las formidables
explosiones de rayos gamma del Universo y
el colapso de estrellas masivas (supernovas);
la teoría de que cuando el Universo nació en
una gran explosión, el espacio se aplanó;
una serie de estudios que facilitan la
comprensión de cómo las memorias, la más
El Hijo de El Cronopio No. 64
intangible de las experiencias humanas, se forman debido a actividades moleculares concretas en
el cerebro; el hallazgo de una gran cantidad de nuevos planetas extrasolares, que alcanzan una
cifra cercana a 30, incluyendo la primera visión directa de uno de ellos; y avances en el
desarrollo de cristales fotónicos que atrapan y direccionan longitudes de onda específicas de la
luz.
Science también ha pronosticado que en este año 2000 habrá sustanciales progresos en el área de
los enzimas para resolver la enfermedad de Alzheimer, proyectos de restauración de ríos,
astronomía de rayos-X, epigenética, nanocomputadoras, y erradicación de la polio.
Noticias de la Ciencia y la Tecnología
El primer planeta visible
Un equipo de astrónomos británicos, utilizando el telescopio William Herschel y técnicas
de computación avanzadas, ha observado por primera vez de forma directa un planeta
fuera del Sistema Solar.
El descubrimiento de nuevos planetas fuera de nuestro Sistema Solar ya ha dejado de ser
noticia, pero en esta ocasión lo es, ya que, por vez primera, los astrónomos han logrado
detectar directamente la luz reflejada por uno de ellos.
Hasta la fecha y desde el año 1995 se han detectado no menos de 28 planetas
extrasolares, todos ellos por la influencia gravitatoria que ejercen y que perturba el
movimiento de sus estrellas o por el oscurecimiento del brillo de éstas al pasar por
delante. En esta ocasión, sin embargo, "Milenio", como así lo han bautizado sus
descubridores, se ha convertido en el primer planeta extrasolar del cual hemos medido la
luz que refleja su superficie. Se trata, sin duda, de un gran avance para la Astronomía.
El hallazgo ha sido anunciado en la revista Nature. Los astrónomos británicos que han
participado utilizaron para ello el espectrógrafo de alta resolución Utrecht Echelle
Spectrograph del telescopio William Herschel y avanzados programas de ordenador para
extraer la luz producida por la estrella (alrededor de la cual gira) y reflejada por el
planeta. Este proceso fue muy tedioso debido a que la luz reflejada por el planeta es más
de 10,000 veces más débil que la producida por la estrella.
El ministro de ciencia británico Lord Sainsbury ha declarado: "Es emocionante poder
ver, por primera vez, la luz procedente de un planeta fuera de nuestro Sistema Solar. Es
un nuevo paso en la búsqueda de vida en el Universo".
El planeta del "Milenio" tiene ocho veces la masa de Júpiter y dos veces su diámetro. La
distancia que nos separa de él es de 55 años luz ó 520 billones de kilómetros. Debido a
que se encuentra veinte veces más cerca de su estrella que la Tierra respecto al Sol, su
superficie está a muy altas temperaturas. Se estima que alcanza los 1,700 grados
centígrados.
Lo observado por los astrónomos es un espectro de la luz procedente del planeta, copia
del espectro de la estrella, que se desplaza en longitud de onda, debido al efecto Doppler,
a medida que el planeta gira. El efecto Doppler produce un corrimiento al rojo cuando el
objeto se aleja y al azul cuando se acerca. Es el mismo efecto que nos hace escuchar la
sirena de una ambulancia más aguda cuando se acerca y más grave cuando se aleja.
El telescopio de 4,2 metros William Herschel forma parte del Grupo de Telescopios
Isaac Newton (ING), instalados en el complejo del Instituto de Astrofísica de Canarias.
676
El Hijo de El Cronopio No. 64
También forman parte del ING los telescopios de 2,5 metros Isaac Newton y de 1 metro
Jacobus Kapteyn. El ING es el responsable de la operación de estos telescopios en La
Palma y está financiado por el Particle Physics and Astronomy Research Council
(PPARC) del Reino Unido y la Nederlandse Organisatie voor Wetenschappelijk
Onderzoek (NWO) de Holanda. (IAC)
Información adicional en: http://www.ing.iac.es/PR/Nota_de_Prensa_ING499.html
Imagen: http://www.ing.iac.es/PR/tauboomd.jpg (Impresión artística del planeta.) (Foto: IAC)
Cuando los telómeros se acortan
Investigadores de la Universidad Autónoma de Barcelona han descubierto nuevos
factores involucrados en el acortamiento de los telómeros.
El ADN de los organismos superiores está organizado en cromosomas individuales, el
extremo de los cuales está protegido por unas estructuras denominadas telómeros. Los
telómeros tienen funciones muy importantes en el mantenimiento de la integridad
genética de las células (evitan que los cromosomas se unan entre ellos, protegen sus
extremos de la degradación y participan en la segregación correcta de los cromosomas
durante la división celular), pero además juegan un papel decisivo en dos aspectos de
gran trascendencia biológica y social: el cáncer y el envejecimiento.
Los telómeros de la mayor parte de las células se acortan a medida que éstas se van
dividiendo y envejecen hasta llegar a un punto a partir del cual no pueden realizar su
función, propiciando su muerte. De esta forma, los telómeros actúan como un reloj que
mide el envejecimiento, indicando el momento en el que debe morir la célula y
controlando la proliferación correcta de los tejidos. La gran mayoría de las células
tumorales, sin embargo, utilizan mecanismos para evitar el acortamiento telomérico,
como la acción del enzima telomerasa, de manera que evitan el envejecimiento, se hacen
inmortales y el tumor prolifera de manera indefinida. Debido a esta relevancia biológica
de los telómeros, investigadores en genética de todo el mundo están realizando
numerosos estudios dirigidos a entender cuáles son los factores que determinan y
modulan la longitud telomérica en diversas especies.
Un grupo de investigadores del Departamento de Genética y de Microbiología de la
Universitat Autònoma de Barcelona, dirigido por el doctor Jordi Surrallés, ha obtenido
evidencias experimentales de un nuevo factor involucrado en el mantenimiento y la
dinámica de los telómeros humanos. En concreto, los científicos han observado, por
primera vez, un acortamiento acelerado de los telómeros del cromosoma X
genéticamente inactivo de las mujeres (uno de los dos cromosomas X de las mujeres
siempre permanece genéticamente inactivo) en comparación con el ritmo de
acortamiento de los telómeros del resto de cromosomas humanos. Se trata de la primera
evidencia directa de acortamiento diferencial de telómeros entre cromosomas de una
misma especie. Además, como la diferencia entre el cromosoma X activo y los demás
cromosomas radica únicamente en su actividad genética y en la manera en que se
estructura el ADN en ellos, los resultados demuestran que estos factores -la
estructuración del ADN y la actividad genética- modulan la longitud y el ritmo de
acortamiento de los telómeros con el envejecimiento.
Con el descubrimiento de estos nuevos factores involucrados en el acortamiento de
telómeros humanos, hecho publicado en la edición de diciembre de la revista American
Journal of Human Genetics, los investigadores de la UAB han abierto nuevas
677
El Hijo de El Cronopio No. 64
posibilidades en el estudio para evitar la proliferación de los tumores y han mejorado la
comprensión de la biología de los telómeros, esencial para el progreso de diversas
disciplinas científicas y aplicaciones biomédicas, como son el mantenimiento de la
estabilidad genética, la generación de tejidos para trasplantes, la clonación, y los
mecanismos del envejecimiento.
Esta investigación, dirigida por el Dr. Jordi Surrallés, se ha realizado en el seno del
Grupo de Mutagénesis del Departamento de Genética y de Microbiología de la UAB,
coordinado por el Dr. Ricard Marcos, en cooperación con los doctores M. Prakash Hande
y Peter M. Lansdorp del Terry Fox Laboratory for Haematology/Oncology, British
Columbia Cancer Agency Centre de Vancouver (Canadá).
Información adicional en: http://www2.uwindsor.ca/~badyal/
http://www.genlink.wustl.edu/teldb/tel.html
Un mástil que sabe lo que hace
Los yates más modernos utilizarán mástiles que alertarán a los navegantes sobre la
tensión que soportan en cada momento.
Muchas embarcaciones de recreo o de competición han quedado fuera de servicio debido
a la rotura inesperada de su mástil. Los mástiles que los equiparán en el futuro no
permitirán que ello ocurra, ya que avisarán a los navegantes sobre su condición física,
alertándoles en cada momento sobre si se encuentran sometidos a una tensión excesiva.
Dichos mástiles serán construidos mediante un compuesto de carbono, en el cual se
situarán múltiples sensores de fibra óptica. Los sensores se encargarán de informar sobre
la tensión soportada, advirtiendo a los usuarios cuando se acerquen demasiado al punto
de fallo estructural.
Esta tecnología se está desarrollando en estos momentos para ser aplicada en otros
campos, como por ejemplo en puentes o en aviones. Los trabajos de investigación están
siendo llevados a cabo por un equipo liderado por Ian Bennion, de la Aston University,
en colaboración con las empresas British Aerospace, Carbospars y Pendennis Shipyard.
La clave del sistema está en crear pequeñas perturbaciones convenientemente espaciadas
en el centro de la fibra óptica. Estas perturbaciones son "grabadas" en ella mediante un
láser ultravioleta de gran intensidad. Cada una actúa como un obstáculo para la luz de
una longitud de onda determinada. En condiciones normales la luz pasa a través de toda
la fibra óptica y emerge intacta en el otro extremo. Pero cuando el mástil es sometido a
tensión, la luz choca contra los obstáculos y es reflejada al punto de origen en una
longitud de onda distinta. El cambio de longitud de onda permite una medición precisa
de la tensión aplicada sobre el mástil.
Un simple monitor informará a los navegantes sobre el estado del mástil. En base a estos
datos, deberán determinar la forma más apropiada de conducir su embarcación, una
circunstancia de máxima importancia en los barcos de altas prestaciones, sobre todo en
competición.
Información adicional en: http//www.aerorig.com
Imagen: http://www.smartfibers.com/Smartpixs/Smartsail1.jpg
(Yate equipado con un mástil inteligente.) (Foto: Aerorig)
678
El Hijo de El Cronopio No. 64
Paleobarómetros
Millones de años antes de que los humanos inventáramos el barómetro para medir la
presión atmosférica, un primitivo insecto alado ya era capaz de responder a la densidad
del aire.
Muchos de los grandes inventos de la Humanidad han tenido interesantes precedentes en
el mundo animal y vegetal, es decir, en la propia naturaleza.
Mientras que nosotros empleamos los barómetros para medir la presión atmosférica
desde hace relativamente poco, hace millones de años un insecto alado muy común ya
tuvo que tener en cuenta este parámetro para poder sobrevivir. Su actividad, además, nos
dejó una valiosa información en el registro fósil, que ahora nos sirve para conocer cuál
era la densidad del aire en el remoto pasado.
El citado insecto, similar a la actual libélula, apareció hace unos 300 millones de años y
ha pervivido hasta nuestros días con pocos cambios. Gracias a esto, el estudio de algunos
de sus más viejos congéneres, hallados como fósiles, nos permite estimar la masa y
composición de la atmósfera que respiraron.
Destacan en la estructura de estos insectos dos segmentos de alas unidas al tórax. La
fuerza con la que su músculo principal acciona las alas se ve reflejada en la longitud del
pterotórax. A su vez, la fuerza que las alas ejercen sobre al aire circundante queda
registrada en la longitud del par delantero. Para que un ejemplar pueda llegar a "danzar"
como un helicóptero durante su apareamiento, la longitud de este par de alas delantero en
relación al pterotórax debe ser consecuente con la densidad del aire.
Por eso, el estudio minucioso de la estructura de los diferentes ejemplares fósiles de este
insecto que poseemos (pertenecientes al orden Ephemeroptera y de los que hay unas
2.000 especies) nos da pistas sobre la presión atmosférica que existía en el momento de
su muerte. Dichos estudios sugieren que la masa atmosférica terrestre ha sido
básicamente la misma durante los últimos 250 millones de años.
Este tipo de insectos suele vivir sólo unos días como adultos, pero algunos de ellos
consiguen escapar de los depredadores y a veces caen en sedimentos húmedos en los que
pueden quedar atrapados, quedando bien protegidos y convirtiéndose en valiosos fósiles.
Hasta ahora, la única forma que teníamos de conocer cómo era la presión atmosférica
primitiva era medir el tamaño de las burbujas de gas atrapadas en la lava mientras ésta se
solidificó.
Información adicional en: http://www.geo.cornell.edu/
http://www.geo.cornell.edu/geology/faculty/Cisne.html
http://www.entm.purdue.edu/entomology/research/mayfly/mayfly.html
Imagen: http://www.geo.cornell.edu/geology/faculty/Cisne.gif
Dos pájaros de un tiro
Una nueva teoría podría servir para resolver a un tiempo dos antiguas paradojas
climáticas.
Un meteorólogo de la Penn State University ha ideado una teoría que podría resolver
simultáneamente dos paradojas sobre el clima de la Tierra primitiva.
Las investigaciones sugieren que hace entre 3.800 y 2.500 millones de años el medio
ambiente terrestre era muy cálido. Sin embargo, parece que el Sol, más joven, iluminaba
menos que ahora. Posteriormente, nuestro planeta sufrió uno o más episodios de
679
El Hijo de El Cronopio No. 64
glaciación durante los cuales quedó absolutamente cubierto por hielo, justamente cuando
se supone que el Sol ya había empezado a brillar con mayor intensidad.
Gregory S. Jenkins propone una única explicación a todo ello. Para este científico, la
clave reside en la inclinación del eje terrestre. Algunos investigadores creen que una
colisión de un gran planetoide contra la Tierra creó la Luna, alterando también la
inclinación de su eje, de modo que no estaríamos ante un fenómeno nuevo.
Según Jenkins, si la Tierra se vio inclinada hasta los 70 grados respecto a la vertical por
uno de estos gigantescos impactos, las dos paradojas quedarían resueltas a un tiempo. No
sería necesario contar con un gran incremento de gases invernadero para explicar una
situación de altas temperaturas superficiales cuando el Sol brillaba un 20 a un 30 por
ciento menos que ahora. La razón es que la Tierra poseía entonces un océano que cubría
un 95 por ciento de la superficie. Gracias a la gran capacidad de almacenamiento de calor
del agua y a la inclinación del eje, la Tierra podía permanecer caliente. Grandes
porciones de cada hemisferio recibirían iluminación constante (24 horas) durante
períodos de tres meses. Durante la fase nocturna, el agua no se calentaba tanto, pero no
llegaba a congelarse.
Hace entre 2.500 y 544 millones de años, la Tierra sufrió una glaciación que alcanzó el
ecuador. Esto habría provocado diversas extinciones masivas, pero si el planeta hubiera
estado inclinado 70 grados, los polos habrían permanecido libres de hielo, permitiendo
que muchas especies emigraran y sobrevivieran a las glaciaciones ecuatoriales.
Otra cuestión es por qué hoy en día la inclinación del eje terrestre es de únicamente 23
grados. Varios científicos proponen que si se acumuló una gran masa en el polo, dicha
inclinación puede llegar a disminuir por sí sola. Los estudios indican que en el
Precámbrico, la mayor parte de la tierra firme se encontraba alrededor del polo sur. Con
la suficiente masa, habrían bastado 100 millones de años para situar el eje del planeta
hasta los 23 grados actuales.
Información adicional en:
http://www.psu.edu/ur/NEWS/news/climateparadox.html
Energía solar más viable
La tecnología actual no permite obtener energía de los rayos solares de la forma más
eficiente. Las nuevas investigaciones cambiarán esto y harán del Sol una clara
alternativa.
Un equipo de investigadores del Department of Energy del Oak Ridge National
Laboratory (ORNL) están desarrollando tecnología avanzada que podría multiplicar por
tres la cantidad de energía que obtenemos del Sol en la actualidad.
Los sistemas de energía solar tradicionales no explotan en su totalidad el potencial de
esta fuente energética. Convierten de forma poco eficiente la luz visible en electricidad,
parte de la cual vuelve a ser transformada después para permitir la iluminación de
interiores.
La nueva tecnología desarrollada en el ONRL abandona esta táctica para centrarse en la
recolección de la luz sin transformarla, distribuyéndola directamente. La luz visible
podrá así ser empleada como sistema de iluminación, mientras que el resto, las otras
porciones del espectro, podrán usarse para generar electricidad.
680
El Hijo de El Cronopio No. 64
De hecho, la iluminación de interiores es el principal consumidor de energía eléctrica en
edificios comerciales, siendo un tercio de toda la electricidad consumida por un país
desarrollado como los Estados Unidos.
La tecnología que se está diseñando se centra en varios concentradores que, montados en
los tejados, se mueven sobre dos ejes, siguiendo constantemente el Sol y separando las
porciones visible e infrarroja de los rayos solares. Utilizando fibras ópticas de gran
diámetro, es posible distribuir y dirigir la luz visible hacia el interior de los edificios. El
sistema también convierte la luz infrarroja (no visible) en electricidad. Las actuales
células fotovoltaicas son más eficientes en el infrarrojo, de modo que producirán más.
La iluminación interior de los edificios mediante este sistema, variable debido a la
distinta intensidad proporcionada por el Sol a lo largo del día, será compensada con luz
artificial. La iluminación híbrida supondrá un gran ahorro energético. Información
adicional en: http://www.ornl.gov/Press_Releases/archive/mr19991217-00.html
Como combatir la radiación
Un experimento a bordo de un globo sonda permitirá averiguar cómo proteger a los
astronautas que viajen hacia Marte.
Si llueve, utilizamos paraguas. Si nos encontráramos con una lluvia de meteoritos,
deberíamos fabricar un escudo lo bastante resistente que protegiese a nuestra nave
espacial. El problema de la radiación cósmica, sin embargo, es mucho más complejo.
Después de cuatro décadas de vuelos tripulados al espacio, aún no sabemos muy bien
cómo evitar que la radiación solar afecte a los astronautas, situación que paliamos
mediante estancias cortas o durante períodos en los que la actividad de nuestra estrella es
mínima. Pero los rayos cósmicos proceden de más lejos y caen continuamente, siendo
tanto o más peligrosos. Una parte de la solución reside en entender mejor su composición
y las energías que presentan.
Para conseguirlo, varios científicos han elegido dos instrumentos de medida que
instalarán a bordo de un globo sonda. Este permanecerá suspendido durante diez días
sobre el polo sur, almacenando y enviando información. Los citados instrumentos
contienen dosímetros y medirán las diferentes energías y partículas de rayos cósmicos
que se encuentren durante el vuelo.
El globo partirá desde la estación científica de McMurdo, en la Antártida, ya que las
regiones polares son donde la atmósfera terrestre se encuentra directamente expuesta al
medio ambiente espacial, incluyendo los rayos cósmicos. Ascendiendo hasta los 38 km
de altitud, el globo sonda permanecerá por encima de la mayor parte de la atmósfera.
Los rayos cósmicos, a pesar de su nombre, no son radiación electromagnética como los
rayos-X o gamma. En realidad, son átomos a los que se les ha arrancado sus electrones y
que han sido acelerados por explosiones de estrellas supernova u otros fenómenos de
parecida violencia.
Los rayos cósmicos conocidos como HZE son los más peligrosos, por su alta masa y
energía. Son núcleos atómicos que viajan a una velocidad cercana a la de la luz. Al
penetrar en materia densa, como la pared de una nave espacial o el cuerpo humano,
pueden destruirla y provocar una cascada de partículas secundarias.
Afortunadamente, se trata de partículas cargadas y por tanto son desviadas por el campo
magnético de la Tierra. Las que consiguen atravesarlo, son absorbidas por la atmósfera
681
El Hijo de El Cronopio No. 64
superior. No obstante, como las líneas magnéticas en los polos son verticales, no pueden
impedir su llegada.
El globo sonda transportará también diversas muestras de posibles escudos, incluyendo
una placa de aluminio de 7,6 cm de espesor. Los instrumentos medirán la influencia de
los rayos cósmicos y si dicho escudo es apto o no para ser aplicado en la práctica. Las
pruebas se realizarán de inmediato. Tras la recuperación, los paquetes de instrumentos
serán llevados en enero a Alabama para su análisis.
Información adicional en:
http://www.spacescience.com/newhome/headlines/ast17dec99_1.htm
Imagen:
http://www.spacescience.com/newhome/headlines/images/spole/cyl_ref1.JPG
(Detectores de rayos cósmicos.) (Foto: Marshall SFC)
La Ciencia desde el Macuiltépetl/ Ideología y ciencia
Por Manuel Martínez Morales
Hay una escena de la película La hora de los hornos que comienza con la frase:
“Latinoamérica es un continente en guerra, una guerra que se libra esencialmente en la
mente del hombre”, en seguida aparece una calle profusamente iluminada por anuncios
de gas neón; lo mismo podría ser el centro de la ciudad de México, el de Caracas o
Buenos Aires.
Solanas y Betino, realizadores de la película, llaman nuestra atención hacia lo que
comúnmente se ha denominado guerra psicológica o guerra ideológica, mediante el
empleo de los recursos audiovisuales como radio, televisión, anuncios luminosos en la
calle, periódicos y revistas, el sistema social imperante nos introyecta una visión
deformada del mundo y de nuestra sociedad. Una visión que no refleja la totalidad de la
que formamos parte, sino una realidad parcial fabricada por quienes se interesan en
inducirnos a consumir, comportarnos y pensar según ciertos moldes.
En sus orígenes la expresión “ideología” designaba la teoría genética de las ideas. Esto
es, la historia de la formación de las ideas. Marx retomó el término para darle un sentido
muy distinto. La ideología, para Marx y Engels, es el sistema de ideas, de
representaciones, que domina el espíritu de un hombre o grupo social. En una sociedad
dividida en clases sociales, agrega Marx, es la clase dominante la que impone a las
demás su propia concepción del mundo y de la sociedad. La ideología es,
sustancialmente, una concepción deformada, es decir, falsa de la realidad; su función
primordial no es proporcionar un conocimiento objetivo del mundo, sino garantizar la
reproducción de las condiciones que posibilitan el predominio de determinada clase
social. No sólo la reproducción física de los hombres, sino además las condiciones que
hacen posible su inserción en una clase social. En el caso de la clase trabajadora, su
reproducción física se asegura esencialmente mediante el salario; empero, no basta con
proporcionar a la fuerza de trabajo las condiciones materiales de su reproducción para
que sobreviva como tal, la fuerza de trabajo disponible debe ser “competente”, es decir,
apta para ser utilizada en el complejo sistema del proceso de producción y, más aún,
debe aceptar el lugar que la clase en el poder le asigna. Junto con los conocimientos
técnicos necesarios para desempeñarse en su trabajo, el obrero también “aprende” reglas
682
El Hijo de El Cronopio No. 64
de moral y de conciencia cívica y profesional, lo que significa en realidad reglas del
respeto a la división social-técnica del trabajo y, en definitiva, reglas de orden
establecido por la dominación de clase. Se aprende también a obedecer.
La sumisión ideológica se alcanza mediante los aparatos ideológicos de estado, así
llamados por Althusser.
La escuela, la iglesia y los medios de comunicación masiva constituyen precisamente
esos aparatos de control ideológico. Vance Packard, en su famosa obra Los persuasores
ocultos y Marshal Mc Luhan en La novia mecánica develaron los sutiles mecanismos
mediante los cuales la propaganda actúa sobre nuestro inconsciente para inducirnos a
comprar, vestir, hablar, caminar, reír y pensar de acuerdo con los esquemas convenientes
a los dueños del poder.
Althusser describe metafóricamente la estructura social como un edificio en el cual los
cimientos corresponden a la economía, esto es, al modo como los hombres producen las
condiciones materiales de su existencia; la construcción sobre estos cimientos está
constituida por la superestructura jurídica y política del estado y, la ideología sería la
argamasa que mantiene unido al edificio y evita que éste se desplome.
Entonces, la ideología está definida, más que como conocimiento del mundo, como una
imagen deformada de la realidad con una función social específica: garantizar el
consenso y la reproducción de la estructura social vigente.
Ahora bien, mientras estamos inmersos en la ideología no podemos darnos cuenta de
nuestra ideologización. Dice Althusser:
Pero reconocer que somos sujetos y que funcionamos en los rituales
prácticos de la vida cotidiana más elemental (el apretón de manos,
el hecho de llamarlo a Ud. Por su nombre, etc.), tal reconocimiento
nos da solamente la “conciencia” de nuestra práctica incesante
(eterna) del reconocimiento ideológico, pero no nos da en absoluto
el conocimiento. Ahora bien, en este conocimiento hay que ir a
parar si se quiere, mientras se hable en la ideología y desde la
ideología, esbozar un discurso que intente romper con la ideología
para atreverse a ser el comienzo de un discurso científico (sin
sujeto) sobre la ideología. (Ideología y aparatos ideológicos del
Estado, Ed. Quinto Sol)
Es únicamente a través del conocimiento científico, es decir, objetivo, despersonalizado,
que podemos entender y, por lo tanto, desarmar, a la ideología. El conocimiento
científico, sin embargo, no es un conocimiento “puro” sino que también está permeado
por la ideología y sólo puede realizarse y desarrollarse a condición de confrontarse de
modo permanente con las nociones ideológicas. El desarrollo de las teorías y métodos
científicos ha sido la historia de una enconada lucha contra la ideología. Recuérdense la
muerte de Sócrates, el juicio a Galileo, la ejecución en la hoguera de Giordano Bruno, la
persecución de los nazis contra Einstein y, en la actualidad, las prohibiciones y ataques
contra las teorías marxistas de la historia y el conocimiento.
Las ciencias de mayor antigüedad, como las matemáticas y la física, están casi
despojadas de todo vestigio ideológico. Sin embargo, todavía es posible encontrar en
algunas teorías, métodos e interpretaciones con matices ideológicos bastante
pronunciados. En cambio, las ciencias más cercanas al hombre y a la lucha de clases son
683
El Hijo de El Cronopio No. 64
las más fuertemente impregnadas por la ideología; son los casos de la sociología, la
historia, la antropología, la psicología e, incluso, la biología.
El razonamiento científico no es algo complicado, o algo que requiera para su ejercicio
de una tecnología costosa es, ante todo, un modo de abordar la realidad para tratar de
conocerla como es, para tratar de conocer “la esencia del fenómeno” (Marx), “la cosa en
sí” (Kant, Kosik).
Afirma Marx que si el conocimiento de la realidad nos fuera dado en forma inmediata,
toda ciencia sería superflua. El método científico exige, sí rigor, disciplina y honestidad
intelectual. El conocimiento científico no puede adquirirse en forma de recetas o
únicamente a través de la lectura; es ante todo una práctica, una manera de abordar el
mundo y la vida propia. Un campesino iletrado que sabe, exactamente, en qué día debe
sembrar, está haciendo uso de un conocimiento objetivo elemental adquirido por la
experiencia de muchas generaciones.
En una sociedad tan devastada como la nuestra, se hace indispensable el ejercicio de la
razón científica, la razón crítica y dialéctica para desembarazarnos de esa cruel ideología
que insiste, pesada e insistentemente, en mantenernos en un estado de sujeción y
atarantamiento intelectual; cuando eso se logre “será la hora de los hornos y no habrá de
verse más la luz” (José Martí).
25 de noviembre de 1983
El Cabuche (crónicas de la Facultad de Ciencias)/ Ciudad en llamas
Hasta no verte Jesús mío, es el título de una conocida novela de Elena Poniatowska que
hace referencia a un famoso dicho mexicano. Y muy cierto, hasta no ver y apreciar en su
justa dimensión las cosas o los eventos tenemos un verdadero enfoque. Justo sucedió
cuando en 1976, nos trasladamos, un grupo de estudiantes de la entonces escuela de
física, a la UNAM. David Terrel un egresado de la escuela que siguió la especialización
en Geofísica, se desempeñaba profesionalmente en la UNAM. De sus gestiones
consiguió que un buen número de revistas especializadas en geofísica y algunos libros
fueran donados a la escuela; Terrel se comunicó con el Consejo Estudiantil de la escuela
y se formó una comisión para ir a echarle un ojo a las revistas y ver la posibilidad de
traerlas a nuestra biblioteca, aunque la condición de la biblioteca no estaba como para
ponerse los moños. Formé parte de la comisión y con las pocas indicaciones que dio
Terrel nos enfilamos a la ciudad del smog a cumplir nuestra papelera función. Resulta
que lo único que sabíamos era que teníamos que ir al Pozo Sísmico, que según decía
Terrel se encontraba cerca de la Facultad de Ciencias. En principio nos contentamos con
esas indicaciones y no esperamos a tener mayores detalles de Terrel, total al llegar a CU
no teníamos más que buscar el llamado Pozo Sísmico en las inmediaciones de la
Facultad de Ciencias. ¡Oh cruel realidad! Resulta que CU sí era en realidad una ciudad;
como viles provincianos y con la bocota abierta caminábamos y caminábamos, sin dar
crédito a que nos encontrábamos en la Ciudad Universitaria de la UNAM, las
dimensiones sobrepasaban por muchísimo lo imaginado. -¡Debimos esperar más datos
del Terrel!, nos recriminábamos mutuamente, pero ya nos encontrábamos en ese
monstruo con una misión que se convertía en imposible. Para variar, como en toda gran
ciudad, nadie sabía, o al menos esa impresión tuvimos, de la existencia del famoso Pozo
Sísmico así que al preguntar nos mandaban en una dirección y al llegar y volver a
preguntar nos regresaban; lo único bueno es que, después de más de seis horas de
684
El Hijo de El Cronopio No. 64
deambular, acabamos de conocer la ciudad universitaria. Cuando estábamos a punto de
claudicar, como una dulce aparición entre la bruma, en este caso entre el smog, apareció
un pequeño domo sobre la superficie de no más de cuatro metros de diámetro, con la
sospechosa forma de un pozo, preguntamos por no dejar y resulta que allí estaba el
mentado Pozo Sísmico; en realidad era un pozo, pequeño edificio invertido que a través
de pisos se desempeñaban funciones de monitoreo geofísico. En uno de dichos pisos se
encontraba una especie de biblioteca, en la cual en cajas, esperando su desalojo se
encontraban principalmente revistas. Contactamos a Terrel a quien no conocíamos más
que de oídas y de pláticas con la raza de la escuela; tiempo después llegaron a la
biblioteca de la escuela las cajas sabias. Ahora, esa ciudad se encuentra sitiada por las
fuerzas policiales, como única solución dada por las autoridades para “terminar” con un
conflicto que la mantiene paralizada por cerca de diez meses. Las posiciones de los ultras
(gobierno y estudiantes) han impedido la realización de un necesario dialogo que
conduzca, no sólo a una solución al conflicto, sino a una transformación de las
anquilosadas estructuras universitarias. Esa ciudad donde se aloja, al decir de unos, la
máxima representación cultural del país; está en llamas. Tomada por las fuerzas del
estado, sopretexto de la cerrazón de los ultras estudiantes, los ultras del gobierno
pisotean la libertad de pensamiento de la universidad y con inauditas acusaciones de
terrorismo y motín, encierran a cerca de mil estudiantes, pseudoestudiantes según ellos, y
a todo aquél que se encontraba en ciudad universitaria (en esos momentos en los
institutos se encontraban investigadores y técnicos trabajando). Ese atentado a la razón
que perpetuó el gobierno no puede, al igual que las acciones de los estudiantes que
mantenían tomadas algunas de las instalaciones de la UNAM, quedar como una gran
acción patriótica, como lo han estado haciendo aparecer los medios de comunicación
electrónicos que mantienen secuestradas las mentes de millones de ciudadanos. Las
coberturas noticiosas de TV Azteca y Televisa se han caracterizado por una campaña de
linchamiento a las posiciones estudiantiles, tengan éstas razón o no, se quiere evitar que
la universidad piense, y se avalan proyectos educativos que tienden a maniatar esta
virtud. A fin de cuentas, el problema de la universidad es un reflejo de los problemas que
la sociedad mexicana tarde o temprano debe de afrontar, los modelos de sojuzgamiento
económico y cultural que ha propiciado un nivel de vida que mantiene en la extrema
pobreza a millones de mexicanos, a una clase media constantemente golpeada y una
pequeñísima (este si es grupúsculo) clase política beneficiada con el sudor y sangre de
los mexicanos, entre ellos los llamados ultras, unos jóvenes otros no tanto, que tienen
mucho que decir para fincar su futuro; aunque los medios que utilizaron se volvieron en
su contra por errores existenciales. Resulta que ahora tenemos que ser testigos y avalar
los gritos de irritación de los pobrecitos reporteros de TV Azteca que son “agredidos” en
todo momento y no les permiten cumplir su “magnifica y apostolada” tarea de
“comunicación”. ¡Basta de impunidad!, sí, pero de la impunidad que usan los medios de
comunicación. Afortunadamente existen algunos programas (i.e. paradójicamente las
noticias de CNI canal 40, que compró TV Azteca) inteligentes que no atentan contra el
intelecto de los televidentes y que llaman a la reflexión; explicación: son producciones
de lo que quedó de CNI. ¡Basta de los manejos a ultranza de los medios de
comunicación! ¡Fuera policías de ciudad universitaria! ¡Solución al conflicto
universitario! ¡Apertura de las posiciones estudiantiles, ultras, para un apropiado
685
El Hijo de El Cronopio No. 64
dialogo! Y esperando que vuelva a vivir ciudad universitaria, recordemos otra ciudad a la
que le canta Amaury Pérez
Para las angustias pasadas, La Habana/Para los
desvaríos del día, La Habana/Para reinventarse los
grises,/y encontrar el agua en las ganas/como un
curandero revive, La Habana/Para completarse los
sueños, La Habana/Para replantearse la vida, La
Habana/Para que la luz cauterice,/para remontar
esperanzas/para
hacerlas
casi
visibles,
La
Habana/Para los descuidos del alma, La Habana/Para
el vendaval que se arrima, La Habana/Para no pasar
de infelices,/cuando se despeñe la calma,/para los
olvidos gentiles, La Habana/La Habana, Habana
mía/La Habana; Habana nuestra/Habana que no
tendrías/Habana que no tuvieras
4º Foro de Educación en la UASLP
problemas y escenarios en educación superior: retos en el nuevo milenio
Objetivos: buscar estrategias que permitan encontrar soluciones a los desafíos
educativos de atención a la demanda del alumno tradicional y del profesional en activo
con pertinencia y calidad, que sean aplicables en nuestra universidad.
Propiciar un espacio educativo de análisis y reflexión para la comunidad universitaria en
relación a su práctica educativa
Fechas de su realización:
17 y 18 de febrero: talleres para la elaboración de ponencias
16 y 17 de marzo: 4º Foro de Educación en la UASLP
Programa
Conferencias en los temas: situación actual de la problemática y escenarios en educación
superior; el impacto de la globalización en la educación superior y la transformación de
programas académicos a partir del rápido avance de la ciencia y la tecnología.
Presentación de ponencias en Mesas de trabajo en los temas: el proceso enseñanzaaprendizaje; los nuevos elementos del análisis y diseño curricular y el reto de la
universidad ante la demanda de los nuevos conocimientos y habilidades del profesional
en activo
Comisión Institucional de Apoyo a la Docencia
686
Boletín
El Hijo de El Cronopio
Facultad de Ciencias
Universidad Autónoma de San Luis Potosí
No.65, 14 de febrero de 2000
Boletín de información científica y
tecnológica de la Facultad de Ciencias
Publicación semanal
Edición y textos
Fís. J. Refugio Martínez Mendoza
Cualquier información, artículo o
anuncio deberá enviarse al editor
e-mail: flash@galia.fc.uaslp.mx
Este boletín y números anteriores,
pueden consultarse por Internet en la
página de la UASLP:
http://phobos.dtc.uaslp.mx/publi.html
Contrastes
Mientras la Academia de Profesores de la
Facultad de Filosofía y Letras de la UNAM
discutía hacer público un reconocimiento al
Dr. De la Fuente (y de la UNAM) por su
valentía al permitir el uso de la fuerza
pública para desalojar a los estudiantes
paristas, el ex rector Pablo González
Casanova renunciaba a la dirección de
investigación científica de la UNAM como
protesta por la incursión de la Policía
Federal Preventiva a las
instalaciones
de
la
UNAM.
Mientras una obesa profesora de la Facultad
de Economía de la UNAM declaraba a los
medios de “comunicación” electrónicos que
pedirían se le aplique la ley al “delincuente”
Mario Benítez, profesor de la misma
facultad, el director de la citada facultad
declaraba que era una pena que una persona
como Mario Benítez estuviera preso,
solamente por defender sus ideas.
La jerarquía católica a través de algunos de
sus obispos, entre ellos el de San Luis
Potosí, aprueban el uso de la fuerza pública
contra los “revoltosos y delincuentes”
estudiantes, contradiciéndose así, con lo que
“humildemente” predican.
Mientras Gurría (el rico jubilado) anuncia
que se apoyará económicamente a la UNAM
con apoyos extraordinarios, (la UNAM
además cobrará un millonario seguro por las
pérdidas sufridas en este movimiento) las
universidades públicas estatales seguirán
padeciendo las penurias económicas
emprendidas por el estado (¿La huelga es
rentable para aumentar presupuestos?)
Labastida y Silva Hersog, pintarrajeando
paredes en edificios públicos y el exdirector
de la Facultad de Derecho aventando un
quinientón a la juez. Ya lo dice Julio
Hernández López en su columna Astillero:
mientras tantos se ríen de la ley, unos
cuantos, por sus ideas, están en la cárcel
El Hijo de El Cronopio No. 65
Aleph Cero/ Un Siglo de Física
Por Shahen Hacyan para el periódico Reforma
Independientemente de que se haya acabado o no el siglo, el desarrollo de la ciencia en el
siglo XX ha sido tan espectacular que bien vale hacer una breve reflexión al respecto. Si
nos fijamos únicamente en las ciencias de la materia y la energía (las ciencias de la vida
merecen otra mención de igual importancia), podemos constatar que los grandes avances
tecnológicos de la primera mitad del siglo XX estuvieron asociados al aprovechamiento
masivo de la energía eléctrica. Estos avances fueron frutos de los trabajos experimentales
que realizaron físicos como Michael Faraday, en la primera mitad del siglo XIX, y de la
teoría del electromagnetismo que desarrolló J. C. Maxwell a mediados de ese mismo
siglo. En una época dominada por las máquinas de vapor, estas investigaciones no
parecían tener más objetivo que satisfacer la curiosidad de los científicos, pero las
aplicaciones prácticas se hicieron evidentes antes de que empezará el siglo XX.
La teoría electromagnética fue un puente entre la física clásica y la moderna. Sirvió de
preludio a las dos grandes teorías que transformaron por completo nuestra visión del
mundo: la relatividad y la mecánica cuántica. La primera fue obra principalmente de
Einstein; la segunda fue desarrollada inicialmente por Max Planck, el mismo Einstein y
Niels Bohr, seguidos de muchos otros notables fundadores de esta nueva ciencia.
La física de Newton es perfectamente válida para un gran número de usos prácticos, pero
falla cuando se trata de fenómenos que implican movimientos con velocidades cercanas a
la de la luz. Con la teoría de la relatividad especial, Einstein mostró, en 1905, que, para
esas velocidades, nuestros conceptos comunes de espacio y tiempo dejan de tener el
sentido que les damos y dependen del movimiento de un observador. Diez años después,
Einstein presentó una versión más general de su teoría para explicar también la
gravitación: en la teoría general, el espacio y el tiempo no son simples escenarios de los
fenómenos físicos y se vuelven causas dinámicas de la atracción gravitacional. La teoría
especial de la relatividad ha sido confirmada más allá de toda duda, tanto con
experimentos directos, como por su perfecta consistencia interna que permite estudiar y
comprender numerosos fenómenos físicos que ocurren a grandes velocidades o altas
energías. En cuanto a la teoría general, sus principales campos de aplicación han sido la
astrofísica y la cosmología.
La física newtoniana pierde también su validez cuando se trata de fenómenos físicos que
ocurren sobre distancias atómicas. El electrón, partícula constituyente del átomo, fue
descubierto en 1897 por J. J. Thomson, y la estructura del átomo fue elucidada por
Ernest Rutherford en 1911. A fines del año 1900, Max Planck publicó un artículo en el
que mostraba que cierta forma de radiación luminosa podía explicarse si uno suponía que
la luz existe en paquetes de energía, que se pueden contar de uno en uno. Para Planck, su
método era sólo una curiosidad matemática, pero, cuatro años después, Einstein mostró
que los paquetes de energía debían ser reales. Esto permitió a Niels Bohr desarrollar su
teoría atómica, en la que el átomo es parecido a un sistema solar, con el núcleo en el
centro y los electrones girando alrededor como planetas; la diferencia fundamental, sin
embargo, es que los electrones sólo pueden estar en órbitas bien definidas y efectúan
“saltos cuánticos” de una órbita a otra en forma totalmente impredecible. Con esto
terminaba el determinismo implícito en la mecánica clásica. De hecho, Bohr insistió
688
El Hijo de El Cronopio No. 65
siempre en que, con la mecánica cuántica, debíamos renunciar a la pretensión de
entender el mundo atómico con conceptos propios de nuestro mundo macroscópico.
La mecánica cuántica alcanzó su consolidación en los años veinte y treinta gracias a los
trabajos teóricos de Werner Heisenberg, Erwin Schrödinger, Paul Dirac y muchos más.
La nueva teoría no sólo modificó los conceptos de espacio y tiempo, sino que llegó a
replantear el problema filosófico de la existencia de una realidad objetiva. En la
interpretación de Bohr y Heisenberg de la mecánica cuántica, el sujeto que observa al
mundo no puede abstraerse de lo que observa, y el mundo que ve y estudia es producto,
en parte, de lo que él mismo contribuyó por medio de sus aparatos de observación.
Así, la primera mitad del siglo XX presenció una profunda revolución de nuestros
conceptos fundamentales sobre el espacio, el tiempo, la causalidad y la realidad objetiva.
Los primeros frutos prácticos de esa revolución habrían de aparecer durante la Segunda
Guerra, desgraciadamente en la forma trágica que todos conocemos. A partir de
Hiroshima, el mundo empezó a tomar en serio lo que parecían curiosidades científicas.
Por fortuna, las importantes aplicaciones que vinieron después no cayeron directamente
en las garras de los políticos y militares, y pudieron utilizarse para provecho de la
humanidad, incluyendo la misma energía nuclear que tan trágico inicio tuvo. El transistor
y el láser son los ejemplos más conocidos de las aplicaciones tecnológicas que surgieron
gracias a la física cuántica.
Si bien podemos esperar notables adelantos tecnológicos en el siglo XXI, por ahora es
imposible imaginar una revolución equivalente al del siglo XX en cuanto a su impacto en
conceptos fundamentales.
Noticias de la Ciencia y la Tecnología
¿Una limpia? Pruebe con café
Sobran razones para ingerir café: despertar del todo, ponerse alerta, agarrar de plano la
onda..., ¡ah!, y descontaminar el agua que uno bebe. Resulta que el agua del grifo, que
puede adquirir metales pesados a su paso por depósitos, tuberías de cobre y plastas de
soldadura, pierde hasta 98 por ciento de estas moléculas indeseables con sólo hacerla
pasar por un volumen de café molido. Incluso si se trata de uno de esos insípidos y
agüitados cafés preparados por goteo, el agua saldrá del filtro notablemente más pura que
como entró. "El proceso de preparación del café retira de 78 a 90 por ciento del cobre y
plomo del agua que entra", escriben los autores de un estudio por publicar en la revista
Human and Ecological Risk Assessment. "Proponemos que el factor principal es el
tiempo de contacto" entre el café molido y el agua, precisan. Las moléculas de café
molido, con carga eléctrica negativa, atraen a los iones metálicos positivos, explican los
autores (el australiano Mike McLaughlin, el estadounidense Herbert Allen y el chileno
Gustavo Lagos). Descontaminar las galletitas es otro cuento, desde luego.
Contra los relámpagos
Un académico de la Staffordshire University está trabajando para proteger del impacto de
los relámpagos a las vulnerables líneas eléctricas.
689
El Hijo de El Cronopio No. 65
Parece un sistema ideado para una película de James Bond, pero sólo pretende ayudar a
evitar los efectos de la caídas de relámpagos sobre las líneas eléctricas. El doctor Moofik
Al-Tai, de la Staffordshire University, en cooperación con la japonesa Osaka University,
está desarrollando este sistema que consiste en un rayo láser y varios espejos que desvían
el relámpago hacia un lugar más seguro.
Cuando las ílneas eléctricas son alcanzadas por un rayo, éstas pueden sufrir un pico de
energía que, viajando a la velocidad de la luz, podría llegar a tener efectos explosivos e
incluso letales.
A diferencia de los pararrayos, cuya presencia es poco activa, el invento de Al-Tai
implica dirigir un rayo láser hacia las nubes de tormenta. Este rayo se encargará entonces
de guiar el relámpago hacia tierra, lejos de las líneas eléctricas.
El equipo podría instalarse para proteger hospitales y escuelas, por ejemplo, donde una
subida de tensión puede acabar con caros instrumentos, interrumpir una clase o poner en
peligro a muchas personas.
El principal problema, sin embargo, es que el sistema sólo puede encargarse de un
relámpago sencillo a la vez. Una tormenta puede lanzar centenares y miles de ellos en
poco tiempo, y también provocar algunos con numerosas ramificaciones. El grupo de
investigadores está estudiando esta cuestión para intentar resolverla lo antes posible.
Meteoro sobre Yukon
Los habitantes de una remota región del Canadá han tenido la fortuna de contemplar la
caída de un meteoro realmente espectacular, uno de los más notables acaecidos durante
los pasados diez años.
No se trata de un fenómeno inhabitual, pero la caída de grandes meteoros sobre la Tierra
siempre se convierte en una curiosidad científica que vale la pena investigar.
El 18 de enero, hacia las 16:45 UTC, una enorme bola de fuego iluminó los cielos del
territorio canadiense del Yukon. Numerosos testigos situados en tierra manifestaron
haber oído, al mismo tiempo, dos estallidos sónicos y una especie de silbido,
acompañados por un extraño olor en el aire.
El acontecimiento tuvo también testigos electrónicos, satélites artificiales y estaciones
sísmicas. Basándose en sus observaciones, los científicos creen que el meteoro que
penetró en la atmósfera detonó en ella con una energía de entre 2 y 3 kilotones de TNT.
No es gran cosa, en términos cósmicos, pero el meteoro se ha convertido en uno de los
más espectaculares ocurridos durante la última década. Tras el "flash" inicial, el objeto
dejó una cola de vapor rojizo que tardó al menos media hora en disiparse.
Estamos sin duda ante un meteoro esporádico, alejado de cualquier de las periódicas
lluvias de estrellas fugaces conocidas. De hecho, el Sistema Solar está lleno de partículas
de polvo errantes. Caen sobre la Tierra, como media, unas 2 ó 3 veces cada noche.
Normalmente son poco activas, pero en ocasiones, como la presente, son partículas de
cierta masa, capaces del despliegue luminoso descrito.
Tres días después del suceso, la NASA envió un avión científico ER-2 que atravesó
repetidamente la cada vez menos densa nube de residuos dejados en la atmósfera por el
meteoro, intentando capturar algunas muestras. También se han organizado búsquedas de
restos que puedan haber alcanzado el suelo, con la esperanza de que nos proporcionen
más pistas sobre su origen y composición. No es fácil, ya que la región está casi
deshabitada.
690
El Hijo de El Cronopio No. 65
El avión ER-2 tomó muestras mediante un instrumento especial llamado Aerosol
Particulate Sampler (APS). También transportó cámaras de alta resolución para intentar
fotografiar la superficie en busca de signos de destrucción en los bosques o de la
presencia de pequeños cráteres.
Información adicional en: http://spacescience.com/headlines/y2000/ast25jan_1.htm
Imagen (Animación): http://spacescience.com/headlines/images/yukon/smoketrail.gif
(Cola de gases dejada por el meteoro.)(Foto: Ewald Lemke)
Aún hay esperanzas para la Mars Polar Lander
Justo cuando la NASA había anunciado que abandonaba la búsqueda de señales de la
sonda Mars Polar Lander, el análisis de las que se registraron hace algunas semanas
sugiere que la nave podría haber contestado, aunque débilmente, a la llamada de los
científicos.
En ocasiones, tirar la toalla es un signo inequívoco de que ya no hay nada que hacer.
Pero entonces, puede surgir la sorpresa.
El 18 de diciembre y el 4 de enero, los controladores de la misión Mars Polar Lander
enviaron diversas órdenes a la sonda marciana, instruyéndola para que enviara señales, si
era posible, en dirección a la antena de 45 metros de diámetro de la Stanford University.
Un análisis preliminar no reveló nada destacable, pero un procesamiento de la
información más profundo ha puesto de manifiesto una muy débil señal de clara
procedencia artificial. Los técnicos creen que podría ser de la MPL.
Paralelamente, la NASA había declarado ya que abandonaba todo intento de establecer el
contacto. Todo parecía indicar que la nave se estrelló tras completar su fase descenso en
dirección a las cercanías de uno de los polos marcianos, o quizá algún problema técnico
definitivo había impedido su operación normal.
Las noticias procedentes de la Stanford University, por supuesto, han cambiado las cosas.
Si las débiles señales captadas son de la sonda, eso significaría que la antena de
transmisión de la MPL está dañada, o quizá que el vehículo ha volcado, lo que le impide
dirigirla con precisión. Algo parecido ya ocurrió hace muchos años durante una misión
soviética hacia la superficie de Venus.
Por si acaso, la Stanford University envió otra serie de órdenes hacia Marte el 25 de
enero, intentando comprobar si la señal era realmente de la MPL o no. Dichas órdenes
debían hacer que la sonda contestase el 26 de enero. La confirmación de esta respuesta,
sin embargo, necesitaría de varios días de análisis y procesamiento.
La señal detectada por la antena de Stanford es artificial, pero también podría haber sido
generada en la Tierra o cerca de ella. Si la MPL es la responsable de dicha señal,
implicaría que el sistema de transmisión en banda X de la sonda no funciona bien, pero
también que el sistema secundario que permite un contacto a través de la Mars Global
Surveyor, en órbita alrededor del planeta, tampoco está actuando como debe.
Problemas ambos de difícil solución, pero que al menos podrían ayudar a confirmar que
la nave sí aterrizó de una pieza. El principal interés del personal técnico es saber qué ha
ocurrido exactamente, para tomar las medidas oportunas que eviten que vuelva a suceder
en una futura misión. No es lo mismo saber que la MPL ha tenido mala suerte al
encontrar un territorio inhóspito, que tener la certeza de que el diseño de la nave es
691
El Hijo de El Cronopio No. 65
erróneo. Recordemos que de momento se ha suspendido el lanzamiento de un vehículo
casi idéntico en el 2001.
La señal de UHF detectada por la Stanford es muy débil, de tan sólo 1 vatio, algo así
como ver la luz de una bombilla de un árbol de Navidad a la distancia de Marte. Este tipo
de señales deberían ser captadas por la Mars Global Surveyor y no directamente por las
antenas de la Tierra. Si fuera posible confirmar su procedencia, los ingenieros tratarían
de conseguir información de los sistemas de la nave, pero se descarta casi totalmente que
ésta pueda utilizarse de forma científica. En unas semanas más, las temperaturas en la
zona de aterrizaje habrán bajado tanto que sus sistemas fallarán definitivamente.
La NASA ha solicitado la ayuda de observatorios radioastronómicos de Italia, Holanda y
Gran Bretaña, para la localización de la señal. Por el momento no se ha anunciado
ningún tipo de detección, y los ingenieros siguen trabajando en ello. Por ejemplo, el 1 y 2
de febrero se han enviado nuevas órdenes en dirección a Marte, órdenes que le dicen a la
MPL, básicamente, que reinicialice su reloj interno y que comunique con la Tierra. Se
han previsto otros intentos a partir del 4 de febrero, gracias a la participación de las
antenas italianas, británicas y holandesas.
Información adicional en: http://spacescience.com/headlines/y2000/ast27jan_1.htm
http://nova.stanford.edu/~joe/dish.html
http://mars.jpl.nasa.gov/msp98/news/mpl000125.html
Imagen: http://nova.stanford.edu/~joe/images/su-tour-dish.jpg
(La antena de Stanford.) (Stanford University)
La historia del coral
Personal bien entrenado puede obtener valiosa información climatológica a partir del
estudio de los arrecifes de coral.
Julia Cole es una geocientífico de la University of Arizona con una rara habilidad. Ella y
algunos de sus colegas procedentes de Kenia y de la misma California han sido capaces
de reconstruir los últimos 194 años de historia de las temperaturas de una región
oceánica en particular, gracias al cuidadoso estudio de los anillos anuales de crecimiento
de los arrecifes de coral de esta zona, en Kenia.
El examen de este registro les ha permitido establecer una relación entre el famoso
fenómeno meteorológico de El Niño y los cambios climatológicos cíclicos que se
experimentan en esta región.
El Niño trae más lluvia hasta Africa Oriental, pero también calienta las aguas oceánicas
en este punto. Esto influye en el crecimiento del coral, lo que sirve como registro de las
condiciones del momento. Esto es interesante, ya que las mediciones de la temperatura
oceánica con instrumental fiable datan de tan sólo unas pocas décadas atrás, mientras que
el coral ofrece un espectro de casi dos siglos.
Esto ayudará mucho a los científicos que están estudiando El Niño, ya que podrán
comprobar su influencia a más largo plazo. El nivel actual de salida de gases invernadero
hacia la atmósfera podría estar enmascarando esta influencia, este ciclo anual de
temperaturas.
El coral estudiado por Cole y sus colegas se encuentra en Malindi. Dichos trabajos
sugieren que desde 1901 hasta ahora la temperatura del agua se ha visto aumentada en
unos 2 grados F, siendo las dos últimas décadas las más cálidas hasta el momento.
692
El Hijo de El Cronopio No. 65
Cuando las temperaturas aumentan, el coral responde incorporando oxígeno menos
pesado a su esqueleto. La proporción entre el oxígeno pesado y el oxígeno ligero
presente en los esqueletos del coral puede ser medido con una precisión de 1 entre
10.000. Así, los anillos de crecimiento del coral sirven como calendario y como
termómetro naturales.
Información adicional en:
http://uanews.opi.arizona.edu/cgibin/WebObjects/ScienceResearch.woa/wa/StoryDetails?ArticleID=1000
Imagen: http://graucho.opi.arizona.edu/images/julia1p.jpg
(Los científicos estudian el coral.) (Foto: Julia Cole)
El origen de las esmeraldas
Las bonitas esmeraldas de los tesoros de la antigüedad tienen una procedencia un tanto
misteriosa.
Los expertos no saben a ciencia cierta de dónde proceden muchas de las esmeraldas
pertenecientes a los magnos tesoros de la antigüedad. Esto es especialmente cierto para
un tipo de gemas con las que los mercaderes indios comerciaron en todo el mundo a
partir del siglo XVII.
Las esmeraldas antiguas, de importancia histórica, necesitan un método de autenticación
fiable. Centros como el Institut de Recherche Pour le Développement o el Centre de
Recherches Pétrographiques et Géochimiques de Nancy han conseguido recientemente
realizar un seguimiento de las rutas de comercio seguidas por las esmeraldas a través de
los siglos. Algunas de ellas, curiosamente, pertenecen a minas que se creía habían sido
descubiertas sólo en el siglo XX. Como símbolo de inmortalidad y poder, las esmeraldas
han tenido una gran demanda desde hace mucho tiempo. A pesar de los análisis
gemológicos, el origen de las que pertenecen a los tesoros de la antigüedad sigue siendo
incierto, casi misterioso.
Muchas se acumularon a partir del siglo XVI, lo que hace sospechar que surgieron de
minas del sudeste de Asia, ahora desaparecidas. Las minas del medio y lejano Oriente
serían más recientes, del siglo XX.
Para aclararlo, los especialistas han empezado a usar un método de catalogación
moderno. Mediante espectrometría, se mide la proporción entre los isótopos de oxígeno
160 y 180 en las moléculas de oxígeno emitidas durante una reacción química provocada
en una muestra de la gema. La composición isotópica depende de la roca en la que
cristalizó, identificando claramente el depósito de procedencia.
Utilizando esta propiedad, se han catalogado los contenidos de las minas más
importantes conocidas (62 depósitos en 19 países), lo que permite hacer comparaciones
con las esmeraldas que deseemos.
Hasta ahora se creía que las minas de Egipto, explotadas por los faraones entre el 3000 y
el 1500 antes de nuestra era, y las de Habachtal, en Austria, descubiertas por los celtas,
eran las únicas fuentes de esmeraldas en el mundo antiguo hasta 1545, momento en que
los Conquistadores Españoles tomaron posesión de las minas Colombianas.
Esto se ha confirmado tras el análisis de varios ejemplares procedentes de un tesoro galoromano, pero en él se encuentran también otras esmeraldas que han resultado proceder de
una mina de Pakistán, la cual se creía descubierta sólo desde los años 1950. Los
693
El Hijo de El Cronopio No. 65
especialistas piensan que conforme se vayan analizando otras gemas de este tipo, se
comprobará que muchas esmeraldas tenían procedencias distintas a las esperadas.
Información adicional en: http://www.aaas.org/
Armada robótica
Multitud de robots sin mente podrán realizar tareas complejas sin llegar a comunicarse
entre ellos.
Algunas propuestas visionarias contemplan la utilización de ejércitos de robots
inteligentes, los cuales, comunicándose entre sí, podrán realizar tareas muy sofisticadas,
como construir una colonia marciana.
Sin embargo, un experto canadiense en robótica cree que no es necesario esperar a
desarrollar robots inteligentes para conseguirlo. Otros, mucho más baratos, sin capacidad
de entablar contacto entre ellos, pueden realizar también trabajos de cierta complejidad.
Su inspiración, como ocurre a menudo, se encuentra en la naturaleza: las hormigas.
Las hormigas muestran un comportamiento no comunicativo cuando combinan sus
esfuerzos para transportar grandes fragmentos de comida, como hojas. Si observamos
una hormiga en particular, parece comportarse de forma caótica e incluso improductiva.
En cambio, el grupo de hormigas como un todo muestra una forma de inteligencia a
pesar de la ausencia de un control central. Ronald Kube, del Edmonton Research Park,
de Alberta, ha intentado reproducir esto con un pequeño grupo experimental de robots.
Como son baratos de construir, no importa si algunos de ellos se pierden durante el
trabajo. En cambio, un control central es un punto débil que si falla dejará a todo el
equipo inoperativo. Kube ha preparado pues seis robots intrínsecamente estúpidos, cuyo
único objetivo es buscar un lugar donde obtener comida, en este caso un punto luminoso
en una caja. La caja es demasiado pesada para que un solo robot la empuje. Una vez
localizada, el robot debe establecer si se encuentra orientado hacia una segunda luz en el
techo, en el otro extremo del campo, la cual representa el nido. Si lo está, intentará
empujar la caja, en caso contrario, girará en círculos hasta que la encuentre de nuevo,
momento que aprovechará para volver a evaluar si puede o no empujarla.
El comportamiento de los robots, como el de las hormigas, parece caótico, pero éstos, sin
necesidad de comunicarse con sus compañeros, se benefician del trabajo mutuo para
conseguir el objetivo. (New Scientist)
Indicadores del cambio planetario
Los lagos y las corrientes de alta montaña son un buen síntoma de lo que le está
ocurriendo a nuestro planeta a nivel climático.
Del 4 al 8 de septiembre de 2000 se celebrará en Innsbruck (Austria) una conferencia
científica internacional abierta sobre "Lagos y corrientes de alta montaña: indicadores del
cambio planetario". La conferencia se centrará en los trabajos financiados a través del
programa específico de investigación en los ámbitos de la energía, el medio ambiente y
el desarrollo sostenible de la Comisión Europea.
La quinta parte del planeta son montañas, en las que viven el 10 por ciento de la
población mundial. Los ecosistemas montañosos remotos, en particular lagos y ríos, van
694
El Hijo de El Cronopio No. 65
cobrando creciente interés, tanto para los investigadores como para el público en general,
por ser ol s únicos vestigios de ecosistemas naturales en un mundo densamente poblado.
Los lagos y ríos de alta montaña brindan a los investigadores valiosos instrumentos de
representación de condiciones remotas y extremas de temperatura, radiación y biología,
por ejemplo. La sensibilidad de estas zonas a las fluctuaciones del medio ambiente ha
contribuido a que los científicos conozcan mejor las fuerzas y respuestas, así como la
acción y reacción en los ecosistemas acuáticos en general. Esta sensibilidad, sin
embargo, hace gravitar una verdadera amenaza sobre los organismos, hábitats y
ecosistemas que se deriva, de forma esencialmente indirecta, de la actividad antrópica
(tales como el calentamiento del planeta y la contaminación atmosférica).
El simposio tratará seis temas genéricos:
Fuerzas físicas: efectos climatológicos (retirada de los glaciares, radiación solar,
temperatura, nieve y hielo como fuerzas dominantes en los entornos montañosos);
estabilidad de los hábitats: inundaciones y sequías (factores de conformación de la
morfología y comunidades bióticas).
Aportaciones y flujos: nutrientes y contaminantes (¿remotos?); ácidos y polvo
(competencia en grandes alturas, acumulación de metales y sustancias organocloradas);
definición de modelos y presupuestos;
Modelos y procesos bióticos; estructura y dinámica (desde los virus hasta los
invertebrados); sucesión y comunidades (su impacto en los flujos y ciclos de elementos y
contaminantes; supervivencia de especies raras y amenazadas).
Vida bajo estrés: ¿qué respuesta anteponen los organismos a los altos niveles de estrés
(combinación de factores de presión) en los entornos de alta montaña? Indicadores de
estrés, desde el productor primario hasta el usuario final, incluida la fisiología del pez.
Perspectiva histórica: de estaciones y siglos (extracción de muestras y datación); inferir
el pasado (evolución natural versus efectos humanos).
Hiatos y perspectivas: conectar las cuencas hidrológicas a cada lago y río, y lo que se
olvidó en el pasado.
En el curso del simposio se presentarán los resultados de largos años de proyectos
interdisciplinarios a gran escala dedicados a lagos y ríos lejanos de montaña, y
financiados en el marco de los programas de medio ambiente y clima de la Unión
Europea. Asimismo se brindará un foro de intercambio de experiencias de investigadores
de todo el mundo, tras lo cual se transmitirán las correspondientes enseñanzas a
autoridades decisorias y responsables políticos, así como a gestores medioambientales.
Moléculas en 3d
Los científicos nos muestran por primera vez, y en tres dimensiones, cómo se rompen las
moléculas al ser expuestas a los rayos-X.
Se dice a menudo que ver es creer. Conscientes de ello, los científicos del Weizmann
Institute han logrado obtener imágenes tridimensionales de un proceso normalmente
invisible para nuestros ojos.
Durante el estudio de uno de los enzimas más intrigantes de la naturaleza, la
acetilcolinasterasa (AchE), que tiene un papel crucial en la memoria y otras funciones del
cerebro, el equipo decidió examinar su reacción enzimática a "tiempo real", utilizando
695
El Hijo de El Cronopio No. 65
para ello cristalografía de rayos-X. Esta consiste en exponer cristales del enzima a
chorros de rayos-X de alta intensidad.
Tras el primer intento, los investigadores han constatado la obtención de la primera
visualización tridimensional de la rotura (inducida por radiación) de los enlaces químicos
en la proteína.
Dichas imágenes pueden tener implicaciones a la hora de mejorar nuestro conocimiento
del daño que las radiaciones pueden provocar a los seres vivos. Dado que somos
expuestos a menudo a todo tipo de radiaciones que pueden ocasionar cáncer y otras
enfermedades, la citada información ayudará a desarrollar medios farmacológicos para
protegernos de tales daños, incluso en casos extremos como el accidente de la planta
nuclear de Chernobil.
Información adicional en: http://www.weizmann.ac.il/~cskryger/Radiation_Damage/
http://wiswander.weizmann.ac.il/weizmann/doa_iis.dll/Serve/item/English/1.200.6.3.html
Imagen: http://wis-wander.weizmann.ac.il/english/img/press_release/S_zusman.jpg
(La radiación de rayos-X procedente de un sincrotrón puede dañar rápidamente la
estructura de la proteína.)
Noticias de la Facultad
Exámenes profesionales
En el periodo comprendido del 4 de febrero a la fecha se han realizado 7 exámenes
profesionales de los estudiantes que se mencionan a continuación:
Martín de la Cruz Martínez
Presentó su examen el 4 de febrero para obtener el título de Profesor de Matemáticas,
con la presentación de la tesis: Relatos de vida docente. La tesis fue asesorada por M. en
C. Edith Miriam Soto Pérez.
J. Carmelo Flores Gutiérrez
Presentó su examen el 4 de febrero para obtener el título de Licenciado en Matemáticas
mediante la alternativa de realización de un semestre de maestría con promedio superior
o igual al ocho.
Santos Hernández Hernández
Presentó su examen el 11 de febrero para obtener el título de Licenciado en Matemáticas
mediante la alternativa de realización de un semestre de maestría con promedio superior
o igual al ocho.
María del Carmen Franco Grimaldo
Presentó su examen el 11 de febrero para obtener el
mediante la alternativa de realización de un semestre de
o igual al ocho.
Nelly Martínez Méndez
Presentó su examen el 11 de febrero para obtener el
mediante la alternativa de realización de un semestre de
o igual al ocho.
696
título de Ingeniero Electrónico
maestría con promedio superior
título de Ingeniero Electrónico
maestría con promedio superior
El Hijo de El Cronopio No. 65
Roberto Castañeda Moreno
Presentó su examen el 11 de febrero para obtener el título de Profesor en Matemáticas
mediante la presentación de la tesis: Relato de vida: una perspectiva de la formación del
profesor de matemáticas. La tesis fue asesorada por el Mat. Froylán Marín Sánchez.
María Luisa Vázquez Nieves
Presentó su examen el 11 de febrero para obtener el título de Profesor en Matemáticas
mediante la presentación de la tesis: Experiencias docentes de egresados de la carrera
de profesor de matemáticas. La tesis fue asesorada por la Mat. Silvia E. Sermeño Lima.
La Ciencia desde el Macuiltépetl/ El valor de la ciencia
Por Manuel Martínez Morales
En 1905, el célebre físico matemático Henri Poincaré publicó El valor de la ciencia, obra
en la cual se propuso defender la actividad científica frente a la oleada de creciente
negativismo y escepticismo sobre la ciencia y sus logros. Algunos, impresionados por la
inestabilidad de las teorías científicas en esa época, proclamaban estridentemente la
bancarrota de la ciencia; otros, llegaron a expresar que la ciencia era una creación
artificial del hombre sin conexión alguna con el mundo físico. Hoy, casi 80 años después
de la apasionada y lúcida defensa de la ciencia y su valor por Poincaré, son pocos de los
que se atreverían a hacer tales cuestionamientos. Se reconoce la correspondencia entre
las teorías científicas y la realidad, y también se admiten las limitaciones del
conocimiento científico. Sabemos que no existe un conocimiento absoluto e inmutable
del universo y del hombre; toda teoría es provisional y está sujeta a constantes
confrontaciones con la realidad. La ciencia está en continua transformación, las teorías
cambian, los métodos se renuevan, se estudian nuevos fenómenos.
El avance científico y tecnológico alcanzado en lo que va del siglo, supera a todo lo
realizado anteriormente por el hombre. Cosas cuya existencia era considerada imposible,
en el siglo pasado, hoy forman parte de nuestra vida cotidiana: el automóvil, la
televisión, las computadoras, los fármacos, etc. Desafortunadamente, la investigación
científica también ha contribuido a la producción de artefactos con gran poder
destructivo que van desde sofisticadas armas convencionales hasta la temible bomba
atómica, pasando por toda una variedad de armamento no convencional como las
llamadas armas químicas, biológicas y psicológicas.
En la actualidad, los críticos más tenaces de la ciencia parten precisamente de este
aspecto negativo del quehacer científico: la aplicación de la ciencia para producir
artefactos que causen la mayor destrucción posible. Es ya factible la aniquilación total de
la especie humana y la degradación absoluta de la biosfera terrestre. De ahí que surja la
equivocada conclusión de que la ciencia sólo traerá males a la humanidad y que, por
tanto, se hace necesario prescindir de ella. En Estados Unidos de Norteamérica y en
Europa Occidental se han organizado numerosos grupos y asociaciones políticas que
avalan esa postura. Su posición no es del todo injustificada, pues una gran parte de la
investigación científica se orienta precisamente hacia aplicaciones militares. Según el
científico argentino Amílcar O. Herrera.
697
El Hijo de El Cronopio No. 65
Se estima que desde la Segunda Guerra Mundial, al menos 40% de
los recursos de ciencia y tecnología mundiales ha sido dedicado a la
investigación militar. E.U., URSS, China, Francia, Alemania
Federal y Gran Bretaña, son responsables del 96-97% del gasto. El
número total de científicos e ingenieros que trabajan en la tarea de
ciencia y tecnología mundial es de alrededor de 3 millones; 25% de
ellos –cerca de 750 000- están comprometidos en investigación
militar. (La larga jornada: La crisis nuclear y el destino biológico
del hombre, Siglo XXI, 1981).
Si bien estos datos acrecientan el temor de un destino trágico para la humanidad, no por
ello debe restarse importancia al efecto positivo que la aplicación de la ciencia ha tenido
en muchos terrenos tales como: mayor producción y calidad de alimentos, desarrollo de
fuentes de energía, fabricación de medicamentos, educación, planificación económica.
En fin, la orientación adecuada de la investigación científica y tecnológica ha contribuido
enormemente a posibilitar la elevación de la calidad de vida humana.
Este aspecto positivo de la ciencia es particularmente importante para un país como el
nuestro donde, en el presente, tenemos que importar desde el maíz y fríjol, alimentos
básicos del pueblo, hasta los ingredientes para elaborar pasta de dientes. México cuenta
con suficientes recursos naturales y humanos como para iniciar un proceso de grandes
transformaciones económicas y sociales que se traduzcan en mejores niveles de vida para
todos sus habitantes. En la base de este proceso, la ciencia y la tecnología deben ocupar
un lugar preponderante. Está demostrado que pueden lograrse resultados impresionantes
de utilidad inmediata. Por ejemplo, según información del Consejo Nacional de Ciencia
y Tecnología, a partir de 1960, se han realizado experimentos con nuevas variedades de
maíz más resistentes a las plagas y a las variaciones climáticas, lográndose, en 1980, un
rendimiento de hasta 1770 kilogramos por hectárea. Así como en la agricultura pueden
lograrse avances en poco tiempo, lo mismo puede decirse respecto a la industria, a la
educación y a la salud.
Sin embargo, el desarrollo científico en México es todavía incipiente; según datos de
CONACyT, en 1979, había en el país 2.4 investigadores por cada 10 000 habitantes,
mientras que en Argentina, esa cifra era de 5.6, y en Estados Unidos de Norteamérica,
26.0. El gasto en Investigaciones y Desarrollo, con relación al Producto Nacional Bruto,
alcanzó, en 1982, sólo 0.6%, cuando la meta propuesta era de 1%. En países con alto
grado de desarrollo (Japón, ex URSS, Estados Unidos de Norteamérica, Gran Bretaña,
Francia), la inversión en ciencia y tecnología está por arriba de 2% del PNB.
Estimaciones del propio CONACyT indican que, en 1980, México invirtió más de 6 mil
millones de pesos en la compra de bienes de capital y, en 1982, gastó más de 10 mil
millones de pesos por concepto de transferencia de tecnología, marcas, patentes, regalías
y asesoría técnica. Estas cifras indican que la atención dada a la ciencia en nuestro país
no es suficiente. Entiéndase que no se trata sólo de incrementar la cantidad de recursos
asignados a ciencia y tecnología, ni de competir con otros países, sino de articular un
proyecto de desarrollo acorde con las necesidades más urgentes del país
El ideograma chino que representa crisis, está formado por dos ideogramas: uno que
significa “riesgo” y el otro “oportunidad”. El riesgo de la crisis actual consiste en dejar
inertes las enormes fuerzas productivas de que el país dispone y caer en una pendiente de
creciente dependencia económica y, por consiguiente, política, que, en términos llanos,
significará más pobreza para la mayoría de los mexicanos. La paradoja de padecer
698
El Hijo de El Cronopio No. 65
hambre en medio de abundantes recursos queda ilustrada perfectamente en la siguiente
metáfora de Herrera:
Si Dios hubiera tenido la misma imaginación o los mismos intereses creados de las
clases dirigentes, Adán y Eva en el paraíso habrían muerto de hambre; tenían a su
disposición un sistema productivo que no requería de ningún esfuerzo humano, pero eran
desempleados y, por lo tanto, no tenían un salario para comprar sus productos.
La oportunidad que la crisis ofrece es la opción de un desarrollo transformador, en el
cual la vida y la dignidad humana recuperen su valor. La ciencia y la tecnología son, en
este sentido, instrumentos imprescindibles en el proceso de recuperación de los nuestro.
No estamos ya en los tiempos en que Poincaré tenía que defender la ciencia ante sus
detractores. El valor de la ciencia como elemento de conocimiento y transformación de la
realidad es ahora incuestionable; está ausente la voluntad para desarrollarla plenamente y
ponerla al servicio del hombre.
Se hace necesario, en este tiempo y lugar, revalorar la ciencia y su función para darle la
importancia que debe tener como factor primordial de desarrollo social. La ciencia no
sólo contribuye a mejorar el aprovechamiento de los recursos materiales, sino además,
un elemento central en la cultura de una sociedad. La ciencia no es sólo un conjunto de
teorías y métodos para hacer ciertas cosas, es también una concepción del mundo y de
nosotros mismos. Entendida en el más amplio sentido, la ciencia complementa y vigoriza
las concepciones estéticas y éticas del hombre. Decía Poincaré: “Si queremos liberar,
cada vez más al hombre de sus preocupaciones materiales, es para que pueda emplear su
libertad reconquistada en el estudio y la contemplación de la verdad”.
Debemos convencernos de que la ciencia no es un lujo ni una actividad superflua. Es,
como ya se dijo, un elemento de primera importancia para el desarrollo social. Nada
mejor para concluir que una brillante reflexión de Amílcar Herrera en la cual expresa,
con toda claridad, la importancia que la ciencia debe tener para nosotros, aquí y ahora:
Por primera vez en la historia la humanidad posee el conocimiento necesario para
resolver todos los problemas conectados con las bases materiales de la vida. En otras
palabras, el conocimiento científico y tecnológico a disposición de la humanidad, si se
usa racionalmente, puede asegurar que cada ser humano, ahora y en un futuro previsible,
pueda tener un nivel de vida, que no sólo lo provea en sus necesidades básicas
materiales, sino que también le asegure la plena y activa incorporación a su cultura. La
miseria y privación de gran parte de la humanidad no son el resultado inevitable de un
incompleto control de nuestro medio físico, sino del uso irracional de los instrumentos
científicos y tecnológicos a nuestra disposición. Esta verdad elemental es bien conocida
por todos los científicos que se ocupan de los problemas de subsistencia a nivel mundial;
si no ha alcanzado todavía la conciencia de toda humanidad es sólo porque es una verdad
que puede poner en peligro el mantenimiento de un orden internacional y social
básicamente injusto.
El Cabuche (crónicas de la Facultad de Ciencias)/ Trovadicción
Comenzamos un día, en los tiempos de siempre y todavía. Comenzamos felices a juntar
cicatrices, como buenas señales de los años. Dice poéticamente Silvio Rodríguez. Y en
ese proceso: la canción, entre drama y comedia. La canción compañera, virginal y
699
El Hijo de El Cronopio No. 65
ramera, la canción. La canción representa no sólo sentimientos y vivencias, suele
representar toda una forma de vida; sobre todo la canción que dice y sabe decir las
estructuras de pensamiento; la hay también simple y vana, para pasar el rato. Pero la
canción que trasciende es por que tiene muchas cosas que comunicar y cultivar, de esta
manera la poesía se vuelve canción. Este es el caso de la canción de la llamada Nueva
Trova Cubana, que en la década de los setenta marco un hito, como representante de la
lucha social; de aquella época a la actual esa tendencia ha evolucionado transformando el
tema de la canción cubana representada por la Nueva Trova, eso sí, conservando su
estructura poética y reflexiva. En una escuela como la de Física que se caracterizaba por
su papel crítico ante los acontecimientos sociales y por otro lado la postura rebelde como
respuesta a las acciones represoras que el estado mexicano emprendió en contra del
estudiantado nacional, en crueles actos criminales perpetrados en el 68 y el 71, la canción
de la Nueva Trova se convirtió en himno y en representante de inconformidades, así
como remedio espiritual, para crecer y transformarse. En 1974 cuando ingresé a la
entonces Escuela de Física, la Nueva Trova era totalmente desconocida para mí, me
costaba trabajo acostumbrarme al tema común de ese tipo de canción; el rock no era de
mi total gusto y disfrutaba de la música, en ese tiempo considerada vieja, mexicana, el
bolero de Gonzalo Curiel y muchos otros. Pero las notas de las canciones de Silvio
Rodríguez, Pablo Milanés, Noé Nicola, entre otros, se imponían en el ambiente de la
escuela a tal grado que acabó siendo de mi gusto, a partir de entonces caí en el vicio de la
trovadicción. El gusto se lo debo a la Escuela-Facultad; ¿quién dice que no puede formar
voluntades? De esta forma el papel de la escuela fue, no sólo formativo, también jugó un
papel catalizador en el sentido social y humano. Para la Escuela-Facultad la década de
los setenta estuvo, sin lugar a dudas, influenciada y representada por la música de la
Nueva Trova Cubana, trova que lideró el auge de las trovas latinoamericanas. A
principios de los ochenta, estando realizando mi maestría en la Universidad Autónoma
de Puebla, ahora Benemérita, tuve la fortuna de asistir a los conciertos universitarios que
año tras año organizaba la universidad poblana; conciertos gratuitos abiertos al público
en general en donde se presentaban grupos artísticos de alto nivel de todo el mundo; uno
de los conciertos realizado en el Auditorio de la Reforma, tuvo como protagonistas a los
máximos representantes de la Nueva Trova Cubana; ahí estaban construyendo y
reconstruyendo acordes y notas con sus inseparables guitarras, Silvio Rodríguez, Noé
Nicola y Pablo Milanés; exquisito concierto que cautivo mi sentimiento y pensamiento,
transportándome ligero a aquellos días pasados en los pasillos, salones y en fin, rincones
de la añorada escuela de física. Marcial Alejandro, trovador mexicano, canta
Yo no sé si soy del rock and roll/Si ando “speed” o ya ni
chuto a gol/Pero la garra que hay en la guitarra/ahorita me
salió/Es muy dura mi trovadicción/Lo que importa es que
haya canción/No hay tal abismo mientras uno mismo/se surte
la emoción/Ocasiones de bailar la rumba/y olvidar la
represión/Ocasiones de alegrar la turba/con la banda de la
población/¡Es trovar!/Lo que cuenta no es reír ni llorar/para
mí lo cuenta es trovar
700
Boletín
El Hijo de El Cronopio
Facultad de Ciencias
Universidad Autónoma de San Luis Potosí
No.66, 21 de febrero de 2000
Boletín de información científica y
tecnológica de la Facultad de Ciencias
Adiós a Benítez
Publicación semanal
Edición y textos
Fís. J. Refugio Martínez Mendoza
Cualquier información, artículo o
anuncio deberá enviarse al editor
e-mail: flash@galia.fc.uaslp.mx
Este boletín y números anteriores,
pueden consultarse por Internet en la
página de la UASLP:
http://phobos.dtc.uaslp.mx/publi.html
Periódico Reforma
El llamado "hermano mayor" de los
escritores, falleció ayer a causa de
un paro respiratorio. Creador de
suplementos culturales que hicieron
historia en el periodismo y de obras
ya clásicas como "El rey viejo" y los
cuatro tomos de reportajes "Los
indios de México", Fernando Benítez
recibe el homenaje de sus amigos.
Fuentes
"Hizo un periodismo vital y enérgico".
Poniatowska
"Veía el lado bueno de las cosas,
todo lo convertía en alegría".
Descanse en Paz
Fernando Benítez
Krauze
"Era un animador dinámico, no un
cacique cultural".
Zaid
"Suscitaba el ánimo creador y el
espíritu crítico".
El Hijo de El Cronopio No. 66
¿Nuevo estado de la materia?
Anuncia el CERN el plasma quark-gluón Científicos de 20 países parecen haber
conseguido un nuevo estado de la materia: un plasma cuya sola existencia refuerza la
compleja teoría que lo predijo décadas atrás
Por Javier Crúz para el periódico Reforma
El Centro Europeo de Investigaciones Científicas -CERN, basado en Suiza- ha
anunciado "evidencia convincente de la existencia de un nuevo estado de la materia en el
cual los quarks, en vez de estar confinados dentro de partículas más complejas como
protones o neutrones, se pasean libremente". Se trata de un estado que la teoría
cosmológica de consenso -la del Big Bang, o Gran Explosión- postula que debe haber
existido fugazmente sólo alrededor de los primeros 10 microsegundos del universo, antes
de que se formara la materia como la conocemos en la vida diaria. El hallazgo tendría
repercusiones también desde el punto de vista del entendimiento sobre cómo interactúan
las fuerzas elementales de la naturaleza. "Todas nuestras teorías acerca de la materia
descansan en la suposición de que partículas como los protones y neutrones están hechos
de quarks", explica un comunicado de prensa del CERN. "Pero nadie ha conseguido
aislar un quark".
Los quarks están entre los componentes más elementales de la materia. Su entorno es el
núcleo atómico, donde están confinados por la acción de otras partículas llamadas
gluones. La interacción entre ambas recuerda a un collar de cuentas atravesadas por una
banda elástica: si la banda está en reposo, las cuentas permanecen juntas; pero apenas se
intenta separarlas, el esfuerzo induce una reacción elástica contraria. A mayor
separación, mayor resistencia.
Es necesario alcanzar grandes cantidades de energía en el espacio del núcleo para liberar
a los quarks de su confinamiento. El resultado sería el nuevo estado de la materia: el
plasma quark-gluón.
"En este estado, los quarks podrían vagar libremente, en vez de estar 'confinados' en
bolsas del tamaño del núcleo, como lo están en la materia nuclear usual", precisa el
documento.
La Pequeña (Gran) Explosión
La teoría postula que el universo fue creado a partir de una Gran Explosión. Apenas unos
tres minutos después de ésta, los núcleos atómicos debieron ser formados. Pero los
precedieron otras formas de materia, y, antes incluso, tan sólo energía. Se especula que,
alrededor de los primeros 10 microsegundos después de la Gran Explosión, lo que había
era justamente un plasma quark-gluón.
Juan Carlos D'Olivo, del Centro de Ciencias Nucleares de la UNAM, ofrece este
contexto: "En los primeros instantes del universo se dan condiciones extremas de
densidad y temperatura. Hay un consenso, más o menos general, respecto de la existencia
de ese plasma en dicha etapa del Big Bang". Con objeto de reproducir esas condiciones
extremas, el CERN puso en marcha un proyecto experimental juguetonamente conocido
como "Little Bang". Su estrategia, en explicación de D'Olivo, se basa en lo siguiente:
"Con una pequeña cantidad de energía es posible sacar los átomos de las moléculas y los
electrones de los átomos. Con una mayor ener gía se consigue extraer los protones y
702
El Hijo de El Cronopio No. 66
neutrones de los núcleos atómicos". Podría haber, entonces, valores críticos de densidad
energética y temperatura por encima de los cuales se forma una fase desconfinada que
D'Olivo identifica como el plasma de quarks y gluones. Es esta fase, precisamente, la que
CERN cree haber manufacturado.
¿Cómo Ver los Quarks?
Los aceleradores de partículas permiten colisiones entre núcleos pesados a velocidades
enormes. El resultado puede compararse con un gas muy caliente. Conforme se expande,
la materia se enfría y podría llegar a condensarse. En esta analogía, el gas sería el plasma
quark-gluón, y la condensación de los quarks daría lugar a la formación de protones y
neutrones. Nada de esto ocurre sin dejar huellas en los detectores del experimento. Los
físicos miden, entonces, distintas señales (como las trayectorias de la fotografía). Según
el CERN, una de las más importantes señales de los quarks libres involucra a la partícula
llamada J-psi. Uno de los componentes de esta partícula debe formarse en las primeras
etapas de la colisión. Pero la teoría predice que la formación de J-psi sería suprimida por
la presencia del plasma. "Una reducción suficientemente fuerte en el número de J-psis
sugeriría que algo de plasma quark-gluón fue formado. "Eso es exactamente lo que los
físicos observaron", celebra el CERN. Pero no todo mundo está igual de contento.
Consultado por REFORMA, William Zajc, físico de altas energías en la Universidad de
Columbia, protesta: "Estas estimaciones están basadas en extrapolaciones de nuestras
teorías a regímenes de altas temperaturas y energías, donde esperaríamos que (las
teorías) fallasen". El alega que hay simulaciones por computadora que siguen la
evolución de cientos de partículas en una colisión virtual. Estas simulaciones predicen la
supresión de partículas J-psi sin necesidad de recurrir a la existencia del plasma. Para
horror de Zajc, CERN recurre a modelos más "caricaturescos", que "son una forma útil
de hacer física, pero inadecuados para sostener anuncios de nuevos estados de la
materia". Por su parte, Neil Calder, vocero del CERN y físico él mismo, concedió a la
revista Science que "aunque todas las piezas del rompecabezas parecen encajar, hace
falta una confirmación definitiva".
Noticias de la Ciencia y la Tecnología
Energía de residuos
El aprovechamiento de los residuos para generar energía no es una técnica nueva. Sin
embargo, sí lo es un proceso que permite obtener el doble de energía a partir de la misma
cantidad de basura.
Los hogares son cada vez más conscientes de que es necesario reciclar para reducir la
cantidad de basura que de otra manera acabaría alcanzando el medio ambiente. No
obstante, siempre permanecen una cierta cantidad de residuos con los cuales no podemos
hacer gran cosa.
Estos residuos pueden llegar a contaminar las aguas subterráneas, emitir gases
peligrosos, e incluso oler mal. Para solucionar este problema, se intenta tratarlos o
reducirlos, por ejemplo, mediante combustión o gracias a sistemas biológicos.
703
El Hijo de El Cronopio No. 66
Estos últimos son cada vez más apreciados, ya que además de disminuir el volumen de
los residuos, los bio-gases producidos durante la "digestión" biológica pueden ser
empleados para generar energía.
Investigadores del Fraunhofer Institute for Interfacial Engineering and Biotechnology
IGB de Stuttgart, y la empresa Schwarting-Uhde han desarrollado tecnologías apropiadas
para maximizar la efectividad de estos procesos.
Su método ha conseguido reducir la materia orgánica no húmeda, que supone alrededor
del 60 por ciento de la basura, en casi un 90 por ciento, doblando al mismo tiempo la
producción de bio-gas. El resultado final es una serie de productos sólidos inodoros, que
pueden ser depositados en zonas abiertas para ser enterrados. El sistema puede acoplarse
a cualquier planta de fermentación convencional, aunque resulta un poco caro.
En todo caso, se trata de una inversión pensando en el futuro, ya que los gobiernos tienen
la intención de poner en práctica leyes cada vez más severas en cuanto al tratamiento de
los residuos, quizá a partir del 2005. El medio ambiente, además, nos lo agradecerá.
Información adicional en: http://www.igb.fhg.de/Presse/dt/PI_Restmuell.dt.html
Imagen: http://www.igb.fhg.de/Presse/Bilder/Download/IGB_Restmuell.jpg
(Sistema de tratamiento de residuos.) (Foto: Fraunhofer)
Control aéreo a bordo
Los expertos se preguntan si es conveniente proporcionar a los pilotos de aviones una
mayor dosis de capacidad de control del tráfico aéreo.
Cuando el profesor nos entrega deberes para hacer en casa, no permanece detrás nuestro
vigilando si los hacemos. Eso sería una forma muy poco eficiente de enseñar.
Esta analogía podría aplicarse, sin embargo, a los papeles que desempeñan los
controladores aéreos y los pilotos de las líneas comerciales en el área de la gestión del
tráfico. Los primeros controlan tanto a los segundos que a menudo el nivel de eficiencia
no es la mejor. Esto hace que algunos expertos se pregunten si no sería conveniente que
los pilotos dispusiesen de herramientas que les permitiesen tomar decisiones sin la
colaboración de los controladores.
Ingenieros del Georgia Institute of Technology han creado un sistema de presentación de
información al piloto (Cockpit Display of Traffic Information) que permite a éste ver a
otros aviones a su alrededor y las distancias entre ellos.
Por el momento, nadie está preparado para quitar atribuciones a los controladores aéreos,
entre otras cosas porque éstos realizan muchas otras funciones, pero el sistema ya ha
empezado a ser instalado en algunos aviones para colaborar en las tareas de realización
de maniobras para evitar obstáculos.
Los inventores del CDTI creen, sin embargo, que con este sistema, los controladores
podrían pasar a dar órdenes de mayor rango a los pilotos y comunicarse con ellos de
forma más directa. Evitarían, por ejemplo, decirles a qué velocidad deben volar, para
darles en cambio información sobre los aviones que les preceden en el aterrizaje o cuán
lejos se encuentran de ellos.
Hay una fina línea de separación entre dar a los pilotos la información adecuada y
proporcionarles demasiados datos. Es por eso que el CDTI ha sido ensayado en
simuladores de manera repetida y también en vuelo de forma experimental.
En todo caso, la incorporación del CDTI es sólo un paso más hacia la inminente llegada
de nuevas tecnologías y nuevos métodos de control del tráfico aéreo, cada vez más
704
El Hijo de El Cronopio No. 66
numeroso y complejo de gestionar. El CDTI dará nuevas oportunidades de descubrir los
posibles errores que otros pilotos o los controladores puedan estar cometiendo,
permitiendo apreciar con 10 a 20 minutos de antelación si existe un peligro de colisión
aérea.
Información adicional en: http://www.gtri.gatech.edu/res-news/AIRTRAF.html
Imagen: http://www.gtri.gatech.edu/res-news/airtraf_b.jpg
(EL CDTI, en pruebas.) (Foto: Georgia Institute of Technology)
Europa fundamenta su candidatura
Se prolonga la sucesión de descubrimientos que fundamentan la posibilidad de que la
luna joviana Europa tenga vida bajo su costra helada.
Últimamente parece que no puede transcurrir una semana sin que nuevos trabajos de
investigación corroboren y apoyen la teoría de que el satélite de Júpiter que llamamos
Europa podría tener vida primitiva bajo su corteza de hielo, allá donde se cree existe un
océano líquido.
Los nuevos descubrimientos aportan nuevos elementos que propician la verosimilitud del
desarrollo de la vida en un ambiente no tan inhóspito para ella como podría suponerse.
El agua líquida que se encuentra oculta por el manto helado y sólido que cubre Europa es
un medio ideal para la proliferación de la vida. Vida que podría consistir en
microorganismos similares en tamaño y complejidad a las bacterias que se hallan en la
Tierra. Pero para que éstos existan, además de agua, el satélite debe ser capaz de producir
la energía necesaria para las reacciones químicas básicas que necesita la vida.
En este sentido van, precisamente, las últimas investigaciones realizadas. Según estos
estudios, la superficie de Europa resulta bombardeada constantemente por billones de
partículas cargadas procedentes de Júpiter. Esta radiación podría bastar para producir
moléculas orgánicas y oxidantes que sirvan para alimentar una biosfera notable.
En la Tierra, los organismos usan las moléculas de carbono como ladrillos básicos para
la vida, para construir cualquier cosa, desde las células al ADN. Muchos organismos
obtienen además su energía a partir de moléculas basadas en el carbono, como el azúcar.
Las plantas y las algas usan la energía del Sol para producir sus propias moléculas
orgánicas a partir del gas dióxido de carbono que obtienen del océano o la atmósfera
(fotosíntesis).
Ya que la corteza de Europa es demasiado gruesa para que la fotosíntesis sea viable, la
energía para sustentar la vida de su océano debería proceder de otro sitio. Estamos
hablando, por supuesto, de la radiación que procede de la atmósfera de Júpiter. La
magnetosfera de este planeta es diez veces más potente que la de la Tierra, así que
cuando los protones, electrones y otras partículas del espacio son atrapadas por ella, son
aceleradas a altísimas velocidades. Dado que la órbita de Europa se encuentra dentro del
campo magnético joviano, recibe un constante bombardeo de estas partículas o iones.
Cuando los iones chocan contra el hielo de la superficie de Europa, se pueden producir
reacciones químicas que transformen moléculas de agua congelada y dióxido de carbono
en nuevos componentes orgánicos como el formaldehído.
Curiosamente, la bacteria más común en la Tierra, el Hyphomicrobium, sobrevive gracias
al formaldehído, que es su única fuente de carbono. Bacterias similares podrían vivir sin
problemas en el océano de Europa.
705
El Hijo de El Cronopio No. 66
La radiación procedente de Júpiter también podría crear oxidantes, como oxígeno o
peróxido de hidrógeno, que pueden ser empleados para quemar el formaldehído y otros
combustibles basados en el carbono.
Por supuesto, debe haber algún modo para que estos componentes orgánicos y oxidantes
consigan atravesar la corteza de hielo, cuyo grosor es de entre 80 a 170 km. Las
imágenes de la sonda Galileo han demostrado que hay zonas de hielo fundido sobre la
superficie, de manera que puede haber pasos por los que los hipotéticos microbios
puedan alimentarse.
La superficie de Europa parece regenerarse de forma natural cada 10 millones de años.
Esto implica que las moléculas que ayudan al mantenimiento de la vida pueden alcanzar
su destino de una forma muy gradual.
Cálculos conservadores estiman que podría haber un microbio por centímetro cúbico en
el agua de Europa. Muy lejos de los cientos de miles que hay en el agua de la Tierra.
La NASA ya está preparando una misión llamada Europa Orbiter, que será colocada en
órbita alrededor de este satélite para comprobar si posee o no un océano subterráneo, a
partir del 2008. Es de esperar pues que en una década o menos tengamos muchos más
datos para confirmar o denegar las posibilidades de que exista vida en esta pequeña luna
de Júpiter. Imagen: http://photojournal.jpl.nasa.gov/tiff/PIA01642.tif
(Grietas y fallas sobre la superficie helada de Europa.) (Foto: JPL)
Evitando las discusiones
Ingenieros y otros profesionales pueden mostrarse a menudo en desacuerdo durante el
diseño de instalaciones complejas. Un nuevo sistema automático resolverá las disputas,
eliminando el poder del ego humano.
En ambientes de alta tecnología y no menos elevada intelectualidad, ingenieros y otros
profesionales pueden chocar entre sí debido a la toma de decisiones cruciales.
El diseño de grandes instalaciones, como por ejemplo fábricas, implica un compromiso
concertado entre todas las partes participantes. Ingenieros, arquitectos, expertos en
construcción y otros cargos directivos hacen sus propuestas para que el proyecto salga lo
mejor posible, pero en ocasiones surgen las discusiones y los egos mal entendidos, sobre
todo si el personal se halla físicamente distanciado entre sí.
Tales disputas pueden llegar a poner en peligro la puesta en marcha o la finalización del
proyecto, así que Shimon Nof, de la Purdue University, ha desarrollado una pieza de
software que es capaz de resolver automáticamente los conflictos sin que sea necesaria la
intervención humana.
La distribución interior de una fábrica suele ser un punto de grandes desacuerdos al
iniciarse un proyecto, y ya no sólo entre los constructores, sino también entre los
diseñadores y sus clientes.
Nof utiliza una herramienta informática que incorpora "lógica neuro-difusa", programas
que permiten a los ordenadores aprender sobre la marcha. Ya que los seres humanos no
tenemos una especial habilidad a la hora de resolver conflictos, este software los
identifica con antelación y describe los detalles acerca de su naturaleza, ayudando a
señalar donde está la solución. El objetivo es reducir la dependencia en las decisiones
humanas. Los programas son "agentes" que trabajan en paralelo respecto al avance del
proyecto, y se encargan de liberarnos de ciertos trabajos complejos pero repetitivos. En
este sentido, actúan como los agentes que sirven para hacerse cargo de la impresión de
706
El Hijo de El Cronopio No. 66
un documento en nuestro ordenador, es decir, nos liberan de preparar el archivo,
formatearlo y enviar la información a la impresora, y lo hacen mientras dedicamos
nuestro tiempo a otros quehaceres.
El método de resolución de conflictos supone la ejecución racional de una serie
preordenada de aproximaciones hacia este objetivo (negociación directa, mediación de
una tercera parte, incorporación de otras partes, persuasión y arbitraje). El ordenador
controla el avance del proyecto, pronostica la aparición de conflictos e intenta resolverlos
antes de que sean un problema. El programa es capaz además de aprender de su
experiencia, mejorando las oportunidades de éxito.
La electricidad que procede del fondo marino
Los microorganismos que viven en las profundidades oceánicas podrían ser una
inagotable fuente de energía eléctrica para ciertas aplicaciones.
Los microorganismos que viven en el agua del mar o en la capa superficial de los
sedimentos del fondo marino, usan oxígeno para asimilar la materia orgánica, emitiendo
energía en el proceso. Sin embargo, los que se encuentran más abajo, allí donde no hay
oxígeno, se ven obligados a utilizar otras alternativas, como nitratos o sulfatos.
Dichas reacciones químicas crean una diferencia de potencial eléctrico, algo así como el
voltaje entre los electrodos opuestos de una batería. Clare Reimers, de la Oregon State
University, y Leonard Tender, del Naval Research Laboratory, pretenden aprovechar
esta circunstancia en beneficio de las gentes del mar, y han desarrollado una especie de
célula de combustible natural.
El prototipo de laboratorio utiliza un electrodo cargado negativamente y enterrado en
unos 10 cm de sedimento, así como un electrodo cargado positivamente situado justo
sobre la superficie del agua. Cuando ambos electrodos son conectados, generan unos
0,03 vatios por metro cuadrado, suficiente energía como para activar un pequeño diodo
emisor de luz.
Esta provisión energética es teóricamente inagotable, ya que los microbios continúan
haciendo su trabajo sin detenerse ni por un instante. Si la célula de combustible puede
incrementar su potencia de suministro, se diseñarán unidades operativas que serán
instaladas en sedimentos oceánicos reales. Más adelante, podrán incluso enterrarse por sí
solas y generar electricidad para la alimentación continuada de boyas luminosas o
aparatos de sonar. (New Scientist)
Abejas y tecnología militar
Un estudio de cómo analizan visualmente las abejas sus objetivos supondrá la
incorporación de esta técnica en sistemas de vigilancia.
Las abejas emplean pistas basadas principalmente en movimientos de imagen para medir
distancias de vuelo de cientos de metros en ambientes exteriores.
Al pasar junto a flores o árboles, obtienen la sensación de haber recorrido poco o mucho
espacio, de la misma manera que la velocidad en que transcurren los postes de teléfono
tras la ventanilla de nuestro automóvil nos da una impresión razonable de la velocidad
del vehículo.
Según Srinivasan, de la Australian National University, esta técnica podría tener
aplicaciones militares, en la forma de vehículos voladores autónomos desarrollados de
707
El Hijo de El Cronopio No. 66
manera que posean "visión de insecto" para evitar los obstáculos. Tales microvehículos
aéreos podrían emplearse en tareas de vigilancia remota, y podrían tener un diámetro
inferior a los 10 cm.
Los científicos han experimentado con abejas de la especie Apis mellifera lingustica
Spinola, introduciéndolas en un túnel de 6,4 metros de largo, 20 cm de alto y sólo 11 cm
de ancho. Dicho túnel está decorado con diversos patrones en blanco y negro. En función
de su configuración, las abejas tienen un comportamiento distinto, dependiendo de si
creen que su objetivo (un punto en el que hay comida) está lejos o cerca. Bandas
horizontales engañan su sistema de visión, que no puede medir bien las distancias,
mientras que bandas verticales ayudan a determinarlas con mayor precisión. En función
de la configuración, los 6 metros del túnel pueden equivaler para la abeja a unos 186
metros en un medio exterior.
El estudio de los mecanismos visuales que en condiciones normales permiten a las abejas
medir las distancias será pues una alternativa a considerar durante el desarrollo de las
tecnologías de los futuros vehículos aéreos espía.
Imagen: http://www.bccs.org/1d/bee_small.gif
(Las abejas utilizan estímulos visuales para determinar distancias.) (Foto: BCCS)
Meteorito marciano
Aunque son una minoría, en algunas ocasiones es posible encontrar meteoritos que no
proceden del espacio interplanetario, sino que salieron despedidos de la superficie de
Marte y han acabado cayendo sobre la Tierra.
A pesar de que es relativamente frecuente que un meteorito alcance la superficie terrestre
y sea hallado por científicos o exploradores de salón, no lo es tanto que estas extrañas
piedras procedan de nuestro vecino, el planeta Marte.
Los estudios de las sondas Viking y Mars Pathfinder, así como los análisis químicos de
miles de meteoritos hallados en la Tierra, han permitido distinguir perfectamente cuando
uno de ellos procede de Marte o de un fragmento de asteroide situado alrededor del Sol.
La conclusión a la que hemos llegado es que los meteoritos marcianos son muy escasos,
lo que aumenta su valor científico. El último de ellos en ser identificado, distribuido en
dos fragmentos de 452 y 254 granos, fue hallado hace 20 años por Bob Verish en el
desierto de Mojave, en California. El espécimen ha sido bautizado como Meteorito de
Los Angeles y sólo ahora ha sido analizado y aclarado su origen.
Verish había olvidado que tenía las dos rocas, pero desde hace unos 5 años se ha
aficionado a coleccionar meteoritos, de manera que ha ganado en experiencia a la hora
de identificarlos. Le bastó con observarlos brevemente para darse cuenta de que no se
trataba de meteoritos convencionales.
El 17 de diciembre de 1999, el UCLA confirmó que eran meteoritos basálticos, muy
parecidos al QUE 94201, un meteorito encontrado en la Antártida en 1994. Su origen, en
efecto, es Marte. Es, además, el espécimen más evolucionado geoquímicamente
hablando descubierto hasta ahora.
El caso pone de manifiesto una interesante posibilidad, y es que muchas colecciones
privadas podrían contener meteoritos lunares o marcianos sin que nadie haya sabido aún
identificarlos. Entre los más 20.000 hallados en la Tierra, sólo 14 proceden de Marte, lo
que los hace extremadamente valiosos para la ciencia, sobre todo si, como el famoso
ALH 84001, pueden mostrar indicios (sujetos a controversia) de vida fósil.
708
El Hijo de El Cronopio No. 66
Información adicional en: http://www.jpl.nasa.gov/snc/la.html
Imagen: http://www.jpl.nasa.gov/snc/la001.jpg
(El meteorito Los Angeles-1.) (Foto: Ron Baalke)
Invierno volcánico
La británica Geological Society advierte de que una gran erupción volcánica podría
llegar a ser el detonante de un cambio climático radical e inesperado.
Los efectos de las acciones del Hombre sobre la atmósfera están propiciando ya un
rápido cambio climático de difícil resolución. Pero los especialistas de la Geological
Society, un organismo británico, creen que tales efectos no son nada ante lo que una
super-erupción volcánica podría llegar a producir.
Los estudios climáticos muestran que en el pasado la Tierra experimentó súbitos cambios
de esta naturaleza debido a enormes erupciones que lanzaron grandes cantidades de
ceniza y dióxido de azufre a la atmósfera.
Si las explosiones son lo bastante potentes, el dióxido de azufre, rocas volcánicas y otros
gases, pueden ser lanzados muy arriba en la atmósfera, donde el primero reacciona con el
agua para formar microgotas de ácido sulfúrico. Este aerosol tiene la propiedad de
reflejar la radiación solar con gran eficacia, permitiendo la reducción de la temperatura
en la baja atmósfera durante el tiempo que se necesita para que la partícula química sea
físicamente destruida por sí sola.
En 1815, la erupción del volcán indonesio Tambora precedió a dos años de clima
inusualmente frío en todo el mundo. En Europa, las temperaturas descendieron entre 1 y
2,5 grados Celsius por debajo de lo normal. Esto causó la pérdida de cosechas, aumentó
el precio del grano y de desató un período de hambre.
Las erupciones de 1783 del Laki, en Islandia, supusieron la llegada de una "niebla seca"
en toda Europa occidental y buena parte de Norteamérica. Las temperaturas invernales
bajaron 4,8 grados C más allá de la media. En 1991, el Pinatubo supuso un descenso de
0,4 grados Centígrados al año siguiente.
Por tanto, las erupciones con capacidad de afectar al clima mundial son irregulares pero
frecuentes, con seis de ellas sólo en el siglo XX. La del Tambora de hace 70.000 años
pudo llegar a provocar descensos de hasta 10 grados C. Parece pues lógico investigar
cuáles serían las consecuencias de una supererupción en tiempos modernos, y cómo
afectaría a la economía, la agricultura y a la sociedad.
Ellos también colaboran con la ciencia
Focas y yates han empezado a ayudar a los oceanógrafos en su insaciable apetito de
obtener datos sobre los mares.
Nuestro conocimiento de los océanos pasa por situar estaciones de medición en todos los
rincones imaginables. Parámetros básicos como la temperatura o el índice de salinidad
nos ayudan a conocer y comprender mejor su dinámica. Sin embargo, no siempre es fácil
situar sensores en lugares remotos, o no hay bastantes profesionales que puedan
distribuirlos a lo largo y ancho de la masa líquida de nuestro planeta.
Afortunadamente, la miniaturización de tales sensores y su bajo consumo, que aumenta
su autonomía, está permitiendo aprovechar el concurso de terceros. Por ejemplo, los
investigadores hace años que sitúan dichos mecanismos sobre animales, como focas, y
709
El Hijo de El Cronopio No. 66
dejan que éstos sean quienes, con sus movimientos, los lleven hasta los lugares más
intrincados. Las focas, por ejemplo, son capaces de sumergirse hasta los 600 metros,
aportando información muy difícil de obtener por otros medios.
Pero las focas no son y serán los únicos participantes en esta actividad científica. Todo
tipo de embarcaciones pueden ser ahora dotadas con sensores para el mismo objetivo.
Los datos se recogen y se analizan en su conjunto, y pueden servir, por ejemplo, para
estudiar los frentes oceánicos del Pacífico nordeste. Las focas han proporcionado en tres
meses un total de 22.000 mediciones de temperatura en una región donde sistemas
convencionales sólo han conseguido 52.
Por su parte, los yates de lujo que participarán en la vuelta al mundo organizada por la
Volvo Ocean Race serán equipados con sistemas de control, no sólo de la temperatura,
sino también de los niveles de fitoplancton. (New Scientist)
La ropa en la edad del hielo
Las vestimentas que empleaban los hombres primitivos de la Edad del Hielo eran más
sofisticadas de lo que se creía.
Un grupo de arqueólogos ha descubierto indicios que nos indican cómo vestía una mujer
de hace 25.000 años durante una ocasión ritual. Lo sorprendente es que sus ropas no
tienen nada que ver con nuestra popular concepción de la moda prehistórica.
Al contrario, el hallazgo ha permitido poner de manifiesto que la mujer utilizaba
cinturón, brazaletes, gorra, falda e incluso una banda sobre el pecho. Todo ello
construido mediante fibras de plantas en una gran variedad de tejidos. Tan sofisticado es
el estilo empleado que éste no varió mucho al llegar el neolítico e incluso durante las
edades del Bronce y del Hierro.
El descubrimiento ha consistido en una serie de impresiones sobre fragmentos de barro
en la república Checa, impresiones que muestran formas de cordajes y producción textil.
Su textura es idéntica a la mostrada en las famosas figuras de Venus desnudas,
pertenecientes al mismo período.
Todo ello prueba que nuestros antepasados han usado vestidos relativamente sofisticados
desde hace mucho tiempo, y que para ello han tenido que actuar de forma más avanzada
que lo que la imagen tópica de su retrato, armados con lanzas a la caza del mamut, pueda
hacernos suponer.
La caza, por supuesto, fue el trabajo de una minoría de la población. Niños, mujeres y
ancianos, como demuestran los signos de ricos vestidos hallados, debían hacer mucho
más que admirar a su bravos héroes.
Al mismo tiempo, algunas mujeres debieron tener un papel relevante en las sociedades
del Pleistoceno tardío. El vestir brazaletes y otros ornamentos, de gran valor, implica un
posición social elevada.
Información adicional en: http://www.admin.uiuc.edu/NB/00.02/iceagetipL.html
Astromineralogía
El telescopio infrarrojo europeo ISO acaba de abrir un nuevo ámbito de investigación
científica. Los cristales de silicatos, los minerales más abundantes en la Tierra, se
encuentran también en grandes cantidades alrededor de viejas estrellas y en discos
protoplanetarios, los discos de los que se forman los planetas.
710
El Hijo de El Cronopio No. 66
Este es uno de los más importantes descubrimientos del telescopio espacial ISO, un
observatorio europeo infrarrojo que ya ha finalizado sus actividades.
Se sabía que los silicatos amorfos son el principal componente del polvo espacial, pero
su detección en estado cristalizado ha sido una sorpresa. El ISO inaugura así un futuro y
prometedor campo: la astromineralogía.
El silicato amorfo carece de una estructura interna bien ordenada. Por eso, no es posible
hacer grandes diferenciaciones entre los distintos silicatos que existen. Pero los silicatos
cristalinos son otra cuestión. Ahora podremos tratar de identificarlos y seguir su
presencia a lo largo de diferentes regiones del universo.
Los cristales proporcionan pistas claves sobre las condiciones físicas y la evolución
histórica de los objetos que los contienen. Por ejemplo, se pueden crear cristales
calentando material a temperaturas de más de 1.300 grados Celsius y después dejándolo
enfriar lentamente.
Los encontrados por el ISO se encuentran a –170ºC, en ambientes estelares y en discos
protoplanetarios. En el caso de las estrellas gigantes rojas, es posible que las altas
temperaturas cerca de ellas propiciaran la creación de los cristales hasta suponer el 20
por ciento del polvo que las rodea. En los discos protoplanetarios, el proceso se pudo
desencadenar mediante choques eléctricos.
Los cristales detectados por el ISO en tales discos tienen un tamaño de una milésima de
milímetro. Pero las colisiones entre ellos formarán cuerpos más y más grandes, de
manera que dentro de 10 a 100 millones de años habrán podido constituir planetas.
Información adicional en:
http://sci.esa.int/newsitem.cfm?TypeID=1&ContentID=9191&Storytype=18
http://www.esa.int
Imagen: http://sci.esa.int/missions/iso/images/00016383.jpg
(Tabla de silicatos en el espacio.) (Foto: ESA)
El milagro de la hibernación
Se han identificado dos enzimas que juegan un importante papel en la hibernación de las
ardillas.
Cada año, los animales que hibernan llevan a cabo una de las maravillas fisiológicas del
mundo natural. Ocultos en sus madrigueras, son capaces de sobrevivir durante meses de
bajas temperaturas, sin comer, gracias a la reducción del ritmo de los latidos del corazón,
de su metabolismo y de las temperaturas de su cuerpo, todo ello a unos niveles que a los
humanos y a otros animales que no hibernan nos causarían la muerte.
Un equipo de investigadores de la North Carolina State University ha identificado dos
enzimas que parecen tener un papel esencial en la hibernación de las pequeñas ardillas.
El descubrimiento es particularmente interesante porque los genes afectados son casi
idénticos a los encontrados en los mamíferos que no hibernan, lo cual podría tener
implicaciones en áreas tales como los transplantes de órganos y la hipotermia.
Los científicos conocen desde hace tiempo por qué los animales hibernan, pero, cómo se
efectúa esta transformación, qué genes controlan su inicio en otoño y su recuperación en
la primavera, ha sido un misterio hasta ahora.
Los dos genes que el Dr. Matthew Andrews ha identificado como esenciales en esta
operación abren las puertas a nuevas posibilidades más allá de la zoología. Si se pueden
identificar los enzimas responsables de la preservación de los órganos, la reducción del
711
El Hijo de El Cronopio No. 66
consumo de glucosa y el mantenimiento del tono muscular durante un estado extremo
como es la hibernación, los médicos podrán usar este conocimiento para desarrollar
estrategias que sirvan para prolongar la vida de órganos dedicados a transplantes, o para
ayudar a las personas que han sufrido hambre, atrofia muscular, hipotermia o hipoxia.
Uno de los genes identificados (PL) se encarga de romper los triglicéridos (ácidos grasos
acumulados) y de convertirlos en grasas utilizables por las ardillas en hibernación. El
otro gen codifica la producción de un enzima (PDK-4) que es activado en períodos de
hambre y que ayuda a conservar las reservas de glucosa del cuerpo. Ambos genes se
manifiestan en las ardillas poco antes del inicio de la hibernación.
Si la hibernación es controlada por la expresión diferencial de genes presentes en los
mamíferos, su identificación nos ayudará a conocer cómo otros mamíferos pueden
adaptarse (o cómo lo hacían sus ancestros) a los cambios medioambientales extremos.
En el terreno de la ciencia-ficción, esta información será útil para inducir la hibernación
a los astronautas que deban viajar durante mucho tiempo en el espacio.
Información adicional en:
http://www2.ncsu.edu/ncsu/univ_relations/news_services/press_releases/00_01/16.htm
Imagen:
http://www2.ncsu.edu/ncsu/univ_relations/news_services/press_releases/00_01/squirrel2
.jpg
(El doctor Matthew Andrews y una ardilla hibernando.) (Foto: NC State University)
La Ciencia desde el Macuiltépetl/ Ciencia y sociedad
Por Manuel Martínez Morales
Se presentan en este trabajo, aunque de manera un tanto esquemática, algunas
consideraciones generales acerca de aspectos correspondientes a la interrelación entre
ciencia, tecnología y otras instancias de la vida social. Aspectos que, a mi juicio, han
sido poco atendidos en los documentos emitidos sobre el particular, tal como sucede en
el Programa Nacional de Desarrollo Tecnológico y Científico 84-88.
En ocasiones, se pasan por alto aspectos esenciales de la estructura económica del país y
de las relaciones sociales que en ese contexto se establecen. Así, haciendo abstracción de
esas condiciones, se sitúan a la ciencia y la técnica como factores potenciales de
desarrollo. Haciendo uso y abuso del eufemismo subdesarrollo se afirma que,
prácticamente, “la ciencia y la tecnología son en la actualidad la manifestación
fundamental de dependencia de los países subdesarrollados con relación a los
desarrollados.
No esta por demás mencionar que lo que hoy simplificadamente llamamos ciencia y
tecnología constituye un conjunto complejo de actividades y sus resultados. La ciencia y
la tecnología, en su forma actual, aparecieron hace poco tiempo, aunque proceden de
conocimientos y prácticas muy antiguas en la historia. Durante muchos siglos, la
vinculación entre conocimientos teóricos y técnicos fue casi inexistente, siendo escaso el
grado de sistematización de estos conocimientos. Fue con el advenimiento del
capitalismo que la ciencia y la técnica se desarrollaron a partir de la creciente necesidad
de desarrollar y perfeccionar los medios de producción que este sistema económico
demanda.
A mediados del siglo pasado, Carlos Marx señalaba en una de sus obras de este periodo:
712
El Hijo de El Cronopio No. 66
El modo capitalista de producción es el primero en poner las
ciencias naturales al servicio directo del proceso de producción, en
tanto que el desarrollo de la producción proporciona, en cambio, los
instrumentos para la conquista teórica de la naturaleza. La cie ncia
logra el reconocimiento de ser un medio para producir riqueza. Por
esto, junto con la producción capitalista se desarrolla, por primera
vez y de manera consciente, el factor científico a cierto nivel; se
emplea y se constituye en dimensiones que no se podían concebir en
épocas anteriores [...] Sólo la producción capitalista transforma el
proceso productivo material en aplicación de la ciencia a la
producción.
En efecto, el desarrollo histórico de los países capitalistas y la posterior aparición de los
países socialistas, permiten observar que la ciencia y la técnica adquieren un papel cada
vez más relevante para sostener y hacer crecer el proceso de producción.
Pero, a pesar de toda la importancia que la ciencia tiene para el crecimiento económico,
es necesario asentar que constituye una actividad social muy compleja que posee,
además, otras características. Según J. D. Bernal, la ciencia puede ser considerada como:
1. una institución social; 2. un método de conocimiento; 3. una forma de producir y
acumular conocimientos; 4. un factor de primera importancia en el desarrollo de la
producción; 5. una de las más poderosas fuerzas moldeadoras de las creencias y actitudes
de los hombres hacia el universo y hacia sí mismos. Ahora bien, considerando que estos
cinco aspectos forman una unidad, distinguir a uno entre ellos en detrimento de los
demás, puede conducir a apreciaciones unilaterales que, en la práctica, signifiquen el
establecimiento de políticas científicas que bien puedan no alcanzar los objetivos que se
proponen.
El Programa Nacional de Desarrollo Tecnológico y Científico deja ver este tipo de
unilateralidad en algunos de sus planteamientos básicos. De los seis grandes objetivos
que el programa se propone: 1. mayor conocimiento de la realidad física, biótica y social
del país; 2. modernizar y hacer más competitivo el aparato productivo; 3. tener dominio
sobre la tecnología importada; 4. reforzar la investigación científica y tecnológica y
articularla con la solución de los problemas económicos y sociales del país; 5. alcanzar
mayor capacidad de formación de especialistas en ciencia y tecnología; y 6. difundir más
ampliamente información científica y tecnológica a los productores y la población en
general; sólo uno, el último, parece no tener una relación directa con la producción. Esto
refleja una disminución del valor de la ciencia en cuanto a método de conocimiento y
como elemento de primera importancia en la cultura nacional.
Así también, de los 11 programas de investigación y desarrollo para atender prioridades
sociales, sólo el último (4.11 Investigación de excelencia en otros temas...) no se refiere a
aplicaciones directas a corto y mediano plazo. No existe una referencia clara y explícita
al desarrollo de la investigación básica, aquella que no se propone como objetivo
inmediato la aplicación del conocimiento, sino que busca ampliarlo y sentar las bases
metodológicas fuertes para el desarrollo de la investigación aplicada.
Lo anterior no implica obviamente desatender el importante papel que la ciencia y la
tecnología tienen en el crecimiento económico, sino más bien hacer ver que no es su
única función. Desde luego que la división entre ciencias aplicadas y básicas es, hasta
cierto punto, artificial, y existen problemas que pueden dar origen a la investigación
aplicada e incluso dar lugar a la apertura de importantes líneas de investigación básica.
713
El Hijo de El Cronopio No. 66
Pero resulta importante no caer en el punto de vista instrumentalista, según el cual
ciencia y técnica pueden producirse como cualquier otro instrumento de trabajo y luego
proceder a su aplicación.
No debe olvidarse la complejidad de la práctica científica, cuya realización es la
resultante de la conjunción de numerosos factores de carácter económico y social, y que
ciencia y tecnología no son variables independientes, cuya manipulación pueda darse a
partir tan sólo de buena voluntad.
En las graves condiciones de crisis económica por las que atraviesa el país, la puesta en
marcha del Programa Nacional de Desarrollo Científico y Tecnológico implica también
transformaciones en otros ámbitos, sobre todo en el plano económico; pues el intento de
revalorizar y reencauzar las actividades científicas en el país no debe hacernos olvidar
que vivimos una situación de graves injusticias como la gran desigualdad económica con
todas sus implicaciones, cuya superación no es, ni puede ser, tan sólo fruto del desarrollo
técnico. La superación de la crisis depende de la voluntad política que tengamos, como
nación, para transitar hacia estructuras económicas y sociales que garanticen mayor
igualdad y participación en las decisiones que a todos nos afectan.
22 de febrero de l985
El Cabuche (crónicas de la Facultad de Ciencias)/ Evaluaciones
Evaluaciones. ¡Vaya que si vivimos en un mundo de constante evaluación! Como decían
los santaneros (los de la sonora, que creo ya no existe como tal) Los estudiantes lo deben
de saber, y los profesores lo saben lo saben, y los directores lo saben lo saben, los que
están adentro lo saben lo saben y... ¡ya estuvo suave!. A propósito ¿cómo les va en sus
exámenes? No se preocupen, hasta la Facultad, como tal tiene que pasar por esas vainas,
por decirlo muy colombianamente. La semana pasada, como algunos de ustedes deben
de saber, estuvieron por la Facultad un equipo, al menos venían uniformados de traje,
muy propios, de evaluadores para revisar en vivo la documentación que la Facultad
presentó ante las autoridades educativas, para lograr su acreditación en las carreras que
se ofrecen (no las digo, pues se las deben saber). El equipo de evaluadores, por llamarles
de alguna forma, el jueves 17 muy temprano, se personaron en nuestras instalaciones a
cumplir con el guión que para tal efecto preparó el equipo de corbata. Revisaron
instalaciones, entrevistaron a estudiantes y profesores, discutieron en vivo los
documentos presentados con anterioridad, sin faltar por supuesto el mentado libro azul,
orgullo de Benito. Al día siguiente continuaron con su itinerario, detalles no sé muchos,
pues no tuve la oportunidad de seguir de cerca las acciones. Resultados de nuestra
iniciación en estas vainas de la acreditación: al menos una de las carreras ingenieriles, la
de ingeniería electrónica, se encuentra en vías de poder ser acreditada, para lo cual se
tiene la tarea y recomendaciones dadas por los de corbata. Una cosa es segura ¡Hay que
echarle ganas! Y como escribió Agustín Lara, mejor dicho María Teresa Lara y que a
través de su voz hace suya Chavela Vargas, en un disco que el Chino trajo a respaldar a
nuestros estudios Sol-Gel Records
Escondí concha nácar mis penas en tí/Y encontré en tus
senos calor de mujer/Eres tú, el espejo donde las sirenas se
van a mirar,/y en su afán por llorar;/convertidas en perlas
tus lágrimas brotan del mar
714
Boletín
El Hijo de El Cronopio
Facultad de Ciencias
Universidad Autónoma de San Luis Potosí
No.67, 28 de febrero de 2000
Boletín de información científica y
tecnológica de la Facultad de Ciencias
Publicación semanal
Edición y textos
Fís. J. Refugio Martínez Mendoza
Cualquier información, artículo o
anuncio deberá enviarse al editor
e-mail: flash@galia.fc.uaslp.mx
Este boletín y números anteriores,
pueden consultarse por Internet en la
página de la UASLP:
http://phobos.dtc.uaslp.mx/publi.html
El Boletín El Hijo del Cronopio
Se une a las felicitaciones que con
motivo de la obtención del
PRIMER LUGAR en el concurso
que convoca la Fundación Hertel,
A.C., en donde participan los
mejores estudiantes de física del
país obtuvo el joven
Joel Briones Hernández
¡EN HORA BUENA!
El Hijo de El Cronopio No. 67
Computación molecular
Mientras los tecnólogos siguen buscando cómo hacer más pequeños los chips de silicón,
una corriente de investigación fortalece las computadoras moleculares, en que las
operaciones corren por cuenta de fragmentos de ADN
Por Javier Cruz para el periódico Reforma
Un reciente avance en las ciencias de la computación puede parecer algo paradójico: en
vez de miniaturizar más los chips y hacerlos de materiales más baratos, investigadores de
la Universidad de Wisconsin presentan una computadora que realiza operaciones sobre
superficies de vidrio y oro. Y otra cosa: es capaz de resolver problemas de la clase más
difícil desde el punto de vista computacional en una cantidad sustancialmente menor de
pasos que lo que puede conseguir la mejor computadora electrónica. Se trata de una
computadora molecular, en que la información proporcionada a la "máquina", así como
los resultados producidos por ésta, constan de segmentos de ADN, la molécula que porta
toda la información genética necesaria para replicar y sostener la vida. Las operaciones y
decisiones lógicas son efectuadas por estos fragmentos y por una serie de enzimas a las
que quedan expuestos. "La computación con ADN fue propuesta como un medio para
resolver problemas computacionales de una clase inmanejable, en que el tiempo de
computación puede crecer exponencialmente con el tamaño del problema", escriben los
autores del artículo publicado hoy en la revista Nature. Un problema prototípico --y, de
hecho, el primero en ser resuelto con ADN-- es el del "vendedor viajante", en que hay
que elaborar un itinerario de vuelos para un vendedor que ha de visitar N ciudades, pero
cada una de ellas sólo una vez. Para un número pequeño de ciudades el asunto no
aparece demasiado complejo y es susceptible de resolverse con lápiz y papel. Pero en
cuanto crece el número de paradas, la complejidad computacional aumenta más allá de lo
que pueden manejar las computadoras electrónicas más sofisticadas. "Hay casos de
tamaño modesto (...) que requieren una cantidad impráctica de tiempo de computación",
escribió Leonard Adleman en un artículo publicado en 1994 por la revista Science, en el
que describió un método para hacer que unas cuantas fracciones de gramo de ADN
hallasen la solución para el caso de 7 ciudades del problema del vendedor viajante.
¿Cómo "piensa" el ADN?
Nadie propone que las computadoras moleculares estén por suplantar a las electrónicas.
De entrada, la tecnología de éstas le lleva décadas de ventaja a la de aquéllas. Pero
además, la enorme ventaja de las computadoras moleculares consiste en que tienen, por
la naturaleza del ADN y de las técnicas bioquímicas de su manejo, una insospechada
capacidad de computación en paralelo. "Ahí donde puedan organizarse búsquedas
masivas en paralelo para sacar ventaja de las operaciones que actualmente ofrece la
biología molecular, es concebible que la computación molecular pueda competir con la
electrónica en el corto plazo", escribió Adleman en 1994. El artículo de hoy en Nature es
relevante, desde el punto de vista de las ciencias de la computación, porque ofrece un
algoritmo --es decir, una secuencia de instrucciones para hallar la solución de un
problema-- que vuelve manejable un problema perteneciente a la clase llamada "NPcompletos", que son, en la jerga de los especialistas, las peores pesadillas con que es
dable tropezar. En éstos, el número de soluciones posibles y el tiempo requerido para
716
El Hijo de El Cronopio No. 67
hallar la correcta crece de manera exponencial con el número de variables
independientes. Puesto que hay pocas soluciones correctas y una enormidad de
soluciones posibles --pero erróneas--, la esencia del método de solución está en la
eliminación de aquéllas que son espurias. Ni la unidad central de procesamiento (CPU)
de las computadoras electrónicas ni el ADN de las moleculares "piensan" en el sentido
en que lo haría un cerebro humano afrontado con el problema del vendedor en una escala
manejable. Lo que hacen es explorar el espacio de soluciones posibles y descartar las
inadecuadas. Existen algoritmos que funcionan en computadoras electrónicas, pero lo
hacen operando mayormente "en serie": examinando cada posibilidad, una por una. En
cambio, en las computadoras moleculares cada fragmento de ADN funciona como si
fuese un CPU, y caben millones de ellos en espacios pequeños: de aquí viene su enrome
poder de computación en paralelo. Mitsunori Ogihara, de la Universidad de Rochester,
explica así la ventaja del método inventado por Adleman: "Cambió espacio (la cantidad
de ADN necesario) por tiempo (el número de pasos bioquímicos empleados)". El propio
Adleman ya había echado las cuentas: "Una computadora de escritorio típica puede
ejecutar, aproximadamente, 10 millones de operaciones por segundo. Las
supercomputadoras más veloces llegan a 10 billones", escribió en Science. En cambio, en
el primer paso de su algoritmo, la computadora molecular se aventó 100 billones de
operaciones por segundo "y 100 trillones parece enteramente plausible".
Sopa de Letras
Los científicos de Wisconsin ofrecen, en el artículo de Nature, la solución a un problema
NP-completo relativamente simple de visualizar. Es un caso del llamado "problema de
satisfactibilidad", en que hay que buscar una solución que satisfaga, simultáneamente,
una serie de condiciones expresadas mediante proposiciones lógicas. (Una proposición
lógica es un enunciado que sólo puede ser cierto o falso. Por ejemplo, "este artículo fue
publicado el jueves 13 de enero de 2000" es una proposición lógica, en tanto que "este
artículo no hay quien lo entienda", por más cierto que resulte, no lo es.) El caso
presentado por Lloyd Smith y coautores es un problema de satisfactibilidad con cuatro
variables --es decir, cuatro proposiciones lógicas-- y cuatro cláusulas. Cada cláusula
enlaza cierto número de variables mediante un operador lógico "o" --representado por el
símbolo "V"--, que puede interpretarse tal como la conjunción "o" en gramática: "x V y"
quiere decir, literalmente, que "o x es cierta, o y es cierta", siendo "x" y "y" dos
proposiciones lógicas. Supóngase que las cuatro variables del problema fuesen las
siguientes proposiciones lógicas, a propósito de la controversia sobre las fotos de los
candidatos presidenciales en las boletas electorales:
w: Se incluye la foto de Fox en el espacio correspondiente al PAN
x: Se incluye la foto de Gloria Trevi en el espacio correspondiente al PRD
y: Se incluye la foto de Labastida con Carlos Salinas y Roberto Madrazo en el espacio
correspondiente al PRI
z: Se incluye la foto de Muñoz Ledo, envuelto en la bandera nacional cual Niño Héroe de
Chapultepec, en el espacio correspondiente al PAN
Las cuatro cláusulas del problema de Smith y colegas son estas:
C1: O "w" es cierta, o "x" es cierta, o "y" es cierta
C2: O "w" es cierta, o "y" es falsa, o "z" es cierta
C3: O "x" es falsa o "y" es cierta
C4: O "w" es falsa o "y" es falsa
717
El Hijo de El Cronopio No. 67
Y el problema consiste en hallar las combinaciones de las cuatro variables que satisfagan
simultáneamente estas cuatro cláusulas lógicas.
La computadora molecular de Wisconsin halló las únicas cuatro soluciones posibles:
1. "w" y "x" son falsas, "y" y "z" son ciertas
2. "w" es falsa, "x", "y" y "z" son ciertas
3. "w" es cierta y "x", "y" y "z" son falsas
4. "w" es cierta, "x" y "y" son falsas, pero "z" es cierta
De modo que las únicas posibilidades de que aparezca la foto de Fox es que no haya más
fotos que la suya, o bien que tenga que compartir el espacio con Porfirio Muñoz Ledo
envuelto en la bandera tricolor.
Lo Positivo de lo Negativo
Con cuatro variables, cada una de las cuales puede tomar el valor cero o uno
exclusivamente, pueden formarse 16 combinaciones. En general, la mayoría de estas
combinaciones no será una solución del problema: el chiste está en eliminar a esta
mayoría. Adleman comprendió que las moléculas de ADN se prestan a este tipo de tarea.
Todo fragmento de ADN es una sucesión de bases químicas formadas por una de sólo
cuatro moléculas: timina (T), citosina (C), adenina (A) y guanina (G). Representándolos
con letras, los fragmentos pueden ser descritos así, por ejemplo: TCTCAGAG. Pero hay
una circunstancia especialmente feliz en este contexto. Colocadas frente a frente, estas
bases químicas se adhieren siempre de igual manera: A con T y G con C, de modo que a
cada fragmento le corresponde uno complementario, como el negativo de una fotografía.
Entonces, si la hebra TCTCAGAG queda expuesta a la hebra AGAGTCTC, quedarán
adheridas. Siendo así, el método inventado por Adleman, y empleado ahora por Smith y
su equipo, consiste en asignar una secuencia arbitraria de letras a cada una de todas las
soluciones posibles --es decir, traducir todas las combinaciones al "alfabeto" del ADN-y construir, en el laboratorio, las moléculas correspondientes (ver ilustraciones).
Conociendo las cláusulas lógicas del problema, pueden construirse moléculas
complementarias de las que cumplan con una de ellas, e introducirlas al recipiente donde
están las soluciones ADN. Aquellas que queden sin adherirse será porque no cumplen
con la cláusula en cuestión, y las que sí se adhieren es porque sí la cumplen. Eso ya es
medio proceso de eliminación, pues las soluciones incorrectas quedan marcadas, como
en la ronda infantil "a pares y nones", por quedar sin acompañante. Basta, entonces, con
añadir enzimas seleccionadas para destruir los fragmentos de ADN que queden
expuestos, y luego, calentando la preparación, despegar los fragmentos complementarios
y removerlos. El procedimiento se repite para cada una de las cláusulas, de modo que las
moléculas que quedan al final son las que las satisfacen a todas simultáneamente, como
pide el problema. Cuestionado acerca de la importancia de poder llevar a cabo estas
reacciones sobre una superficie sólida, en vez de flotando en un volumen, Smith explicó
a REFORMA que "la razón por la cual creemos que es importante es que permite la
purificación de las moléculas de ADN entre cada paso del proceso de cómputo,
simplemente enjuagando el soporte". Esto robustece la posibilidad de atacar problemas
como éste con mayor número de variables. "Un problema de satisfactibilidad con 30
cláusulas y 50 variables podría ser resuelto en aproximadamente 1.6 millones de pasos
por una computadora ordinaria, pero en apenas 91 pasos" por la computadora de ADN de
Wisconsin, escribió Ogihara.
718
El Hijo de El Cronopio No. 67
Un caso de aplicación como otro cualquiera
Supóngase que las cuatro variables del problema fuesen las siguientes proposiciones
lógicas, a propósito de la controversia sobre las fotos de los candidatos presidenciales en
las boletas electorales:
W: Se incluye la foto de Vicente Fox en el espacio correspondiente al PAN
X: Se incluye la foto de Gloria Trevi en el espacio correspondiente al PRD
Y: Se incluye la foto de Francisco Labastida con Carlos Salinas y Roberto Madrazo en el
espacio correspondiente al PRI
Z: Se incluye la foto de Porfirio Muñoz Ledo, envuelto en la bandera nacional cual Niño
Héroe de Chapultepec, en el espacio correspondiente al PAN
Las cuatro cláusulas del problema de Smith y colegas son:
C 1 : O "W "es cierta, o "X "es cierta, o "Y "es cierta
C 2 : O "W "es cierta, o "Y "es falsa, o "Z "es cierta
C 3 : O "X "es falsa o "Y "es cierta C 4 : O "W "es falsa o "Y "es falsa
Y el problema consiste en hallar las combinaciones de las cuatro variables que satisfagan
simultáneamente estas cuatro cláusulas lógicas. La computadora molecular de Wisconsin
halló las únicas cuatro soluciones posibles:
1)"W "y "X "son falsas, "Y "y "Z "son ciertas
2)"W "es falsa, "X ", "Y "y "Z "son ciertas
3)"W "es cierta y "X ", "Y "y "Z "son falsas
4)"W "es cierta, "X "y "Y "son falsas, pero "Z "es cierta
De modo que las únicas posibilidades de que aparezca la foto de Fox es que no haya más
fotos que la suya, o bien que tenga que compartir el espacio con Porfirio Muñoz Ledo
envuelto en la bandera tricolor.
Genética genial
Todo un mundo ha sido abierto a la computación con la invención de métodos que
permiten que moléculas de ADN efectúen operaciones propias de los chips de silicón de
las máquinas digitales. La computación molecular promete ventajas en problemas que
demanden procesamiento en paralelo. Esta es una versión simplificada del problema de
"satisfactibilidad", en que hay que hallar soluciones que satisfagan una serie de cláusulas
lógicas para cierto número de variables (tres en este caso) que pueden tomar los valores
"0"ó "1" exclusivamente. Cada una de las ocho combinaciones posibles -soluciones
potenciales- es codificada en términos de las cuatro letras del ADN (A, T, C y G), y se
construyen fragmentos moleculares que representan a cada solución, como se muestra.
Esquema del método de cómputo molecular.
a) Se preparan tantos fragmentos de ADN como soluciones posibles haya.
b) Esos fragmentos se fijan en un extremo a una superficie sólida.
c) A cada fragmento, formado por combinaciones de las letras A, C, G y T, le
corresponde un "negativo" complementario (ver texto)al cual se adhiere. Con este
método se "marcan", dejándolos sin su complemento, los fragmentos que no satisfacen
una cláusula dada del problema.
d) Se incorporan enzimas que destruyen los fragmentos no protegidos por sus
complementos. Este paso elimina soluciones erróneas.
e) Calentando la mezcla se despegan los complementos y se repite el proceso para la
siguiente cláusula del problema.
719
El Hijo de El Cronopio No. 67
f) Por último, con técnicas de biología molecular, se amplifican y "leen" los fragmentos
sobrevivientes, que corresponden a las soluciones del problema. Esta vista alternativa del
método ilustra cómo van siendo eliminados varios fragmentos de ADN del espacio de
soluciones, según se detecta que vayan incumpliendo las cláusulas del problema. Al final
de los cuatro ciclos sólo sobreviven los fragmentos numerados como 3, 7, 8 y 9,
correspondientes a las soluciones reales. Así se ven los resultados ofrecidos por la
computadora molecular. Cada barra de la gráfica representa el número de fragmentos de
ADN de cada una de las 16 secuencias iniciales, luego de haber sido amplificados.
Claramente, las soluciones son los fragmentos 9, 8, 3 y 7.Obsérvese que hay cantidades
muy pequeñas de fragmentos que representan soluciones espurias: el método,
evidentemente, no es perfecto, aunque la diferencia entre las soluciones reales y las
falsas es clarísima.
Noticias de la Ciencia y la Tecnología
La molécula TMAO
Su secreto ha sido por fin desvelado. La molécula TMAO es la principal responsable de
que existan criaturas capaces de vivir en las profundidades de los océanos soportando
presiones enormes.
Los robots submarinos y los batiscafos nos han proporcionado una imagen del fondo
oceánico muy alejada de lo que podría esperarse. En estas regiones también hay vida, y
animales y plantas que consiguen vivir bajo presiones que a nosotros nos aplastarían de
inmediato.
Los científicos saben que las altas presiones pueden impedir que las proteínas formen
enzimas necesarias para la vida. Es lícito pues preguntarse qué hace que la vida abisal
haya resuelto este problema.
Según Paul Yancey, del Whitman College, las proteínas están recubiertas por moléculas
de agua antes de formar los enzimas. Para que este proceso sea posible, el agua debe
desaparecer, pero las altas presiones submarinas tienden a atrapar dichas moléculas junto
a las proteínas.
Yancey ha estudiado diversas criaturas que normalmente viven en estas condiciones,
desde peces hasta plantas y anémonas, y ha descubierto que contienen una mayor
cantidad de lo habitual de un compuesto llamado TMAO. Por otro lado, cuanto mayor
sea la presión en la que éstos deban desenvolverse, mayor es también la concentración de
esta molécula en los tejidos.
Al parecer, la TMAO incrementa la habilidad de los enzimas de soportar altas presiones,
así como su resistencia al ataque de otros enzimas que pueden romper las proteínas. Su
utilidad se extiende incluso a otros seres vivos si éstos son tratados con ella. Su poder
estabilizante es tan elevado que los científicos creen que podría utilizarse en ciertas
enfermedades humanas. (New Scientist)
El genoma mínimo
Científicos estadounidenses han encontrado el número de genes mínimo necesario para
que un organismo sobreviva.
720
El Hijo de El Cronopio No. 67
El estudio del genoma humano no ha hecho sino poner de manifiesto su enorme
complejidad, coherente con la estructura de un ser igualmente complicado como lo es el
Hombre. Pero hay otros seres vivos sobre la faz de la Tierra, como los microorganismos,
cuyo genoma es mucho más sencillo, y no por ello dejan de alimentarse y reproducirse
con total normalidad.
Clyde A. Hutchison III, profesor de microbiología de la School of Medicine, en la
University of North Carolina, ha querido saber hasta qué punto un ser puede sobrevivir
con el menor número de genes posible, y para ello ha experimentado con algunos de los
más sencillos organismos unicelulares conocidos.
Según sus investigaciones, el número mínimo de genes capaces de producir las proteínas
que uno de estos organismos necesita para sobrevivir y reproducirse en un laboratorio es
de entre 265 y 350.
Para averiguarlo, Hutchinson ha empleado una técnica llamada GTM (Global
Transposon Mutagenesis) sobre varios ejemplares de la bacteria que denominamos
Mycoplasma genitalium. La GTM sigue un proceso de eliminación por el cual se insertan
fragmentos de ADN no relacionado en medio de genes, con el objeto de interrumpir su
función y ver si el organismo es capaz de sobrevivir a ello. La conclusión principal, para
esta bacteria, es que un tercio de sus genes no son realmente necesarios para su
supervivencia.
El estudio es interesante, ya que permitirá avanzar en la creación de formas de vida
"mínimas", hechas a medida y alteradas para servir como agentes biológicamente activos
capaces de luchar contra enfermedades. Reducir la complejidad que deban tener estos
agentes permitirá obtenerlos mucho antes de lo esperado. También tendrán un mayor
atractivo comercial y menos implicaciones éticas y sociales.
Un centenar de los genes que han sido identificados en la Mycoplasma genitalium como
necesarios, curiosamente, son aún desconocidos para nosotros y no sabemos para qué
sirven. Sólo podemos decir que su ausencia ocasiona la muerte.
En comparación, el genoma humano es 5.000 veces más grande que el de la bacteria
estudiada, un organismo que ocasiona síntomas parecidos a la gonorrea en las personas.
Su genoma sólo contiene 517 genes, el menor número entre todos los organismos
unicelulares conocidos.
La idea de construir genomas mínimos no supone en principio una violación de
preceptos morales, pero probablemente habrá que delimitar antes a partir de qué
momento un genoma es demasiado complejo como para dar lugar a organismos pensados
para nuestro beneficio sin crear reticencias éticas.
Información adicional en:
http://www.unc.edu/news/newsserv/research/hutch12999.htm
Noticias de la Facultad
Nuevos titulados de la Facultad de Ciencias
El 18 de febrero de 2000 se realizaron dos exámenes profesionales, en la modalidad de
realización de semestre de maestría como opción de titulación. De esta manera
obtuvieron exención del examen profesional por haber obtenido un promedio igual o
721
El Hijo de El Cronopio No. 67
mayor que ocho a carga completa en el primer semestre de un programa de posgrado en
física, electrónica o matemáticas, que se encuentre en el padrón de excelencia del
CONACYT. Los alumnos titulados son:
Francisca del Carmen Rosales Núñez
Quien realizó su semestre de maestría en el IICO-UASLP, obteniendo el título de
Ingeniero Físico
Juan Medellín Zapata
Quien realizó su semestre de maestría en el Instituto de Física de la UASLP, obteniendo
el título de Licenciado en Electrónica Física
La Ciencia desde el Macuiltépetl/ La institucionalización de la ciencia
Por Manuel Martínez Morales
La ciencia tal y como la conocemos, es decir, como institución patrocinada socialmente y
como profesión legítima reconocida por la sociedad, es un producto histórico
relativamente reciente.
No estamos muy lejos de los siglos XVI y XVII donde al quehacer científico, si se le
pudiera llamar de esa forma, se dedicaban unos cuantos hombres inquietos sin más
presupuesto que el que de sus propios bolsillos pudieran obtener, o el de algunos nobles
o mercaderes ricos que estuvieran dispuestos a patrocinarlos a cambio del
entretenimiento que con sus ocurrencias “filosóficas” e ingeniosos aparatos pudieran
brindarles los virtuosi.
El reconocimiento definitivo de la ciencia como institución social de primera
importancia, tanto en la cultura como en la producción, se dio en el momento en que se
crearon las primeras sociedades científicas. Entre las primeras se cuentan la Academia
dei Lincei, fundada en Roma alrededor de 1600, la de Cimento en Florencia (1651) y las
dos que a la larga tuvieron mayor trascendencia histórica: La Académie Royale des
Sciences en Francia (l666) y la prestigiada Royal Society of London (1662).
Todas estas sociedades fueron formándose a partir de reuniones informales que grupos
de amigos realizaban para discutir las nuevas ciencias de su época. Inicialmente, dichas
sociedades no contaban con patronazgo o subvención alguna y la única fuerza cohesiva
del grupo la constituía el propio interés de sus miembros.
Hay que decir, a favor de estas sociedades, que no sólo mantuvieron un foro de discusión
para asuntos científicos, sino que otra de sus actividades importantes fue la divulgación
de sus ideas y puntos de vista, a través de publicaciones regulares. Éstas jugaron un papel
fundamental en la apreciación de la ciencia por la sociedad. Así, la Academia Francesa
inició el Journal des Savants y la Royal Society su Philosophical Transactions. Estas
publicaciones, que en sus principios comprendían temas científicos y filosóficos muy
generales, fueron dando origen a numerosas revistas especializadas, muchas de las cuales
perduraron hasta nuestros días.
Tuvo que pasar todavía algún tiempo para que la profesión del científico fuese
socialmente reconocida y la ciencia dejara de ser contemplada como una ocupación rara
a la que sólo se dedicaban los “gentlemen” y aristócratas en sus ratos de ocio. John D.
Bernal cita a un tal Whemell como el primero, en una obra llamada Filosofía de las
ciencias inductivas, fechada en l840, en proponer el uso de la palabra científico:
“Necesitamos un nombre para designar a aquel que se dedica al cultivo de la ciencia en
722
El Hijo de El Cronopio No. 67
general. Yo me inclinaría llamarlo científico”. Hasta aquí lo que se refiere a Europa
como cuna de la ciencia moderna.
En cuanto a México, la situación de la ciencia ha tenido y sigue teniendo grandes
altibajos. Eli de Gortari, en su monumental obra La ciencia en la historia de México,
hace un detallado inventario de los logros alcanzados en la ciencia y la tecnología, por
los pueblos del México precortesiano. Estos pueblos tuvieron un desenvolvimiento
cultural bastante notable, sobre todo en el campo del conocimiento científico, alcanzando
un nivel destacado.
En matemáticas, astronomía, agricultura, medicina, trabajos de los metales, construcción,
obras hidráulicas y artesanías, nuestros antepasados lograron adquirir un desarrollo
sumamente amplio y profundo, sólo que este desarrollo fue interrumpido de manera
violenta y definitiva por los conquistadores.
Posteriormente, pueden distinguirse tres épocas durante las cuales se ha intensificado
notablemente la actividad científica en nuestro país. Cito a de Gortari:
la primera de ellas comprendió las tres últimas décadas del siglo
XVIII y la primera del siglo XIX; la segunda abarcó desde el último
tercio del siglo XIX hasta los primeros años del siglo XX; y la
tercera –en la cual nos encontramos ahora– se inició después de la
revolución de 1910. Fue en la primera época “cuando se inició en
México la secularización de la enseñanza y se introdujeron la
ciencia y la filosofía modernas. El resultado fue que se produjo un
auge inusitado en la investigación científica.
mismo que fue interrumpido como consecuencia de los graves conflictos sociales y
políticos que se suscitaron después de la guerra de independencia.
La segunda época se dio a partir de la instauración de las leyes de reforma, pues en ellas
se declaró obligatoria y gratuita la enseñanza primaria, y se
ensanchó considerablemente la enseñanza media y se mejoró de un
modo conspicuo la educación superior. Por otra parte, se fundaron
varios institutos de investigación científica y se formaron muchas
sociedades científicas que promovieron la ejecución de una gran
cantidad de trabajos científicos [...] Sin embargo, antes de que
pudiera llegar la etapa de la elaboración científica propiamente
dicha, el gobierno porfirista destruyó las bases liberales del
movimiento de reforma [...]
teniendo, entre otros muchos efectos, el haber tergiversado y detenido el movimiento de
investigación científica. (Las citas anteriores son del ensayo Problemas de la historia de
la ciencia y la tecnología en México de Eli de Gortari, aparecido en Reflexiones
Históricas y Filosóficas de México, Grijalbo, 1982.)
Fue a partir de los logros de la Revolución Mexicana que, poco a poco, se han ido
sentando las condiciones propicias para el desarrollo de la actividad científica. De nuevo
comenzaron a crecer y multiplicarse las sociedades y publicaciones científicas, y en
nuestras universidades –con grandes dificultades económicas a veces, luchando contra la
incomprensión, en otras– se han abierto carreras que pueden catalogarse, sin lugar a
dudas, como carreras científicas. Durante la última década, la formación de varios miles
723
El Hijo de El Cronopio No. 67
de investigadores y la apertura de centros, instituciones e institutos de investigación, han
constituido un enorme paso para el desarrollo de la ciencia en México.
Sin embargo, quienes hemos elegido la profesión científica, en cualquiera de sus ramas,
nos encontramos frecuentemente con manifestaciones de incomprensión sobre los
objetivos, logros y alcances de nuestra actividad. Muchas veces somos objeto de críticas
infundadas que parten de puntos de vista deformados sobre las tareas de investigación
científica. Esta situación puede explicarse porque la ciencia en México apenas está en
vías de alcanzar su institucionalización plena. Por una parte, los medios de divulgación
científica son todavía pocos y modestos en sus alcances; por otra parte, la insuficiencia
de recursos para realizar trabajos de investigación provoca que la productividad sea poca
y de alcances limitados.
Se ha insistido en muchas ocasiones sobre la gran importancia que tiene para México el
desarrollo científico y tecnológico, como también se ha tratado de hacer ver la urgente
necesidad de diseñar una política científica para aprovechar al máximo los recursos
disponibles.
Para no perder otra oportunidad de consolidar a la ciencia como factor básico de
desarrollo social, hace falta un apoyo decidido a las tareas de investigación y a la
formación de científicos, además de una participación, también decidida, de los propios
investigadores para volver más productivo y eficiente su trabajo, en el marco de una gran
responsabilidad y solidaridad social que, en estos momentos tanta falta nos hace.
El Cabuche (crónicas de la Facultad de Ciencias)/ Yo soy rielero
Cárdenas San Luis Potosí, ciudad rielera; mejor dicho, ciudad que fue rielera, una de las
importantes divisiones en la República con que contaba Ferrocarriles Mexicanos. Su
economía estaba fincada en los ferrocarriles, a tal grado que llegó a contar con alrededor
de 40,000 habitantes; de hace tiempo a la fecha Cárdenas ha dejado de ser un emporio
ferrocarrilero disminuyendo su población a cerca de 20,000 habitantes y, su economía
dejó de depender del ferrocarril y ahora se basa en el comercio y en los braceros.
Cárdenas se ha convertido en un polo de emigración a los iunaited. Precisamente allí,
estuvimos la semana pasada haciendo proselitismo (que no político, esos son otros) a
favor de la Escuela-Facultad a fin de orientar vocaciones entre los jóvenes
preparatorianos y en un futuro poder contar con más cardenenses entre nuestras filas. A
lo largo de la historia de nuestra facultad han desfilado por sus pasillos una gran cantidad
de cardenenses (no sé si así se les diga, aunque yo podría decirles de otro modo). Por
otro lado la promoción de las carreras de la facultad que sistemáticamente realizan
profesores y estudiantes es un ejercicio, que a pesar de que el número de ingreso está
sumamente limitado, debe de seguirse realizando. Estuvimos en la preparatoria Rafael
Nieto incorporada a la universidad, que por cierto es la segunda preparatoria que se creó
en el interior del estado, después de la de Matehuala, acompañando al flamante director
de la facultad, que por cierto es egresado de la citada prepa y que en 1997 le otorgaron el
Premio Preparatoria que a partir de 1996 se asigna a los más destacados egresados de la
preparatoria cardenense. Con diversas pláticas, de divulgación y orientación, el Chino,
Medellín, José Luis, Pablito, Isaac, Benito y Jhony (yo) participamos en el cuarenta
aniversario de la prepa de Cárdenas. Fernando Z. Maldonado, compositor de temas como
volver, volver, entre otros sumamente conocidos, también es cardenense y ha
724
El Hijo de El Cronopio No. 67
promocionado su tierra a través de conocidas canciones, entre ellas, no podía faltar la
mención de Cárdenas
Vamos a Cárdenas/Qué lindo es Cárdenas/Vamos a
Cárdenas, San Luis Potosí
E l concurso se llevará a cabo durante la X X X V I I I S e m a n a d e c i e n c i a s del 27 al 31 de marzo del 2000 en la explanada de la Facultad
de Ciencias bajo las siguientes
BASES
7
7
7
7
7
7
7
Tienes que ser alumno de la Facultad de Ciencias (no importa carrera ni semestre).
Los trabajos pueden ser didácticos, experimentales o tecnológicos de cualquier rama de la física (mecánica, óptica, electrónica,
electromagnetismo, etc.) o hasta puede ser una invención.
Puedes realizarlo en equipo (máximo 3 personas).
Tu eliges como mostrar tus ideas (Puede ser un experimento, una teoría, etc.).
Cada participante (o equipo) tendrá que elaborar un cartel explicativo del trabajo.
La fecha límite de inscripción será el día 10 de Marzo del 2000 (la inscripción será gratuita).
El trabajo presentado puede ser asesorado por algún investigador de: FC-UASLP, IF-UASLP o IICO-UASLP.
ASPECTOS A CALIFICAR
4
4
4
Creatividad para expresar tus ideas (montaje experimental, maqueta, etc.).
Defensa del trabajo ante los jurados calificadores.
Originalidad y contenido del cartel.
JURADO CALIFICADOR
+
Estará integrado por investigadores de la FACULTAD DE CIENCIAS, IF-UASLP e IICO-UASLP.
PREMIOS
Π Todos los participantes recibirán constancia de participación.
Π Para los tres primeros lugares: Diploma y vales para libros.
INFORMES E INSCRIPCIONES
Cuauhtémoc Araujo A. E-mail: araujo@galia.fc.uaslp.mx
Sandra Balderas M. E-mail: eloisa@galia.fc.uaslp.mx
Valentina Franco L. E-mail: f.valentina@mailcity.com
David Meneses Rdz. E-mail: meneses@galia.fc.uaslp.mx
Consejería de alumnos
725
El Hijo de El Cronopio No. 67
QUE ESPERAS.... INSCRIBETE YA!!!
QUE ESPERAS.... INSCRIBETE
YA!!!
Y si quieres participar y no sabes que trabajo presentar, puedes elegir alguno de los
proyectos que nosotros te proponemos, asesorados por los siguientes investigadores.
INVESTIGADOR
Dr. Salvador Palomares
M.C. Selina Ponce
Dr. Manuel Mirabal García
Dr. Jurgen Engelfried
Dr. Gonzalo Hernández
M.C. Raymundo Rodríguez
Dr. Ricardo Guirado
M.C. Gerardo Ortega
Dr. Refugio Martínez
Dr. Francisco de Anda Salazar
M.C. José G. Nieto
Dr. Gustavo Ramírez Flores
DEPENDENCIA
PROYECTO
IF-UASLP
IF-UASLP
IF-UASLP
IF-UASLP
IF-UASLP
DFM - UASLP
IF-UASLP
FC-UASLP
FC-UASLP
IICO-UASLP
IICO-UASLP
IICO-UASLP
Líquidos Magnetoreólogicos
Cualquier proyecto.
Calentador solar
Circuito electrónico con módulos de NIM
Cualquier trabajo de electromagnetismo
Sin nombre.
Magnetismo.
Cualquier proyecto.
Cualquier proyecto.
Cualquier proyecto.
Cualquier proyecto.
Cualquier trabajo en óptica.
726
El Hijo de El Cronopio No. 67
La Universidad Autónoma de San Luis Potosí
A través de la Facultad de Ciencias
Felicita
Al joven Joel Briones Hernández estudiante de esta
Facultad, por haber obtenido el PRIMER LUGAR en el concurso
“LEON M. LEDERMAN AWARD 2000” que organiza
anualmente la Fundación Hertel, A.C. para los mejores estudiantes
de Física de nuestro País.
San Luis Potosí, S.L.P. a 29 de febrero de 2000
“DESCUBRIR LO CREADO ES CREAR LA CIENCIA”
Fís. Benito Pineda Reyes
Director
727
Boletín
El Hijo de El Cronopio
Facultad de Ciencias
Universidad Autónoma de San Luis Potosí
No.68, 6 de marzo de 2000
Boletín de información científica y
tecnológica de la Facultad de Ciencias
Publicación semanal
Edición y textos
Fís. J. Refugio Martínez Mendoza
Cualquier información, artículo o
anuncio deberá enviarse al editor
e-mail: flash@galia.fc.uaslp.mx
Este boletín y números anteriores,
pueden consultarse por Internet en la
página de la UASLP:
http://phobos.dtc.uaslp.mx/publi.html
44
Aniversario
de la
Fundación
de la
Facultad de Ciencias
1956-2000
El Hijo de El Cronopio No. 68
Semblanza, en forma de cápsulas, de la Facultad de Ciencias, 1956-2000
Hace 44 años se inició formalmente en San Luis Potosí la formación de físicos al crearse
en 1956 la, entonces, Escuela de Física de la Universidad Autónoma de San Luis Potosí
hoy, Facultad de Ciencias. A lo largo de 44 años, con altos, bajos y crisis, la física se ha
desarrollado formidablemente en San Luis Potosí. En la actualidad la física potosina
cuenta con un buen prestigio a nivel internacional y constituye la punta de lanza de los
grupos de investigación de la Universidad Autónoma de San Luis Potosí, siendo los
representativos los grupos del Instituto de Física y del Instituto de Investigación en
Comunicación Óptica, quienes además se encargan de la maestría y doctorado en
ciencias, en la especialidad de física y ciencias aplicadas, mientras que la Facultad de
Ciencias, heredera de la Escuela de Física, se encarga de la licenciatura. Durante la
primer semana de marzo de cada año, se celebra desde el año de 1962, la tradicional
Semana de Física, para conmemorar el inició de actividades de la Física en San Luis.
I
Hace 44 años se hacían los preparativos para el inicio de actividades de la Escuela de
Física, que sería apenas la tercera escuela en el país. En la mañana del 5 de marzo de
1956 a las 9:00 horas Gustavo del Castillo y Gama inició su primera clase de física
general con una breves palabras de bienvenida para los alumnos y luego entró de lleno en
el terreno de la ciencia. A las 10:00 horas en punto tocó el turno a Candelario Pérez
Rosales dando principio al curso de matemáticas. Nueve estudiantes habían escogido la
carrera de física, más que nada, al decir de Candelario Pérez, movidos por el deseo de
aventurarse en lo desconocido. Los pioneros que tomaron parte en la aventura se
llamaban: Alejandro Aranda, Miguel Avila Luna, Manuel Carrillo Grajeda, José
González Córdova, Alfonso Ledezma Zavala, Raúl Nuño González, Jorge Pérez Morón,
Victor Torres y Juan Fernando Cárdenas Rivero. Con el tiempo cuatro de ellos llegarían
a graduarse como físicos. Los demás se quedarían en el camino.
Candelario Pérez Rosales, en su libro Física al Amanecer, nos cuenta de ésta primera
generación: Del total de nueve alumnos que se inscribieron en el primer semestre, seis
habían llevado cursos de ingeniería. Algunos de ellos ya habían probado la amargura del
fracaso y se habían refugiado en la Escuela de Física con la esperanza de encontrar alivio
a sus desdichas. Pero la física no admite falsos seguidores: fue inevitable que volvieran a
caer en desgracia. De los exalumnos de ingeniería, sólo dos demostraron vocación y
calidad: Juan Cárdenas Rivero, recién llegado de la Escuela Superior de Ingeniería
Mecánica y Eléctrica del Instituto Politécnico Nacional, y Jorge Pérez Morón, que había
hecho estudios en la Facultad de Ingeniería de la UNAM. A partir de su ingreso a la
Escuela de Física, estos dos estudiantes llevarían vidas paralelas y llegarían a ser los
primeros físicos en San Luis Potosí.
Juan Cárdenas había formado parte de la generación pionera de 1956. Procedía de la
Escuela Superior de Ingeniería Mecánica y Eléctrica del IPN. Estaba a punto de
graduarse como ingeniero, cuando un llamado tardío de su conciencia desvió el curso de
su vida hacia el mundo de la física. Siendo potosino de origen, había hecho la
preparatoria en San Luis antes de enrolarse en las filas del Politécnico. De aquel grupo
730
El Hijo de El Cronopio No. 68
que nació con la escuela, Juan Cárdenas era el alumno que mejor comprendía la
importancia de la física como actividad creativa. Tenía una formación polifacética que le
permitía discutir, con argumentos contundentes, lo mismo de ciencia, que de arte o
tecnología. Fue lógico pues, que los estudiantes de su época lo reconocieran como su
líder natural.
Durante sus tiempos de estudiante y de maestro, Juan Cárdenas fue, ante todo, un líder.
Sus alumnos lo buscaban, lo seguían y lo imitaban. Admiraban su sentido del humor, sus
críticas incisivas, la rapidez de su pensamiento y su dominio de las relaciones humanas.
Ejerciendo su calidad de guía, llegó a la dirección de la escuela y del instituto, en la que
sería la tercera época de la física en San Luis Potosí. En ese tiempo, la situación del
instituto era anómala. En Juan Cárdenas recayó la responsabilidad de normalizar sus
funciones dentro de la Universidad. Separó el instituto de la escuela; lo dotó de
instalaciones propias; le dio un presupuesto digno y lo convirtió en un lugar hospitalario
para los investigadores.
II
El 5 de marzo de 1956 iniciaron las actividades de la entonces Escuela de Física de la
Universidad Autónoma de San Luis Potosí, siendo apenas la tercera escuela de física
fundada en el país. Desde sus inicios se complementaron las actividades docentes con las
de investigación, canalizando estas últimas al Instituto de Física, cuya existencia fue
indispensable para la subsistencia de la Escuela, y que inició sus labores de investigación
meses antes de que comenzará a funcionar la Escuela.
En dos años la Escuela de Física y, sus trabajos de investigación a través del Instituto de
Física, hicieron que se convirtiera en un centro de investigación de primer orden. El
INIC (Instituto Nacional de Investigación Científica), antecesor inmediato del
CONACyT, y PEMEX canalizaban apoyo financiero para el desarrollo de la Física en
San Luis.
Las actividades de investigación se iniciaron con proyectos sobre física nuclear de altas y
bajas energías.
El Instituto y la Escuela eran dos entidades estrechamente unidas entre si, que habían
nacido bajo el mismo techo y que permanecieron al amparo de los mismos muros por dos
décadas. Parte de los apoyos del INIC consistían en contratar a los profesores de la
Escuela como investigadores del INIC.
Posteriormente Escuela e Instituto pasaron por altibajos, y no fue sino hasta mediados de
la década de los setenta, que empezó a consolidarse una planta docente y de
investigación estable. En esta época Escuela e Instituto aun seguían de la mano.
A finales de los setenta, el Instituto contó con edificio propio y el personal docente de la
Escuela e Instituto no era ya más el mismo. Las actividades de investigación se
desligaron de las docentes y aquellas se realizaron primordialmente en el Instituto de
Física.
731
El Hijo de El Cronopio No. 68
A principios de los ochenta se crearon en la Escuela, además, los Departamentos de
Matemáticas y Electrónica y la Escuela de Física se convirtió en Facultad de Ciencias al
encargarse administrativamente de los posgrados en física. En esta misma época inicia el
fuerte desarrollo en investigación del Instituto de Física y se logra graduar por primera
vez en provincia a un doctor en ciencias.
Desde 1962, en el mes de marzo, se celebra la tradicional Semana de Física para recordar
el inició de la Física en San Luis. Este año se celebra la edición 38 de la Semana de
Física, ahora de Ciencias.
III
En la década de los cincuenta, el número de físicos profesionales en México era
prácticamente nulo, apenas existían dos escuelas de física en el país. Los pocos físicos
que existían se formaban en el extranjero.
Tal fue el caso de dos potosinos, uno de ellos, Gustavo del Castillo y Gama, con
formación de ingeniero químico que se trasladó a la Universidad de Purdue, en Estados
Unidos, para realizar sus estudios de posgrado, en donde obtuvo su doctorado. El otro,
Candelario Pérez Rosales, quien se dirigió a la misma Universidad de Purdue a estudiar
la licenciatura en física. Fue allí donde se conocieron y planearon la creación de una
escuela de física en la universidad potosina.
tiempo después vieron cristalizado su proyecto cuando, en el primer semestre de 1955 y,
con una sola persona, comenzaron las actividades del Instituto de Física. Posteriormente,
en diciembre de 1955, el Consejo Directivo Universitario, aprobó la creación de la
Escuela de Física, misma que inició sus actividades el 5 de marzo de 1956.
Después del inicio de actividades de la Escuela e Instituto de Física de la Universidad
Autónoma de San Luis Potosí. Las actividades de investigación se iniciaron con un
proyecto sobre física nuclear de altas energías y otro sobre física nuclear de bajas
energías.
En el primer proyecto se trataba de utilizar la radiación cósmica como fuente de
partículas de alta energía para inducir interacciones nucleares en placas de plomo. Para
este fin se construyó una cámara de niebla, la primera construida totalmente en México,
con sistema de control electrónico. Las pruebas iniciales de funcionamiento del equipo se
hicieron a mediados de 1957. En este laboratorio se observaron, por primera vez en
México, trayectorias de partículas generadas al interaccionar la radiación cósmica con la
materia terrestre. En el artículo: Pruebas preliminares de la operación de la cámara de
Wilson y el equipo automático de control, quedaron descritos los resultados
experimentales iniciales. El artículo se publicó en el número inaugural de la revista Acta
Científica Potosina, que publica la Universidad Autónoma de San Luis Potosí.
El segundo proyecto estaba encaminado a hacer estudios sobre los llamados coeficientes
de conversión interna de algunos isótopos radioactivos pesados. Para llevar a cabo este
proyecto fue necesario construir un espectrómetro de centelleo. Los resultados de esta
732
El Hijo de El Cronopio No. 68
construcción quedaron descritos en el reporte titulado: Diseño y construcción de un
espectrómetro de centelleo, publicado en octubre de 1960.
IV
Al iniciar las actividades, en 1956, de la Escuela de Física, hoy Facultad de Ciencias,
estas estaban relacionadas con el trabajo experimental. Se pensó que era necesario
incorporar a los alumnos de Física en el trabajo manual. Para estimular ese gusto por la
física experimental, a mediados de 1957, se puso en marcha un programa para el diseño
y construcción de cohetes.
A partir de entonces y durante más de una década, se trabajo intensamente en este
programa cuyos propósitos eran: 1) satisfacer la curiosidad científica de construir objetos
que pudieran elevarse más allá de las nubes. 2) aprovechar los artefactos para provocar la
lluvia, mediante la detonación de cargas explosivas en el seno de las nubes. 3) estimular
el desarrollo de dispositivos de telemetría y control.
Aunque el programa no llegó a cumplirse totalmente, el 28 de diciembre de 1957, se
lanzó por primera vez en México un cohete con fines científicos, el mismo año en que la
ex-Unión Soviética inauguraba la era espacial.
Este programa, además de satisfacer los objetivos educativos planteados, sirvió para
interesar a la sociedad potosina en las actividades de ciencia realizadas en la UASLP,
pues tan espectacular resultó el programa que los periódicos locales y en determinado
momento nacionales dieron cuenta, con descripciones detalladas de los experimentos y
fotografías espectaculares que dieron la vuelta al mundo, de los lanzamientos de cohetes
tan famosos de los estudiantes de física realizados en un lugar al que los periodistas
bautizaron como "Cabo Tuna". Esta actividad se inició en 1957 y persistió prácticamente
a lo largo de la década de los sesenta. Las noticias de los experimentos trascendieron los
límites de San Luis Potosí y se esparcieron por todo el territorio nacional. En 1963,
cuando la ciudad de los Mochis, Sinaloa cumplió medio siglo de vida, la comisión
organizadora de los festejos deseaba que como parte de los actos conmemorativos se
lanzara un cohete. El día del aniversario, ante un estadio de béisbol repleto de
asombrados espectadores, dos cohetes salieron rugiendo de una improvisada torre de
lanzamiento instalada en el fondo del parque. Los artefactos se elevaron dos mil metros,
se perdieron de vista, descendieron con un zumbido de bala y se enterraron en un
panteón que se encontraba al otro lado de la barda del parque.
V
Anteriormente y después de la salida de Gustavo del Castillo y Candelario Pérez, la
Escuela pasó por una de sus crisis. Para lograr completar los cursos los propios
estudiantes tenían que incorporarse a este proceso y ellos mismos impartían clases en la
Escuela. Según indica Francisco Mejía Lira en sus apuntes sobre la historia de la Escuela
de Física, publicados en los Cuadernos de Divulgación Científica, No.1, FC-UASLP,
"con los estudiantes a cargo de la escuela se logró por primera vez que se impartieran
todos los cursos marcados en el programa, en el semestre que finalizó en junio de 1971".
733
El Hijo de El Cronopio No. 68
En la década de los setenta, se logró contar con una planta de profesores suficiente para
mantener los cursos de toda la carrera.
A partir de 1974 se ofrecía la Maestría en Ciencias y los egresados de la escuela
empezaron a realizar sus estudios de maestría en colaboración con la UNAM. Con una
planta más estable de profesores para la escuela, ahora se ofrecía la oportunidad para que
los egresados de la escuela realizaran estudios de posgrado y se incorporaran
posteriormente a la planta de profesores e investigadores.
Mientras tanto la Escuela de Física fortalecía su desarrollo con el regreso de algunos de
sus alumnos como maestros. La escuela, que había estado a cargo de los alumnos
sobrevivió exitosamente. Por aquellas fechas, a principios de los setenta, regresaba de
Alemania, donde realizó sus estudios de doctorado, Joel Cisneros Parra, encargándose de
la dirección de la Escuela. Con Cisneros al frente de la escuela ésta se encaminaba a una
verdadera consolidación. Para 1974 se contaba con una planta que aseguraba la
conclusión de todos los cursos de la carrera. Esta estabilidad permitía que los profesores
de la escuela que habían realizado estudios de posgrado trataran de llevar a cabo
proyectos de investigación. Sin embargo, no hubo posibilidad de combinar las
actividades docentes y de investigación; la gente que podía realizar investigación se
mudó al Instituto de Física, en donde, para esas fechas, se habían graduado los primeros
maestros en ciencias. Con este pequeño grupo y la interacción con investigadores
potosinos que se encontraban en el CINVESTAV, empezaron a desarrollarse proyectos
de investigación en Materia Condensada y aparecieron las primeras publicaciones
científicas. Se ofreció el doctorado en ciencias y todo este esfuerzo condujo a que, por
primera vez en provincia, se graduara un doctor en ciencias en esta disciplina (Pedro
Villaseñor González).
En este periodo aparecen las primeras publicaciones en revistas internacionales. La
semilla sembrada empezaba a dar frutos en el terreno de la investigación científica. Por
su parte la Escuela de Física reforzaba su planta de maestros de tiempo completo para
cubrir los cursos, tanto de la carrera de física, como de las carreras de los departamentos
de matemáticas y electrónica, recién abiertos. Sin embargo, se careció de un programa
adecuado para aumentar la plantilla de profesores de tiempo completo.
A fines de la década de los setenta se reformula el plan de estudios y se sientan las bases
para crear la carrera de electrónico físico, como un esfuerzo para abrir las posibilidades
de desarrollo profesional para los físicos en la industria.
A principios de los ochenta al abrirse las carreras de profesor de matemáticas y profesor
de física, se plantea el cambio de nombre para la Escuela quedando el de Escuela de
Ciencias, pocos días después al encargarse administrativamente del posgrado en física, la
Escuela se convierte en Facultad de Ciencias y se establece el sistema departamental, que
en realidad fue aprobado por el Consejo Directivo Universitario en septiembre de 1980,
formado por los Departamentos de Física, Matemáticas, Electrónica y Materias
Complementarias; en la Facultad, con dicho sistema, llegan a existir hasta diecisiete
carreras, para una población aún muy baja de estudiantes.
734
El Hijo de El Cronopio No. 68
En este periodo (1976-1982) aumenta considerablemente la planta de profesores de
tiempo completo, misma que se mantiene prácticamente sin cambios hasta la fecha.
Actualmente, en la Facultad de Ciencias, se cuenta con diecinueve profesores de tiempo
completo e investigadores de los institutos de física y de comunicación óptica colaboran
en la formación de profesionales a nivel licenciatura. Recientemente se ha abierto una
nueva opción para estudiantes interesados en la física aplicada: la carrera de ingeniería
física.
Noticias de la Ciencia y la Tecnología
Hola, Eros
La sonda NEAR se encuentra ya en órbita alrededor del asteroide Eros. Le espera un año
de investigaciones que podrían culminar con un aterrizaje sobre su superficie.
Estamos ante un acontecimiento histórico. Por primera vez, una nave automática enviada
desde la Tierra ha conseguido colocarse en órbita alrededor de un asteroide, en una
remota zona del Sistema Solar situada entre Marte y Júpiter.
A las 16:00 UTC del 14 de febrero, la sonda NEAR confirmaba mediante la telemetría
que el encendido de sus motores había resultado exitoso y que su trayectoria quedaba a
partir de ahora plenamente dominada por la débil gravedad de 433 Eros, un asteroide
rocoso con aspecto de cacahuete (33 por 13 por 13 km).
La operación culmina muchos meses de espera por parte del equipo científico y de
control situado en la Tierra. Hace un año, un primer intento de orbitar el asteroide falló
por un error técnico. La nave sólo pudo sobrevolar su objetivo y continuar después su
avance alrededor del Sol. Transcurrida toda una órbita solar, el nuevo intento ha sido
coronado con el éxito. Puede decirse que, sin duda, el personal de la misión conoce
mucho mejor a su vehículo ahora que hace un año, lo cual ha permitido superar todas las
dificultades encontradas en el camino.
El NEAR (Near Earth Asteroid Rendezvous) pertenece a la serie Discovery de la NASA
y es controlado por el Johns Hopkins University Applied Physics Laboratory. Es una
misión de bajo coste, la primera en utilizar paneles solares y no sistemas de producción
eléctrica por radioisótopos a distancias tan alejadas del Sol.
La velocidad de aproximación de la sonda con respecto al asteroide fue muy lenta
durante la fase final de acercamiento, apenas 25 km/h. Durante los últimos días, la nave
había enviado información e imágenes de Eros, para confirmar que su trayectoria era la
correcta, para buscar posibles satélites y para medir las variaciones de brillo que den
pistas sobre las características de su rotación.
A las 15:33 UTC del día señalado, la NEAR se encontró a 327 km del centro del
asteroide, momento elegido para encender sus motores durante 57 segundos. Su
velocidad se redujo a la equivalente a unos metros por segundo, apenas la que emplea
una persona para caminar. Fue entonces capturada por la gravedad de Eros, a unos 256
millones de kilómetros de la Tierra.
La cámara de la sonda y sus instrumentos ya han empezado a enviarnos información.
Especialmente interesantes son las imágenes de la superficie, que presenta varios
cráteres.
735
El Hijo de El Cronopio No. 68
Durante las próximas semanas, la NEAR descenderá paulatinamente. La irregular forma
de Eros y su período orbital, unas 5,27 horas, hacen esta maniobra un tanto compleja.
Los controladores deberán ir con mucho cuidado para evitar que choque contra la
superficie.
Los diversos instrumentos científicos de la sonda permitirán analizar sus propiedades
durante los próximos meses. Desde unos 50 km de altitud, su espectrómetro intentará
medir la composición química del objeto, aportando pistas sobre su origen. En agosto, se
incrementará de nuevo la órbita hasta los 500 km para tomar fotografías de ancho campo
que permitan realizar un mapa del asteroide.
En diciembre se intentará un descenso hasta menos de 2 kilómetros de altitud, para
permitir el trabajo del espectrómetro infrarrojo. Al finalizar la misión, en febrero de
2001, podría incluso intentarse un aterrizaje suave sobre el asteroide, a pesar de que la
nave no ha sido diseñada para ello.
Información adicional en: http://near.jhuapl.edu
http://www.spacescience.com/headlines/y2000/ast14feb_1a.htm
http://spacescience.com/headlines/y2000/ast08feb_1.htm
Imagen: http://near.jhuapl.edu/iod/20000215/20000215.jpg
(Eros, visto desde la órbita de la NEAR.) (Foto: J. Hopkins U.)
¿Conocieron los romanos a los mexicanos?
Un hallazgo arqueológico sugiere que los romanos podrían haber visitado el Nuevo
Mundo antes que Colón. En 1933, se desenterró en el valle de Toluca, a 65 km al oeste
de la ciudad de México, una cabeza negra de terracota. Sólo tiene unos pocos centímetros
de altura, y representa un hombre barbudo. Lo curioso de la pieza es que su estilo
artístico es diferente de cualquier otro previo a la llegada de Colón a América.
Roman Hristov, un antropólogo de la Southern Methodist University, ha dedicado los
últimos años a estudiarla y ha llegado a una conclusión sorprendente. Su origen podría
ser romano, de una época anterior al descubrimiento del continente americano por el
famoso navegante. ¿Llegaron pues, los romanos, a América, mucho antes que los
españoles? Hristov obtuvo algunas muestras de material de la pieza y las envió al Max
Planck Institute for Nuclear Physics de Heidelberg. Se aplicó sobre ellas una técnica
llamada termoluminiscencia, donde una acción calorífica hace que los electrones de alta
energía acumulados en las muestras a lo largo del tiempo emitan su energía en forma de
luz. Midiendo dicha luz, se ha podido constatar que la terracota fue cocida hace 1.800
años.
La cabeza ha sido mostrada después a expertos en arte romano y éstos han concluido
que, en efecto, parece una pieza de esta cultura, de alrededor del año 200 de nuestra era.
La cabeza fue colocada originalmente en suelo funerario. Ahora, además, sería la
primera evidencia de la existencia de contactos pre-hispánicos entre el Viejo y el Nuevo
Mundo. (New Scientist)
Intercambios celulares
Por primera vez, los científicos han encontrado una forma de registrar las
"conversaciones" que tienen lugar de forma simultánea entre miles de moléculas en el
interior de una sola célula.
736
El Hijo de El Cronopio No. 68
La célula es uno de los elementos más sencillos que representan a la vida. Pero una
célula no es sino una reunión de miles de moléculas que interaccionan constantemente
entre sí para un fin común.
Científicos de los National Institutes of Health y de la CuraGen Corporation han
conseguido una auténtica primicia biológica al conseguir determinar cuáles de estas
moléculas "hablan" con otras a base de realizar contactos físicos.
Sin embargo, la tarea es ingente, de tal manera que ha sido necesario crear un método
automático. Los experimentos se han realizado sobre una especie particular de levadura,
la Saccharomyces cerevisiae, cuyas células son muy interesantes para los biólogos, ya
que aunque primitivas son muy parecidas a las de otras especies más evolucionadas,
incluidos los humanos.
"Escuchar" qué proteínas hablan físicamente con otras es un trabajo crítico para los
investigadores, debido a que las células se sirven de tales discusiones moleculares para
llevar a término las funciones de la vida, desde la respiración a la memoria.
Imaginemos la visita a una biblioteca llena de libros que no podemos leer. Esto es lo que
les ocurre, en un cierto sentido, a los biólogos, que disponen de grandes cantidades de
información genética pero no saben qué hacen los genes. Incluso en los casos en que lo
sabemos, resulta difícil saber cómo las partes de una célula se comunican con las demás,
a menudo a través de contactos físicos.
Para avanzar en este sentido, los investigadores utilizan una estrategia automatizada en la
que una célula de prueba sólo sobrevive si contiene proteínas que se tocan entre ellas. La
disponibilidad de todo el genoma de la especie de levadura en estudio facilita esto.
Cuando el genoma humano esté completo, se podrá aplicar la técnica al caso del
Hombre.
Información adicional en:
http://www.nih.gov/nigms/news/releases/fields.html
http://www.nih.gov/news/pr/feb2000/nigms-09.htm
Un nuevo estado de la materia
Experimentos realizados en el laboratorio europeo CERN aportan evidencias de que las
partículas llamadas quarks, en vez de unirse para formar otras más complejas como los
protones y neutrones, pueden permanecer libres en lo que sería un nuevo estado de la
materia.
Los astrofísicos y los especialistas en física de partículas cooperan estrechamente para
poner de manifiesto lo que ocurrió durante la gran explosión llamada Big Bang, la que
dio lugar al Universo en expansión que hoy en día conocemos. Las condiciones
imperantes durante este acontecimiento no son demasiado bien conocidas.
Hasta ahora, nuestros conocimientos de física permitían explicar con detalle cómo era la
materia poco después del Big Bang. Pero conforme andamos hacia atrás en el tiempo, se
hace más y más difícil concretar en qué estado se encontraba ésta.
Nuevos experimentos realizados en el laboratorio europeo CERN aportan luz a esta
cuestión. Hasta ahora sabíamos que los núcleos de los átomos de la materia ordinaria se
formaron unos tres minutos después del Big Bang. Diversas teorías sugerían que las
partículas que constituyen a neutrones y protones existían con anterioridad de forma
libre, pero esto no se había podido demostrar. Las investigadores de los científicos del
CERN confirman la viabilidad de este nuevo estado de la materia, lo que lleva nuestro
737
El Hijo de El Cronopio No. 68
conocimiento de lo ocurrido durante el Big Bang hasta tan sólo unos 13 microsegundos
después de la explosión.
El programa Heavy Ion, que está formado por siete experimentos, ha proporcionado una
imagen clara de la existencia de este nuevo estado de la materia en la que quarks y
gluones (los que conforman la materia ordinaria) no se encuentran confinados. Queda
por explorar cuáles son las propiedades físicas de este tipo de materia, cuestión que será
examinada por el Relativistic Heavy Ion Collider del Brookhaven National Laboratory, y
más adelante por el Large Hadron Collider del propio CERN.
El programa Heavy Ion ha servido para hacer colisionar iones de plomo, operación que
ha creado las densidades de energía inmensamente altas capaces de romper las fuerzas
que confinan los quarks en el interior de partículas más complejas. Un rayo de iones de
plomo de altísima energía (33 TeV) fue acelerado por el Super Proton Synchrotron
(SPS) y enviado a chocar contra siete detectores experimentales diferentes. Las
colisiones crearon temperaturas más de 100.000 veces superiores a las existentes en el
centro del Sol, y densidades de energía 20 veces mayores que las de la materia nuclear
ordinaria, nunca alcanzadas en un laboratorio.
Los resultados confirman la teoría de la existencia de un plasma de quark-gluon, la sopa
primordial en la que los quarks y los gluones existían antes de que se unieran cuando el
Universo empezó a enfriarse. La imagen completa que demuestra la existencia del
plasma es como una especie de rompecabezas, cada una de cuyas piezas ha sido
proporcionada por los distintos experimentos. Cada uno de ellos por separado no nos
proporciona la visión completa del problema.
Si bien parece que las partículas convencionales están formadas por quarks, nadie ha
podido aislar uno de ellos. Por su parte, los gluones son las partículas asociadas con las
fuerzas entre quarks. El hecho de que no existan libremente se debe a que sólo pueden
hacerlo ante temperaturas y densidades extremadamente altas. Tales condiciones
debieron existir durante unos momentos después del Big Bang, y es por ello que los
teóricos predecían la existencia del plasma quark-gluon. Transcurridos estos instantes,
quarks y gluones pasaron a formar la materia que conocemos hoy. Los científicos del
CERN, con sus experimentos, han dado visos de realidad a la teoría creando lo que ellos
llaman un "Little Bang" (Pequeña Explosión).
Información adicional en:
http://www.cern.ch/CERN/Announcements/2000/NewStateMatter
http://www.nbi.dk/na44/; http://na49info.cern.ch/; http://www.cern.ch/NA50/
http://www.lhep.unibe.ch/newmass/; http://www.cern.ch/WA97/
http://www.cern.ch/NA57/; http://www.cern.ch/WA98/Welcome.html
Júpiter no necesita al sol
Las grandes tormentas atmosféricas que caracterizan a Júpiter no son inducidas por el
Sol sino por el calor procedente del núcleo del planeta.
Científicos de la Cornell University, el California Institute of Technology y del NASA
Galileo Imaging Team en el Jet Propulsion Laboratory (JPL) han descubierto que
algunas tormentas atmosféricas en Júpiter se parecen mucho a ciertos cúmulos
tormentosos llamados MCC (Mesoscale Convective Complexes), existentes en la Tierra.
Al contrario de lo que se creía, los MCC jovianos no se desarrollan por los efectos del
738
El Hijo de El Cronopio No. 68
Sol sino por el intenso calor que emana del interior del planeta. Son estos MCC los que
determinan el sistema meteorológico de Júpiter.
En su atmósfera, aunque a mayor escala, pueden apreciarse fenómenos meteorológicos
análogos a los de la Tierra, incluyendo chorros de gases, grandes elementos ciclónicos y
anticiclónicos, turbulencias, etc.
La sonda Galileo ha fotografiado a menudo zonas especialmente interesantes, como una
al oeste de la Gran Mancha Roja, llamada cinturón ecuatorial sur. La física de los
cúmulos tormentosos MCCs es igual a la de los terrestres, pero la fuente de calor que
genera tales eventos es completamente diferente. Las tormentas en la Tierra son
pequeñas células de nubes cumolonimbus, creadas por el calor procedente del Sol
durante el verano local. Los MCC, cúmulos de muchas células de tormentas, son típicos
de esta época del año.
La diferencia entre la formación de MCCs y la de huracanes y ciclones es que estos
últimos son alimentados por el océano caliente, mientras que los primeros se forman por
la inestabilidad atmosférica.
En Júpiter, las cosas son diferentes, ya que se encuentra tan alejado del Sol (cinco veces
más que la Tierra) que éste no puede transferir la energía necesaria. Al contrario, el
gigante gaseoso emite un 70 por ciento de energía más de lo que recibe de nuestra
estrella, gracias al reservorio de hidrógeno altamente comprimido que alberga en su
núcleo. Los científicos creen que esto es más que suficiente para justificar las
turbulencias atmosféricas que observamos en él.
Los procesos desarrollados en Júpiter dejan pequeños a los de la Tierra. Por ejemplo, los
relámpagos son varias veces más grandes que sus homólogos terrestres.
Información adicional en:
http://www.news.cornell.edu/releases/Feb00/Jupiter.Storm.bpf.html
Imagen: http://www.news.cornell.edu/photos/gierasch-fig1.300.jpg
(Imágenes de una región tormentosa vista desde la sonda Galileo, cerca de Júpiter.)
La Ciencia desde el Macuiltépetl/ Ludwig Wittgenstein
Por Manuel Martínez Morales
Cuando oímos a un chino, nos inclinamos a considerar su lenguaje
como un balbuceo inarticulado. Pero quien entiende el chino
reconocerá allí el lenguaje. Así, con frecuencia, no puedo reconocer al
hombre en el hombre.
Este genial como enigmático pensamiento fue escrito por el filósofo Ludwig
Wittgenstein (Viena, 1889-Cambridge, 1951). ¿Qué quiso decir con estas cortas frases?,
¿acaso que el hombre es un lenguaje que debe descifrarse para reconocer al hombre?, y
¿cuál sería el “código” para descifrar tal lenguaje?
Existen muchas definiciones y muchas maneras de acercarse al lenguaje; se puede partir
de la filología que estudia las lenguas desde un punto de vista histórico gramatical, o
bien, puede estudiarse la moderna teoría matemática de las gramáticas, surgida del
análisis y diseño de los lenguajes artificiales que emplean las computadoras. Se puede
considerar al lenguaje como “el empleo de la palabra para expresar ideas” o como “un
conjunto de señales que dan a entender una cosa” o, en el contexto de las gramáticas,
formales, “el conjunto de palabras generadas por reglas gramaticales de algún tipo”.
739
El Hijo de El Cronopio No. 68
Todo lenguaje puede ubicarse, para su análisis en tres dimensiones: la sintáctica, la
semántica y la pragmática; también, puede abordarse el estudio de la historia de las
lenguas, la filosofía del lenguaje, la psicología del lenguaje, etcétera.
El estudio de ese fenómeno que simplemente designamos con el nombre de “lenguaje”
es, pues, un asunto bastante complejo.
Para Ludwing Wittgenstein el lenguaje constituyó un problema tan serio que dedicó la
mayor parte del trabajo al esclarecimiento de la naturaleza y función de los lenguajes.
Hijo de un próspero industrial del acero, Wittgenstein se dedicó en su juventud al estudio
de las ciencias naturales y a la ingeniería. Una serie de problemas prácticos lo condujo al
cultivo de las matemáticas, interés que eventualmente lo absorbió a tal grado que, en
1911, se inscribió en la Universidad de Cambridge para estudiar lógica matemática con
Bertrand Russell, quien pronto reconoció en él un gran talento.
Durante el transcurso de la Primera Guerra Mundial, Wittgenstein sirvió como oficial del
ejército austríaco y, al mismo tiempo, escribió lo fundamental de su obra Tractatus
Logico Philosophicus. En ésta, los principales problemas a los que pretende dar solución
se refieren a cuestiones tan trascendentes como ¿qué hace posible la existencia de un
lenguaje?, ¿cómo puede un hombre mediante la emisión de sonidos decir algo? y, ¿cómo
puede otro hombre entenderlo?
Tractatus está compuesto por un conjunto de cortas reflexiones, cuidadosamente
ordenadas y numeradas, cuyo contenido se refiere a la naturaleza del lenguaje, las
matemáticas, la lógica, la ética y la filosofía, pero el núcleo alrededor del cual giran
todos sus pensamientos es el lenguaje.
A pesar del éxito de su obra, Wittgenstein decidió retirarse de la filosofía y, de 1920 a
1925, fue maestro en una escuela primaria. Después, trabajó como jardinero y
posteriormente aceptó diseñar y construir la casa de una de sus hermanas. Hay que
mencionar que siendo heredero de una fortuna nada despreciable, el filósofo renunció a
ella y decidió vivir con sus propios medios. En 1929, regresó a Cambridge y volvió a
desarrollar sus ideas filosóficas, comenzando las notas de lo que más tarde sería
publicado bajo el nombre de Investigaciones filosóficas.
Wittgenstein nunca se sintió a gusto entre los practicantes de la filosofía académica y
recomendaba a sus alumnos que se dedicaran a otra cosa. Él mismo, después de haber
obtenido un destacado puesto profesional en Cambridge, renunció para trabajar como
conserje en un hospital y más tarde como ayudante en un laboratorio clínico.
La lectura de Wittgenstein es un tanto penosa, pero una vez que se penetra al espíritu de
la letra, el pensamiento se ve empujado en las más diversas direcciones; así queda claro
por qué en alguna ocasión Wittgenstein afirmó:
Me es indiferente que el científico occidental típico me comprenda o
me valore, ya que no comprende el espíritu con el que escribo. Nuestra
civilización se caracteriza por la palabra “progreso”. El progreso es su
forma, no una de sus cualidades, el progresar. Es típicamente
constructiva. Su actividad estriba en construir un producto cada vez
más complicado. Y aún la claridad está al servicio de este fin; no es un
fin en sí. Para mí, por el contrario, la claridad, la transparencia, es un
fin en sí.
No me interesa levantar una construcción, sino tener ante mí,
transparentes, las bases de las construcciones posibles. Así pues, mi fin
es distinto al del científico y mi manera de pensar diversa a la suya.
740
El Hijo de El Cronopio No. 68
El Cabuche (crónicas de la Facultad de Ciencias)/ Mi primera vez:
Contada por segunda vez
Ya encarrerados con las indiscreciones, que más da contarles mis intimidades; no tengo
ningún inconveniente en desnudarme ante ustedes contando mis actos cotidianos más
íntimos.
La primera vez, siempre está envuelta de nerviosismo e impaciencia, aunque impone
respeto y encierra un misterio. Sucedió en 1975, en el mes de marzo, cuando nos
enteramos que se suspendían las actividades, para celebrar un cumpleaños más de la
Escuela de Física, programándose actividades académicas, culturales y deportivas a lo
largo de la primer semana de marzo, a la que se le llamaba semana de física. Esa primera
vez, sentado en el aula Werner Karl Heisenberg escuchando una plática sobre filosofía
de la ciencia, impartida por no sé quién, y luego desplazándonos a la presa de San José a
participar en una carrera a campo traviesa, fue realmente agradable e inolvidable. Como
estoy seguro, que no faltó quién o quienes pensaran que trataría sobre otro asunto, quiero
decirles que mi indiscreción e inhibición no llega a tanto, y que no alimentaré sus mentes
cochambrosas. En esta ocasión escribo acerca de mi primera participación en una semana
de física, de esas a la que ahora se le llama Semana de Ciencias y que por motivos
obscuros se celebra en una semana que no le corresponde (cierto que a veces no queda de
otra). Antes de continuar, quiero aclarar que la semana pasada (en realidad hace un año),
con eso de las prisas, mencioné que el corral, digo el cubículo del chivo, cuando era
decente y funcionaba como aula, llevó el nombre de Albert Einstein, craso error, el
nombre correcto es el de P.A.M. Dirac; el aula Albert Einstein es donde actualmente se
encuentra el laboratorio de electrónica del Instituto de Física y en donde paso la mayor
parte del tiempo desde hace diez años (pasaba por qué ya me corrieron), peleando y
aguantando al Angelito; créanme que yo no era así, pero a fuerzas de cohabitar
(cohabitar, léase bien) en tan singular lugar y con tan singular personaje; pues ya sabrán.
Por lo pronto no digo más, esas sí serían indiscreciones.
La Semana de Física, ahora Semana de Ciencias, comenzó a realizarse en marzo de
1962, para conmemorar el inicio de actividades de la entonces Escuela de Física,
inundando el Edificio Central, edificio que alojara en sus primeros años a la Escuela, de
un ambiente festivo. Candelario Pérez en su formidable libro Física al Amanecer
(recientemente apareció publicada la segunda edición), habla de la semana de física “En
1962, iniciamos la costumbre de festejar el aniversario de la fundación de la Escuela de
Física. Cada año, durante una semana, se interrumpían las actividades de rutina y un
ambiente festivo se filtraba hasta el último rincón de la escuela. El tiempo caluroso, que
anunciaba la proximidad de la primavera, se saturaba de conferencias, de basquetbol, de
ajedrez, de días de campo, de actos sociales. A ese periodo de contagioso frenesí lo
llamábamos “la semana de física”.
La semana de física fue un factor de unidad para la escuela. Los festejos culminaban con
una cena de conmemoración a la que siempre asistía el rector de la Universidad. La cena
reunía a todos los maestros y a todos los alumnos en una plan de democrática
camaradería. Fue durante una de esas reuniones cuando sentí que la física se había
asentado para siempre en San Luis”.
Como verán, el reflejo de la escuela-facultad, lo es la semana de ciencias, su importancia
radica en celebrar y reflexionar el desarrollo de nuestra escuela-facultad a lo largo de, ya
741
El Hijo de El Cronopio No. 68
casi 43 años (en este año serán 44), semana de fiesta que merece el realce y nuestro
respeto; por otro lado este tipo de festejo es el más antiguo en la universidad, la semana
de física como tal fue la primera en celebrarse en toda la universidad (échenle un ojo al
resto de las semanas de las escuelas y facultades de la UASLP y verán), en esta ocasión
se efectuará en su edición número 37 (37 el año pasado, en este dos mil es la edición 38)
y con el nombre de semana de ciencias. Por lo pronto seguiré recordando esa, mi primera
vez, como dice una canción de Gonzalo Curiel, como un divino amanecer inolvidable
Es la cadencia de tu voz como rumor de alondra;/que
nunca, nunca olvidaré por ser incomparable/Porque
vino una vez a despertarme,/en un divino amanecer
inolvidable.
E l concurso se llevará a cabo durante la X X X V I I I S e m a n a d e c i e n c i a s del 27 al 31 de marzo del 2000 en la explanada de la Facultad
de Ciencias
INFORMES E INSCRIPCIONES
Cuauhtémoc Araujo A. E-mail: araujo@galia.fc.uaslp.mx
Sandra Balderas M. E-mail: eloisa@galia.fc.uaslp.mx
Valentina Franco L. E-mail: f.valentina@mailcity.com
David Meneses Rdz. E-mail: meneses@galia.fc.uaslp.mx
Consejería de alumnos
La Facultad de Ciencias de la Universidad Autónoma de San Luis Potosí, en el marco de
su 44 aniversario, convoca a todos los interesados a participar en el
V CONCURSO REGIONAL DE FOTOGRAFIA 2000
Las fotografías serán exhibidas durante la Semana de Ciencias, del 27 al 31 de
Marzo de 2000
Informes:
Salvador Palomares
IF-UASLP
José Nieto
IICO
742
J.R. Martínez
FC-UASLP
Boletín
El Hijo de El Cronopio
Facultad de Ciencias
Universidad Autónoma de San Luis Potosí
No.69, 13 de marzo de 2000
Reseña de...
Boletín de información científica y
tecnológica de la Facultad de Ciencias
Publicación semanal
Edición y textos
Fís. J. Refugio Martínez Mendoza
Cualquier información, artículo o
anuncio deberá enviarse al editor
e-mail: flash@galia.fc.uaslp.mx
Este boletín y números anteriores,
pueden consultarse por Internet en la
página de la UASLP:
http://phobos.dtc.uaslp.mx/publi.html
Como parte de las actividades de la Semana de
Ciencias, el día 27 de marzo se presentará el
libro del Maestro Sada, intitulado: El
Rompecabezas de la Creación, editado por la
Editorial Universitaria Potosina.
La presentación estará a cargo de la Dra. Beatriz
Velásquez Castillo el Fís. Benito Pineda Reyes,
el Mons. Dr. Guillermo Dip Ramé y el C.P. José
de Jesús Rivera Espinosa
En la invitación que para tal efecto hace la
Universidad Autónoma de San Luis Potosí, a
través de la Facultad de Ciencias, se lee en la
El Rompecabezas de la Creación
El Rompecabezas de la Creación trata de dar una
visión de algunas de las diferentes y más importantes
piezas del mosaico inabarcable de la Creación. Trata
de exponer una visión conciliadora entre varias de las
principales ciencias y la fe cristiana, haciendo ver que
las interpretaciones ateas de la ciencia carecen de la
base principal de sus argumentos o edificios tan
laboriosamente construidos. En una investigación
actualizada hasta 1999 en diversos campos, no se
encuentra ningún descubrimiento ni argumento
contundente que pruebe más allá de toda duda
razonable, que Dios no Existe o que el universo tenga
en sí mismo los principios de su origen y existencia o
de su fin; el universo no se puede suicidar, la ley de
conservación de la energía se lo impide, por razones
semejantes tampoco se pudo crear a sí mismo.
Se defiende en este libro la tesis de que la Teoría de la
Evolución y su agente 007: la selección natural,
pueden describir la evolución y progreso de todo lo
animal, de sólo lo animal y nada más que lo animal.
Cualquier fenómeno que no alcance a, o que rebase
esta esfera, debe estudiarse bajo la perspectiva de sus
leyes propias, que quizá impliquen algunas de las que
aplica la selección natural, pero que no coinciden
necesariamente o no se restringen a ellas. Otra tesis
que aquí se sostiene es que en el animal su
inteligencia está al servicio del instinto, mientras que
en el hombre el instinto está o puede estar al servicio
de la inteligencia. Asimismo se defiende que la
supervivencia, que constituye la máxima aspiración y
meta que pueden tener los animales o proponerse la
selección animal, para nosotros apenas constituye la
mínima de nuestras preocupaciones. La Teoría de la
Evolución podrá, tal vez, explicar lo que haya de
animal en el comportamiento humano, pero si en el
hombre hay otros elementos de naturaleza superior y
distinta a lo animal, entonces constituirá una teoría
incompleta para describir el nuevo fenómeno humano.
El Hijo de El Cronopio No. 69
Aleph Cero/ ¿Existen las matemáticas?
Por Shahen Hacyan para el Reforma
La pregunta del título puede parecer ociosa, pues cualquiera que haya estudiado
matemáticas en la escuela sabe que existe una ciencia con ese nombre. Sin embargo,
debemos especificar qué entendemos por existencia. Estamos seguros de que la Luna
existe sin que ello dependa de nuestra mente o de nuestra voluntad. En cambio, el
lenguaje existe, pero es un producto humano. La Luna seguiría existiendo sin los
humanos, pero no el lenguaje. ¿Y las matemáticas?
El sentido común dice que las matemáticas son un producto de la mente humana. Sin
embargo, el hecho de que las matemáticas sean tan exitosas para describir al mundo
material siempre ha intrigado a los científicos y generado una sensación de misterio
hacia esta ciencia. ¿Podría existir una realidad matemática, independiente de la mente y
paralela a la realidad física? La respuesta, desde Gödel, ya no es obvia. Cualquier
matemático admite que la ciencia de la lógica tiene dos grandes figuras: Aristóteles quien vivió en Grecia en el siglo IV a C- y Kurt Gödel -quien vivió en Austria y los EE.
UU., en el siglo XX d C-. En su juventud, Gödel frecuentó el "círculo de Viena" y llegó a
conocer a los filósofos y matemáticos de la llamada escuela neopositivista, entre ellos
Wittgenstein y Carnap. Estos eran de la opinión de que las matemáticas no son más que
un lenguaje y que, en consecuencia, pueden describir la realidad pero carecen de un
contenido propio. Todas las "verdades matemáticas" y sus demostraciones podrían
reducirse a un conjunto de símbolos, e incluso generarse en forma mecánica, por lo
menos en principio. No existiría más "verdad" que lo que se puede expresar con los
símbolos y las reglas sintácticas de un lenguaje. Gödel, a quien esta visión le parecía
demasiado simplista, demostró un famoso teorema que reveló las limitaciones de los
lenguajes formales. En esencia, el teorema de Gödel muestra que, en un sistema lógico,
siempre existen proposiciones que no se pueden ni demostrar ni refutar (un ejemplo
trivial sería: "Juan el jarocho dice que todos los jarochos mienten"; ¿es verdad o mentira,
lo que dice?). El artículo original de Gödel, publicado en 1932, es extremadamente
técnico y sólo comprensible para los expertos del tema. Se sabe que, en años posteriores,
Gödel meditó mucho sobre las implicaciones filosóficas de su teorema. Por desgracia,
era tal su manía de perfección que sólo en raras ocasiones se decidía a enviar un trabajo a
publicación. Después de su muerte en 1978, sus manuscritos fueron rescatados, editados
y publicados. Entre ellos se encontraron los borradores de una conferencia que dictó en
1952 sobre el Platonismo matemático y un texto que critica la tesis de Carnap sobre la
naturaleza sintáctica de las matemáticas.
Gödel insiste en hacer una distinción entre lo que él llama matemáticas objetivas, que
abarcan todas las proposiciones verdaderas, y matemáticas subjetivas, que incluyen sólo
las que la mente humana puede demostrar. A diferencia de los neopositivistas, que
negaban todo valor a la intuición, Gödel afirma que ésta es esencial para vislumbrar una
verdad matemática, incluso si tal verdad es imposible de demostrar. El teorema de Gödel
implica, según su autor, que la mente humana hace matemáticas subjetivas, pero no
puede aprehender en su totalidad a las matemáticas objetivas.
Aclarado lo anterior, Gödel argumenta que, si las matemáticas fuesen sólo un producto
de la mente humana, toda verdad matemática podría ser conocida y demostrada, lo cual
744
El Hijo de El Cronopio No. 69
no es el caso. En cambio, el creador siempre es capaz de conocer su propia obra, e
incluso de modificarla. ¡Pero no podemos fabricar teoremas a nuestro antojo! En
conclusión: "Los conceptos matemáticos forman una realidad objetiva, que no podemos
crear o cambiar, sino sólo percibir y describir".
La afirmación es muy fuerte, pero es acorde con la visión platónica del mundo. Según
Platón, existe, además del mundo material, el mundo de las Ideas o Formas, que no se
percibe con los sentidos, pero sí con la mente. Se trata de una realidad eterna e inmutable
en el que no fluye el tiempo. Del mismo modo, los conceptos matemáticos también son
inmutables: el teorema de Pitágoras, por ejemplo, es eternamente válido. Gödel sostiene
que las matemáticas son tan objetivas como el mundo material: "Las matemáticas
describen una realidad no sensible que existe independientemente de los actos y las
disposiciones de la mente y es percibida, en forma bastante incompleta, por la mente
humana". En sus tiempos, Gödel reconocía que su realismo platónico no era muy popular
entre sus colegas. Años después, los editores de sus manuscritos admiten que su visión se
ha vuelto más popular en la actualidad "en cierta medida porque él la defendió, pero
quizás, sobre todo, porque todas las otras visiones padecen de serios defectos
matemáticos o filosóficos".
En resumen, las matemáticas, según Gödel, existen del mismo modo como existen otros
planetas. Nosotros, con nuestra mente, podemos explorarlas y describirlas dentro de las
limitaciones de nuestro lenguaje matemático. Las matemáticas serían una parte, quizás la
más accesible, de esa otra realidad objetiva: el mundo de las Ideas. Por algo Platón exigía
saber geometría para entrar a su Academia.
Noticias de la Ciencia y la Tecnología
Nuevos alimentos para los países en vías de desarrollo
Mientras en el mundo desarrollado se dispone de dietas ricas en todo tipo de sustancias
nutritivas, en los países pobres se carece de muchas de las que son estrictamente
necesarias para mantener una buena salud. La solución a este problema podría residir en
la ingeniería genética.
Las sociedades modernas parecen haber alcanzado un estado de sobreabundancia en
cuanto a la cantidad y variedad de alimentos disponibles. Las dietas de los habitantes de
estas naciones poseen todo lo necesario para mantener una buena salud.
En cambio, en los países en vías de desarrollo, el panorama es totalmente distinto. A la
escasez de alimentos, se añade el hecho de que éstos son poco variados, de manera que
muchas personas no llegan a consumir las sustancias que precisan sus cuerpos.
Curiosamente, las naciones que menos lo necesitarían disponen del potencial
biotecnológico que podría resolver el problema. Así por ejemplo, sería posible crear una
variedad de arroz modificada por ingeniería genética que fuera capaz de producir hierro
y provitamina A. Dado que el arroz es la dieta básica de millones de personas
necesitadas, este cambio les reportaría inmediatos beneficios en su calidad de vida.
La falta de poder adquisitivo es la principal dificultad a la hora de disponer de alimentos
que contengan todos los micronutrientes necesarios para mantener el cuerpo en un buen
tono físico. Si el arroz es el único alimento disponible o al que se puede acceder,
745
El Hijo de El Cronopio No. 69
entonces tiene sentido intentar que éste aporte dichos micronutrientes. De hecho, el
enriquecimiento de alimentos no es algo nuevo. Por ejemplo, en los países desarrollados
se produce leche enriquecida con vitamina D, sal con yodo o zumo de naranja con calcio.
Existe un cierto estado de opinión que se manifiesta contrario a la aplicación de
bioingeniería para la transferencia artificial de genes entre organismos. Pero cuando el
objetivo es moral y éticamente admisible es más sencillo aceptar estas técnicas. O lo que
es lo mismo, si bien es comprensible que se prefiera consumir alimentos naturales en
países donde éstos están disponibles en abundancia, no lo es tanto que se niegue la
posibilidad de alimentarse mejor a quien no dispone de alternativas para ello. La falta de
nutrientes puede producir enfermedades graves e incluso la muerte.
Según los estudios de los científicos de la Cornell University, si se tienen presentes los
diferentes tipos de sistemas agrícolas que hay en el mundo, los riesgos son menores que
los potenciales beneficios.
Por otro lado, la biotecnología, definida como la modificación de los seres vivos para
adaptarlos a las necesidades del Hombre y sus preferencias, se practica desde hace
10.000 años, tanto como el tiempo que hace que se emplea la agricultura. Los hombres
han alterado sistemáticamente los animales y las plantas a su disposición desde tiempos
inmemoriales, y sólo así han logrado producir lo suficiente para garantizar su
supervivencia, incluso en épocas difíciles.
La biotecnología actual va más allá de la selección artificial, y se adentra en la
manipulación a nivel genético. En vista de los problemas de alimentación que aún
existen en el mundo, se plantea sin duda un profundo dilema social, económico y ético.
Un dilema que haríamos bien en resolver lo antes posible, ya que millones de personas
no pueden esperar eternamente.
Información adicional en:
http://www.news.cornell.edu/releases/Feb00/AAAS.McCouch.bpf.html
Imagen: http://www.news.cornell.edu/releases/Feb00/McCouch72.jpg
(Susan McCouch, una de las personas que propone la aplicación de la biotecnología en
las bases de alimentación del Tercer Mundo, contesta a unas preguntas.) (Foto: Cornell
News Service)
Empieza el espectáculo
El telescopio espacial europeo XMM Newton ha empezado a enviarnos sus primeras
imágenes del Universo.
Después de su lanzamiento, y tras un período de calibración de instrumentos que aún
continúa, el telescopio de rayos-X Newton (XMM), propiedad de la Agencia Espacial
Europea, se encuentra casi listo para iniciar su largo período de actividades científicas.
Hasta el momento, todos sus sistemas funcionan a la perfección. Los investigadores,
además, han tenido la oportunidad de contemplar sus primeras imágenes, que prueban de
lo que el observatorio es capaz de hacer. Dichas imágenes fueron presentadas al público
el 9 de febrero, en el centro de Villafranca del Castillo, cerca de Madrid, y muestran un
Universo realmente espectacular.
Las fotografías se tomaron entre el 19 y el 25 de enero, con el único objetivo de verificar
el buen funcionamiento de los instrumentos científicos y los sistemas ópticos. Se
746
El Hijo de El Cronopio No. 69
observaron tres regiones distintas del cielo: una zona de la Gran Nube de Magallanes, el
Hickson Cluster Group 16 (HCG-16) y la estrella HR 1099. Todas ellas son muy
interesantes y presentan fuentes de rayos-X diversas.
La Gran Nube de Magallanes, visible desde el hemisferio sur, se encuentra a 160.000
años luz de la Tierra y no es otra cosa sino una galaxia satélite de la Vía Láctea. El XMM
Newton observó en ella a la llamada nebulosa Tarántula (30 Doradus), donde un buen
número de estrellas están explotando y enviando grandes cantidades de materia al
exterior, y un lugar donde también se forman y nacen muchas otras estrellas. La imagen
del Newton muestra las temperaturas que reinan en dicha zona: el color azul distingue las
regiones más calientes, el verde hace lo propio con las temperaturas medias, y el rojo
representa los sectores más fríos. La imagen presenta también un objeto poco conocido,
un arco blanco y azul que parece ser los restos de una supernova antigua, los cuales, al
chocar contra el medio interestelar, producen rayos-X. En la parte baja, a la derecha,
puede apreciarse también la supernova 1987A, que estalló el 24 de febrero de 1987, la
primera visible a simple vista desde 1604.
El HCG-16, por su parte, es un grupo de cientos de cúmulos de galaxias, y ha sido
observado también en longitudes de onda cercanas al visible y el ultravioleta. El uso
simultáneo de estas frecuencias, unidas a la gran capacidad del Newton en la gama de los
rayos-X, aporta mucha información sobre el origen y evolución de estas galaxias. De
hecho, se aprecian cientos de nuevas fuentes de rayos-X, ignoradas hasta ahora.
En cambio, la HR 1099 es una estrella bien conocida de la sexta magnitud, situada a
unos 100 años luz de nosotros. La imagen del Newton, a pesar del considerable brillo del
objeto, nos muestra que en realidad consiste en un par binario (dos estrellas girando una
alrededor de la otra en un período de apenas 3 días). Este movimiento tan rápido causa
una especie de dinamo infernal que "retuerce" los campos magnéticos de las dos
estrellas. Esto supone que una de ellas, al menos, manifieste una gran actividad,
incluyendo tormentas y enormes protuberancias.
El Newton también ha realizado varios espectros de HR 1099, revelando su composición
química. Destaca la presencia de hierro, oxígeno, carbono y neón. A partir de ello es
posible deducir temperaturas, densidades, abundancias y velocidades de los diferentes
materiales.
Información adicional en: http://sci.esa.int/xmm/firstimages
http://sci.esa.int/newsitem.cfm?TypeID=1&ContentID=9291&Storytype=20
Imágenes: http://sci.esa.int/xmm/firstimages/images/xmm-fi1.jpg
(La nebulosa 30 Doradus.) (Foto: ESA)
http://sci.esa.int/xmm/firstimages/images/xmm-fi2.jpg
(El grupo de cúmulos de galaxias HCG-16.) (Foto: ESA)
http://sci.esa.int/xmm/firstimages/images/xmm-fi5.jpg
(La estrella binaria HR1099.) (Foto: ESA)
Revisada la conexión entre plantas fósiles y carbono
Los cambios climáticos del pasado quedan registrados en las plantas fósiles. Sin
embargo, su contenido de carbono no es una prueba definitiva sobre la cantidad de CO2
que había en la atmósfera.
747
El Hijo de El Cronopio No. 69
El calentamiento global del planeta no es un fenómeno nuevo y de hecho ha ocurrido,
por causas naturales, varias veces en la antigüedad. El aumento de la presencia de gases
invernadero basados en el carbono puede implicar el incremento de la temperatura
ambiental hasta extremos peligrosos para la vida.
Investigadores de la Johns Hopkins University y la University of California-Berkeley han
estado estudiando diversas especies de plantas antiguas y modernas para probar si es
posible hallar pistas en ellas sobre el origen de las fuentes de carbono que han propiciado
la existencia de cambios climáticos en el pasado y quizá en el presente.
Las plantas absorben los isótopos carbono 13 y carbono 12, presentes en el dióxido de
carbono de la atmósfera. El primero, más pesado, se mueve más lentamente durante su
recorrido hacia las regiones donde será preparado para la fotosíntesis. En función de la
proporción de ambos isótopos en una planta, los científicos creen que es posible calcular
su ratio en la atmósfera. Esto no implica que sepamos la cantidad de CO2 presente en el
aire en ese momento, pero sí ayuda a saber cuál es el estado del ciclo del carbono en un
momento determinado. Esto es así porque las diversas fuentes y reservorios de carbono
en la naturaleza tienen una proporción única de ambos isótopos. De este modo, podemos
saber, por ejemplo, que la emisión masiva de carbono de hace 115 millones de años
procedía de los depósitos de metano situados en el fondo de los océanos y no de otro
lugar.
Los científicos han concluido que el nivel de carbono presente en los fósiles de plantas
no determina automáticamente la cantidad de CO2 de la atmósfera. El estudio de 44
plantas modernas (árboles y ciertos tipos de hierba), muy semejantes a las existentes en
el pasado primitivo, sugiere que el agua influye mucho en la cantidad de carbono
asimilado. Las plantas absorben el carbono de la atmósfera a través del mismo lugar por
el que sale el agua y se evapora. Para evitarlo, la planta puede cerrar los orificios, con lo
que se reduce la entrada de carbono. Por tanto, el lugares áridos, donde la evaporación es
alta, las plantas asimilarán menos carbono del que podría esperarse si vivieran en
regiones más húmedas, independientemente del nivel de CO2 en la atmósfera. Otros
factores influyen también, como el nivel de sal en el suelo, los niveles de luz, los
extremos térmicos, etc.
Información adicional en: http://www.jhu.edu/~eps/faculty/jahren/index.html
El origen de los primeros americanos
Análisis morfométricos de cráneos nuevos y viejos han permitido aclarar un poco más el
origen de los primeros pobladores del continente americano.
El origen exacto de los primeros pobladores de América sigue siendo motivo de
controversias en el mundo científico.
Mediciones craneofaciales de cráneos procedentes de todo el mundo, realizadas por
antropólogos de la University of Michigan, revelan que los nativos americanos podrían
tener un origen más complejo de lo que los recientes estudios genéticos y arqueológicos
sugerían.
El equipo de C. Loring Brace ha realizado miles de comparativas morfométricas durante
los últimos 20 años. Para ello se han obtenido dendrogramas, generados a partir de una
batería de dos docenas de medidas realizadas sobre cada cráneo. El resultado es un
748
El Hijo de El Cronopio No. 69
gráfico en forma de árbol en el que la distancia entre ramas refleja la proximidad o
lejanía entre cada grupo humano y los restantes.
Los estudios muestran que los descendientes de los primeros humanos que entraron en el
Nuevo Mundo, incluyendo los nativos de México, Perú y el sur de los Estados Unidos,
no tenían enlaces obvios con ningún grupo asiático. Esto podría ser debido a que
estuvieron separados de ellos durante un período de tiempo muy largo. Un segundo
grupo que incluye los Pies Negros, los Iroqueses y otras tribus, procedían de las
poblaciones prehistóricas del Japón. Los Inuits probablemente son una rama tardía de
este mismo tronco.
Otro grupo que vivió desde el Yukón hasta Arizona y el norte de México habría tenido
su origen en China, con cuyos habitantes actuales tienen grandes semejanzas.
Aunque se necesitarán aún más análisis, parece claro que los habitantes nativos del
hemisferio occidental no son en ningún caso pequeñas variantes de la misma gente, sino
que su procedencia es muy variada.
Información adicional:
http://www.umich.edu/~newsinfo/Releases/2000/Feb00/r021500b.html
Imagen: http://www.umich.edu/~newsinfo/Releases/2000/Feb00/brace.jpg
(El antropólogo C. Loring Brace realiza mediciones sobre un cráneo.)(Foto: U. of
Michigan)
El cuásar más lejano
La observación astronómica sigue añadiendo récord a su larga lista. Un nuevo cuásar
situado en la constelación de Cetus es el objeto más alejado conocido.
El telescopio Hale de 5 metros, en el Monte Palomar, y el telescopio Mayall de Kitt
Peak, de 4 metros de diámetro, continúan aportando nuevos miembros al libro de honor
de objetos astronómicos.
Después de observar durante varias noches una región en la constelación de Cetus (la
Ballena) en la que se encuentran numerosas estructuras muy alejadas de nosotros, los
astrónomos que operan dichos observatorios creen haber encontrado el que podría ser el
objeto más lejano conocido.
Como ya es habitual, se trata de un cuásar, un cuerpo luminoso con el aspecto de una
estrella pero que sin embargo emite una cantidad de energía 10.000 veces superior a la de
nuestra galaxia, la Vía Láctea. Los astrónomos creen que la energía desplegada tiene su
origen en agujeros negros supermasivos situados en su centro, alimentados
constantemente por la materia de los alrededores.
A pesar de su considerable brillo, son muy débiles vistos a través del telescopio. Esto y
el desplazamiento hacia "el rojo" de sus espectros nos indica que se encuentran muy lejos
de nosotros. Para el caso que nos ocupa (corrimiento hacia el rojo de 5,5), la luz del
cuásar ha tardado 13.000 millones de años a llegar hasta la Tierra, lo cual se traduce en
una distancia de 13.000 millones de años luz. Si las teorías cosmológicas son correctas,
el cuásar que vemos ahora existía cuando el Universo apenas tenía el 8 por ciento de la
edad que posee ahora.
749
El Hijo de El Cronopio No. 69
El descubrimiento de cuásars tan antiguos como éste ayuda a los científicos a entender
mejor la transición experimentada por la materia a partir de la uniformidad subsiguiente
al Big Bang, en dirección a las aglomeraciones conocidas hoy en día como galaxias.
Imagen: http://www.jpl.nasa.gov/files/images/browse/quasarimage1.gif
(Imagen del cuásar.) (Foto: JPL)
Por que las hembras actúan como hembras
La respuesta la tendremos en neurosustancias químicas que actúan en el cerebro, y no en
el género del organismo vivo.
Biólogos de la Cornell University han demostrado que una serie de sustancias químicas
producidas en una región central del cerebro compartida por todos los animales
vertebrados (incluidos los humanos) provocan que los machos se comporten como
machos, las hembras como hembras, y que algunos machos actúen como hembras (y
viceversa). Así pues, el comportamiento social de los vertebrados no dependería del todo
de su sexo.
Los estudios fundamentales sobre esta teoría se han hecho sobre una especie de peces
que dispone de dos tipos de machos. El área del cerebro analizada se encuentra en una
zona que se ha conservado virtualmente inalterada durante toda la evolución de los
vertebrados. Sus funciones y estructura son muy similares en peces, anfibios, reptiles,
pájaros y mamíferos (incluyendo al Hombre). Dicha área produce una serie de
neuroproductos químicos (isotocina y vasotocina en los peces, oxitocina, etc., en los
mamíferos) que determinan el comportamiento sexual del individuo.
El pez estudiado se llama Porichthys notatus, conocido por su "canto" durante la fase de
acoplamiento. En realidad, el canto procede de los machos de tipo I, que son capaces de
vocalizar durante horas bajo las rocas en aguas poco profundas para atraer a las hembras.
Si el canto tiene éxito, las hembras visitarán sus nidos para depositar los huevos, que
después serán fertilizados por los machos. En ocasiones, sin embargo, los cantos no
tienen éxito, atrayendo a otro tipo de machos de la misma especie (tipo II). Estos últimos
no saben cantar como los de tipo I (aunque sí emiten sonidos, como las hembras), son
más pequeños, tienen órganos reproductores más alargados, y tienen el hábito de
fertilizar huevos dejados por sus "rivales".
Peces de los tres tipos, anestesiados en el laboratorio, han sido sometidos a pequeñas
descargas eléctricas, que desencadenan un comportamiento sexual concreto. Una vez
determinada la zona cerebral que interviene en el proceso, se aplicaron neuroproductos
químicos para ver sus efectos sobre ella. Así, los machos de tipo I se mostraron sensibles
a la vasotocina pero no a la isotocina, mientras que en las hembras ocurría lo contrario.
Por su parte, los machos de tipo II respondieron de forma similar a las hembras.
Es decir, la acción de los neuroproductos químicos puede modular la salida eléctrica o
neurofisiológica del cerebro, determinando el comportamiento social del individuo,
independientemente de la configuración de sus gónadas.
Los científicos piensan ahora que el sexo y las tácticas sociales/reproductivas pueden
mantenerse por separado y ser regulados de forma independiente dentro de la misma
región del cerebro.
750
El Hijo de El Cronopio No. 69
Aparentemente, el proceso de la evolución ha modificado el comportamiento social y
reproductivo sin que éste dependa de las gónadas. Esta mezcla de características permite
una mayor disponibilidad de variaciones para que actúe la selección natural y explicaría
la enorme variedad de comportamientos sociales que vemos en los distintos grupos de
vertebrados, desde la inversión del rol en los sexos a la diversidad dinámica que
apreciamos en cuanto al cuidado de la descendencia o en la competición agresiva.
Información adicional en: http://www.nbb.cornell.edu/neurobio/sofneurobio.html
http://www.nbb.cornell.edu/neurobio/bass/bass.html
http://www.news.cornell.edu/releases/Feb00/neurochemical.hrs.html
Imagen: http://www.news.cornell.edu/photos/underwaterfish300.jpg
(Un macho de tipo I en su nido.) (Foto: Margaret Marchaterre/Cornell U.)
Vida en la tierra, recta final
Los océanos de nuestro planeta podrían evaporarse dentro de 1.000 millones de años.
Mucho antes, incluso, la vida dejaría de ser viable en la Tierra.
Nuestro planeta gira alrededor de una estrella de edad media. Se estima que la edad del
Sistema Solar es de unos 4.500 millones de años, y que por tanto, al Sol aún le restan al
menos otros tantos antes de apagarse definitivamente.
La vida en la Tierra, pues, debería contemplar su futuro con cierto optimismo, si no fuera
porque las últimas investigaciones sobre la actividad solar pronostican un paulatino
incremento que volverá inhabitable a nuestro planeta mucho antes.
Como todas las estrellas de la secuencia principal, el Sol se vuelve más brillante con el
tiempo, lo que afectará al clima de la Tierra. Los astrónomos creían que ello ocurriría
dentro de 5.000 millones de años, cuando el Sol se convertirá en una gigante roja cuyas
capas exteriores sobrepasarán la órbita de Mercurio. En ese punto, las temperaturas
habrán subido tanto que los océanos se habrán evaporado completamente. Tras pasar
primero por la atmósfera, el vapor subirá hasta la troposfera, desde la que escapará al
espacio para siempre.
Sin embargo, cálculos más recientes realizados en la Penn State University sugieren que
la evaporación de los océanos podría ocurrir mucho antes, dentro de "tan sólo" 1.000
millones de años, gracias al paulatino incremento de la actividad solar. Peor aún, cuando
el clima empiece a ser más cálido, se acelerará el ciclo que extrae el dióxido de carbono
de la atmósfera y lo almacena en los océanos como carbonato cálcico. Esto estabilizará el
clima de la Tierra durante un tiempo, pero entonces habrá tan poco CO2 que las plantas
no podrán sustentarse.
Las plantas usan el CO2 en la fotosíntesis para convertir la energía solar en azúcares y
otros carbohidratos. Existen dos tipos principales de fotosíntesis, la C3 y la C4. Dentro
de 500 millones de años, el CO2 se encontrará en el punto de compensación para las
plantas C3 (que constituyen el 95 por ciento de las que viven en la Tierra). Más allá de
este punto, el CO2 no estará lo bastante concentrado para que las plantas C3 (árboles,
hierbas...) fotosinteticen. Las C4 (caña de azúcar, cereales...) poseen un mecanismo
interno que concentra el CO2 , pero no son capaces por sí solas de sostener una biosfera
como la que tenemos ahora.
751
El Hijo de El Cronopio No. 69
Si los cálculos son correctos, después de ser habitable durante buena parte de sus 4.500
millones años de edad, la Tierra será apta para la vida terrestre durante tan sólo 500
millones de años más.
Información adicional en: http://www.psu.edu/ur/2000/oceans.html
Instrumentos musicales innovadores
La ciencia coopera con el arte. La física es capaz de producir instrumentos musicales y
sonidos nunca oídos.
Ray Wakeland toca el banjo en su tiempo libre, pero también está interesado en explicar
el funcionamiento de nuevos instrumentos musicales que se basan en aplicaciones
concretas de la física.
Su especialidad es la refrigeración termoacústica. Según sus trabajos, el sonido puede
emplearse para bombear calor. De la misma manera, el llamado órgano de fuego utiliza
calor para producir oscilaciones en el aire que son percibidas como sonidos musicales.
Tales oscilaciones ocurren durante el lanzamiento de un cohete, y en algunos casos
pueden llegar a destruirlo, de modo que se ha hecho necesario investigar cómo paliar este
problema. El órgano de fuego, inventado por el francés Michel Moglia, convierte las
oscilaciones producidas en el aire en algo mucho más interesante.
Hans Reichel es el responsable de la creación del daxófono. Se toca con un arco de violín
pero es esencialmente una especie de palo que produce un sonido de espectro ancho, en
vez de en un único tono.
El tercer instrumento estudiado por Wakeland es el Long String Instrument, inventado
por Ellen Fullman y que consiste en una serie de cuerdas de bronce de unos 30 metros de
largo. Se necesitan varios músicos para tocarlo (con manos enguantadas o con arcos de
violín) y produce música etérea semejante a la del sitar. Su forma de actuar implica la
aparición de ondas longitudinales, a diferencia del violín, la guitarra o el piano, los
cuales emplean un movimiento transversal a la longitud de la cuerda. Estos últimos se
afinan mediante la tensión, mientras que el Long String Instrument emplea pesos en
diferentes puntos de las cuerdas.
Información adicional en: http://perso.club-internet.fr/orguafeu/orguafeu.htm
http://www.daxo.de/; http://www.shef.ac.uk/misc/rec/ps/efi/mreichel.html
Noticias de la Facultad
Próximo examen profesional
El próximo 17 de marzo se llevará a cabo el examen profesional de María del Consuelo
Vargas Durán que presentará y defenderá la tesis intitulada: Controladores para interfaz
de tiempo real en MatLab. La tesis profesional será presentada para obtener el título de
Ingeniero Electrónico, La tesis fue asesorada por José Ángel de la Cruz Mendoza. A
continuación presentamos las conclusiones de la misma
752
El Hijo de El Cronopio No. 69
Controladores para interfaz de tiempo real en MatLab
M.C. Vargas-Durán
Facultad de Ciencias
Universidad Autónoma de San Luis Potosí
Conclusiones
El desarrollo del presente trabajo aporta una opción más al campo de la ingeniería, en lo
que a análisis de sistemas (control, comunicación, y demás) se refiere. Ya que se
proporcionan rutinas de programación, las cuales tienen como objetivo interactuar entre
MATLAB, el cual nos proporciona herramientas para diferentes sistemas y un
dispositivo de la PC.
Como de resultado de lo anterior, una PC funge como un laboratorio de análisis de x
sistema, en el que la teoría es portada hacia un ambiente de simulación y visualización de
resultados en el momento mismo de su ejecución.
La Ciencia desde el Macuiltépetl/ Las condiciones de la guerra
Por Manuel Martínez Morales
¿Qué imagen se representa, estimado lector, cuando se le dice que el arsenal atómico
actual es más que suficiente para destruir varias veces nuestro planeta? ¿Qué sentido real
tiene semejante aseveración? ¿Acaso podemos concebir que la tierra sea destruida, vuelta
a reconstruir y de nuevo destruida, y así, en un infernal e interminable ciclo?
Hay en la ciudad japonesa de Hiroshima una plancha de piedra que puede darnos la
dimensión humana de lo que una hecatombe nuclear significaría. En esa piedra quedó
grabada por el fuego radioactivo, producto de la bomba de 1945, la silueta de un hombre,
la sombra de lo que fue un hombre. De los huesos de ese hombre no quedó rastro. Esa
piedra es un punzante recordatorio de lo horrendo que es el poder atómico. El poder
explosivo del arsenal mundial actual es igual a 1 300 000 bombas del mismo tipo de la
lanzada sobre Hiroshima, equivalente a tres toneladas de TNT por cada hombre sobre la
tierra, suficiente para destruir las siluetas de las siluetas de todos los hombres sobre el
planeta. Entonces, ni la sombra de la silueta de la tierra perduraría.
Se calcula que el mundo invirtió en gastos militares, en 1980, una cifra cercana a los 650
mil millones de dólares. ¡Más de 1 700 millones de dólares diarios, 74 millones cada
hora, más de un millón de dólares por minuto! Según datos de la ONU, los gastos
militares mundiales en ese año representaron el equivalente del Producto Interno Bruto
conjunto de África y América Latina en ese mismo año y 6% del valor global de la
producción de bienes y servicios. Los gastos en todo el mundo en salud pública sólo
ascienden a 60% de los gastos militares. El costo de un bombardero moderno equivale a
los salarios de 250 mil maestros durante un año, o al costo de la construcción y
equipamiento de 75 hospitales de 100 camas.
Cinco punto nueve por ciento del Producto Nacional Bruto de los países de Asia, África
y América Latina se invierte en armas y gastos militares, mientras que 1% se destina a la
753
El Hijo de El Cronopio No. 69
salud pública y 2.8% a la educación. En los países subdesarrollados, en su conjunto, hay
actualmente un soldado por cada 250 habitantes y un médico por cada 3 700.
Según estimaciones recientes, el mundo gasta hoy día un promedio de 19 300 dólares al
año por cada soldado, mientras que los gastos públicos destinados a la educación
promedian tan sólo 380 dólares por cada niño en edad escolar. Por cada 100 mil
habitantes del planeta hay 556 soldados y solamente 85 médicos. El presupuesto de los
Estados Unidos de Norteamérica y los países de la Comunidad Europea asignan 45
dólares percapita a la investigación con fines militares y sólo 11 dólares a las
investigaciones relacionadas con la salud. Ruth Leger Sivard, World Military and Social
Expenditures, 1982.
¿No es evidente, entonces, que en el creciente armamentismo y en la creciente amenaza
de una guerra total encontramos una absoluta irracionalidad? Y la ciencia, es decir, los
científicos tienen una gran responsabilidad en este asunto, pues la constitución de tal
poder destructivo ha sido posible sólo gracias a una constante y planificada investigación
científica y tecnológica.
La explosión de la primera bomba atómica supuso un grave peso sobre la conciencia de
los científicos que la fabricaron. Uno de ellos, Robert Oppenheimer, escribía a propósito,
en 1948: “En cierto sentido brutal, que ni la vulgaridad, ni el humor, ni la exageración
pueden borrar, los científicos hemos conocido el pecado; y éste es un conocimiento del
que no nos será fácil librarnos”.
Antes del lanzamiento de las bombas sobre las ciudades de Hiroshima y Nagasaki, no
solamente Oppenheimer, sino Einstein, Fermi, Compton, Lawrence y muchos otros
destacados científicos que habían contribuido a la fabricación de la bomba, se oponían a
que fuera lanzada sobre Japón, pues era evidente que la guerra ya estaba perdida para los
nazis y sus aliados. Pero era tarde, demasiado tarde, los militares y los políticos se habían
ya apoderado de la bomba, ahora era su bomba y, con ellos, los amos del imperio
comenzaron a intimidar al mundo. En una carta al entonces presidente Truman, su
secretario James F. Byrnes escribía: “La bomba nos dará la posibilidad de imponer
nuestras condiciones al finalizar la guerra”. En una reunión cumbre, en 1945, el propio
Byrnes declaró a la delegación soviética: “si ustedes no están de acuerdo con nosotros,
sacaré del bolsillo la bomba atómica y la descargaré sobre ustedes”; la respuesta no se
hizo esperar; en el verano de 1949, la exUnión Soviética hacía estallar su primera bomba
atómica.
Los conocimientos científicos y tecnológicos, además de su función directa en la
economía de una sociedad, son también integrados al aparato de dominación para servir
como instrumentos de opresión y destrucción.
El poder es implacable y no se detiene ante nada; los científicos, según la lógica del
poder, son simples servidores bien pagados que deben hacer lo que se les pide sin
cuestionar los efectos que su trabajo pueda tener.
Por su oposición al desarrollo de las armas atómicas, Oppenheimer fue separado de los
cargos que ocupaba y sometido a juicio por ser considerado un “peligro para la
seguridad” de Estados Unidos de Norteamérica. De Einstein y muchos otros también se
sospechó e inmediatamente fueron retirados de todo proyecto que tuviera que ver con el
desarrollo de armas nucleares.
A pesar de la responsabilidad moral que implica participar en el desarrollo de este tipo de
armas, un número creciente de científicos e ingenieros entregan su potencial creador a las
754
El Hijo de El Cronopio No. 69
actividades de investigación con fines militares y desarrollo de armamentos. En 1970, se
calculaba en medio millón el número de científicos dedicados a estas tareas. El
imperialismo puede contar con tal ejército de intelectuales a su servicio, por el duro y
concienzudo control que ejerce sobre la conciencia de los hombres. El hombre de
ciencia, bajo el dominio imperial, puede estar tan enajenado de sí y de su sociedad como
el menos educado de los obreros.
Desafortunadamente, está lejano el día en que no sólo los científicos, sino todo el pueblo
norteamericano renuncie a que, con su apoyo y en nombre suyo, un puñado de lunáticos
ensoberbecidos intenten dominar al mundo. Dos distinguidos científicos que participaron
en la construcción de la primera bomba, Isaac Rabí y E. Fermi, en su momento
declararon:
El hecho de que la destructividad de esta arma no tenga límites hace
que su misma existencia y el conocimiento de su construcción sean un
peligro para toda la humanidad. Es necesariamente una cosa malvada,
cualquiera que sea el aspecto bajo el cual se le considere. Por estas
razones, creemos importante que el presidente de los Estados Unidos
diga al pueblo estadounidense y al mundo que nosotros pensamos
basados en principios éticos fundamentales, que será inmoral iniciar el
desarrollo de tal arma.
La mayoría del pueblo norteamericano , sin embargo, no parece haberse enterado y sigue
creyendo en sus profetas esquizofrénicos. A tal grado llega su ignorancia de lo que una
guerra nuclear implica, que prontamente se deja estafar por compañías que anuncian en
los periódicos la construcción “en su propio sótano” de cómodos y lujosos refugios
antiatómicos con capacidad para nueve personas y varias toneladas de alimentos. Bajo el
lema “algunos sobrevivirán” estas compañías apuran a sus clientes a hacer sus pedidos,
pues “ya es grande la demanda por parte de militares, altos funcionarios del gobierno,
millonarios y otras grandes personalidades”. Y, mientras llega el gran momento, el
refugio puede usarse “como cuarto de juegos y fiestas”. Pobre pueblo. A lo mejor ya
hace falta, como alguien dijo recientemente, una campaña de solidaridad con el pueblo
estadounidense.
11 de noviembre de 1983
El Cabuche (crónicas de la Facultad de Ciencias)/
Me voy pa`la frontera
Un buen día al Maik (mike), el miguelito, el genruchito, el barbaján, el barbis, y demás
apodos que a cargado, se le ocurrió regalarnos su despedida de estas tierras potosinas y
emigrar al norte, al mero norte. Ciudad Juárez fue la tierra escogida, San Luis
descansaría (y nosotros); el problema se le cargaba a esa ciudad fronteriza (el estigma del
Cartel de Juárez, quedaba corto). Recordarán que el citado sujeto chambeó de profe por
algún tiempo en esta facultad (recientemente). El maik, en los setenta, originalmente
estudiaba en la entonces escuela de ciencias químicas de la universidad, aunque
frecuentaba la escuela de física, a tal grado que se inscribía en los cursos asignados a los
estudiantes de la escuela, cuando se llevaban en el departamento de físico matemáticas,
755
El Hijo de El Cronopio No. 69
entonces alojado en la escuela de ingeniería. No contento con ello, también se apuntaba
en nuestro equipo de básquetbol. Los químicos lo tachaban de loco (no sólo ellos) y
como que lo convencían que se pasara al bando de los buenos (o sea nosotros, los de la
escuela de física). Cuando menos acordamos lo encontramos registrado legalmente como
estudiante de física. A partir de ese momento sus anécdotas, que vaya que abundan y de
las cuales algunas han sido abordadas ya en esta sección, fueron registradas legalmente
Así pasaron los años y a fuerza de su presencia nos acostumbramos a sus loqueras. En
1979 emigré momentáneamente a Puebla a cursar mi maestría y no había pasado un año
cuando, de repente, se va apareciendo el maik; no sabía si llorar o reír; no contento con
ello consiguió chamba en el INAOE, en el laboratorio de electrónica, puesto que se fue
heredando por egresados de la escuela; allí lo inició Benito, el ahora dire, quien se lo
dejó a Reyes, uno de nuestros compañeros y el mentado Reyes, al ver que el maik
deambulaba por allá, lo colocó como flamante encargado del laboratorio de electrónica,
no sé si sobrevivió (me refiero al laboratorio), pero un año después regresó a San Luis, y
para mi suerte yo ya me encontraba de nuevo, ahora como profe en esta facultad de
ciencias. Al parecer la mala suerte me perseguía y un buen día, como ya mencioné, a
mediados de los ochenta, el maik prometió dejarnos por tiempo indefinido. Por supuesto
que teníamos que despedirlo, no se fuera a arrepentir y entonces sí. En aquél entonces
vivíamos enfrente de lo que era la facultad de ciencias, que se encontraba en el edificio
que aloja actualmente parte del instituto de física, el departamento lo compartíamos, el
vaquero (actualmente tiene dos cursos en la facultad), el pancho (secretario académico
del departamento de físico matemáticas), el Contreras (actual director de la escuela de
física de Zacatecas) y yo. A la despedida se dieron cita el grueso de la raza de la escuela;
al transcurrir varios cartones, el maik empezó a ser de las suyas, y por lo pronto no les
cuento más. Total que pernoctó en nuestro departamento, ya con sus petacas (me refiero
a su maleta) preparada; de hecho era una bolsa, de esas que se usan en el ejercito. A la
mañana siguiente, emprendería su viaje. Pasó por la escuela a despedirse de la raza que
encontraba a su paso y de ahí se dirigió al instituto de física, que se encontraba en la
parte posterior, a seguir despidiéndose de la raza y a esperar al Vidales para que le diera
un raid a la central. En el inter, nos entretuvimos agregando disimuladamente a su
“maleta” (para ya no decir petacas), cuanta piedra encontrábamos, de esas de buen
tamaño, al cabo de un rato, el peso de la maleta subió consideradamente y el maik ni por
enterado se dio, sólo alcanzó a decir –ah, si pesa esta chingadera, creo que chupé mucho
anoche (creo que se refería a las cheves). Por fin, todos reunidos en el estacionamiento
del instituto, el maik subió al carro del Vidales y, ante la algarabía de la raza que poco a
poco se reunió para despedirlo y juntarle unas pocas piedras y una que otra roca, con una
cara como de niño asomada por el parabrisa posterior del carro veía como quedaban a lo
lejos sus compañeros que le gritaban a modo de broma –No maik, no te vayas, no te
vayas; disimulando una carcajada al ver partir a ese remedo moderno del pípila. El gusto
nos duró sólo cinco años; lo primero que pronunció al regresar fue –cabrones, con razón
pesaba la pinche maleta, ahí voy cargando casi una semana las putas piedras que me
endilgaron. Hay de pípilas a pípilas, como quiera no deja de ser nuestro cuate. Y como
dice una alegre canción norteña
Adiós mujer me voy pa`la frontera/a ver lo que me espera
ya luego volveré/Si al regresar te encuentro como
quedas/para otras nuevas tierras a ti te llevaré
756
Boletín
El Hijo de El Cronopio
Facultad de Ciencias
Universidad Autónoma de San Luis Potosí
No.70, 20 de marzo de 2000
Boletín de información científica y
tecnológica de la Facultad de Ciencias
Publicación semanal
Edición y textos
Fís. J. Refugio Martínez Mendoza
Cualquier información, artículo o
anuncio deberá enviarse al editor
e-mail: flash@galia.fc.uaslp.mx
Este boletín y números anteriores,
pueden consultarse por Internet en la
página de la UASLP:
http://phobos.dtc.uaslp.mx/publi.html
Recientemente el Papa Juan Pablo II en
representación de la iglesia católica, pidió perdón
a la humanidad por los errores cometidos a lo
largo de los siglos, entre los que se pueden
mencionar innumerables crímenes en aras de la
fe cristiana; el perdón solicitado coincidió
prácticamente con un aniversario más de la
salvaje ejecución de Giordano Bruno. En este
número recordamos a Bruno, en esta portada y
en el artículo de Manuel Martínez Morales en su
sección La Ciencia desde el Macuiltépetl con
el artículo: Las revoluciones científicas.
El 17 de febrero, de hace 400
años, Giordano Bruno se
convirtió en uno de los primeros
mártires de la ciencia renacentista al ser quemado vivo en
una plaza de Roma. La orden vino directa de Clemente
VIII, pontífice de la Iglesia romana, precisamente en el
año del jubileo de 1600. El motivo fueron sus puntos de
vista filosóficos sobre Dios, Cristo y el Espíritu Santo.
Filippo Bruno nació cerca de Nápoles, en 1558, y al entrar
a estudiar con los dominicos se cambió el nombre a
Giordano. Estudió filosofía griega y empezó una vida de
rebeldía. Era característico de la época aprender sin
razonar (cosa que aún se estila); sin embargo, Bruno
siempre puso por delante el análisis, lo que le provocó
innumerables problemas. Al ordenarse como sacerdote
dominico tuvo que huir de Italia, en 1576, para evitar un
juicio en su contra. Sus viajes lo llevaron a Francia e
Inglaterra, donde empezó su carrera de escritor, filósofo
y científico.
Se dio cuenta de que las formulaciones religiosas no
cabían en el seno del método científico o del
descubrimiento empírico. Al no tener un techo que limite
el número de estrellas, le pareció incongruente tener un
sistema dogmático de pensamiento que aprisionara el
libre albedrío, tan necesario para el progreso y la
realización humana.
Obviamente, ese regreso a filosofías precristianas, ahora
soportadas con algunas observaciones científicas, lo
pusieron en contra de los dogmáticos oficialistas e
inquisidore s. Su regreso a Italia fue planeado por los
religiosos. Y bajo invitación del noble veneciano Giovanni
Moncenio, Bruno retornó para ser apresado en 1592 y
juzgado por herejía. Fue encarcelado por siete años tiempo durante el cual se le mantuvo sin lápiz n i papel- y
sacado de la mazmorra sólo para ser quemado en la
hoguera, amordazado y con un clavo en la lengua.
Años más tarde, un juicio similar le fue practicado a
Galileo por asegurar que la Tierra se movía. Ya con la
experiencia de Bruno, éste no ratifi có su observación por
temor a la Inquisición. Y aunque casi cuatro siglos
después la Iglesia admitió su error en el caso de Galileo,
no fue así en el de Bruno. Sin embargo, en 1889 se logró
erigir una estatua precisamente en el Campo dei Fiori,
donde fue quemado. En ese lugar, cada 17 de febrero excepto por los años del fascismo- se ha recordado la vida
de Giordano Bruno.
El Hijo de El Cronopio No. 70
Al buen entendedor, muchas matemáticas
Por Javier Cruz para el Reforma
En este año electoral de cálculos, aproximaciones y estimaciones, ¿qué matemáticas
hace falta dominar para formarse un buen juicio al respecto?
Recientemente, el presidente Zedillo, al evaluar una ecuación matemática -x2 +y2 +z2 =25-,
sentenció que esa expresión era absolutamente imposible. Quien la había escrito, dijo,
sería muy bueno en su oficio pero muy mal matemático.
No se trataba de un sofisticado modelo de matemáticas financieras que proyectara el
gasto social para el sexenio entrante, ni la evolución de los precios internacionales de
petróleo o la inflación en México. La ecuación, escrita en un mural en el campus
Coquimatlán de la Universidad de Colima, es, de hecho, de las más comunes en
cualquier curso de Geometría Analítica o Cálculo, incluso a nivel preuniversitario. Y es
infalible: describe, simplemente, la superficie de una esfera tridimensional de radio 5.
El gazapo del ciudadano Presidente, ¿es representativo del dominio que tiene de las
matemáticas un ciudadano promedio?
Más aún: ante el alud de estimaciones y cálculos aproximados que inevitablemente se
produce en un año electoral último de sexenio - índices macroeconómicos, ofertas de
crecimiento porcentual del PIB per cápita, encuestas, gráficas, escalas y toda suerte de
malabares sofísticos-, ¿cuenta la población mexicana con el sustento matemático mínimo
para discriminar entre lo real y lo retórico? ¿Cuál es, en suma, el bagaje mínimo de
conocimientos matemáticos que sería deseable de todo egresado del sistema de
educación secundaria, nivel obligatorio en México?
Carlos Bosch, matemático con vasta experiencia en la enseñanza de su disciplina dentro
y fuera del ámbito formal del salón de clases, pone la mira bien alta: "Capacidad para
razonar".
Matemáticas para Pensar
Vista así, la tarea es colosal: el sistema de educación pública cuenta con nueve años de la
vida de los estudiantes mexicanos -los 6 de primaria más 3 de secundaria- para dotarlos,
al menos, de capacidad para razonar.
Que esa labor descansa sobre la instrucción matemática ya lo postuló el filósofo francés
Auguste Comte -fundador del pensamiento positivista- desde mediados del siglo XIX al
sentenciar, en su "Curso de Filosofía Positiva", que "es la ciencia matemática la que debe
constituir el punto de partida de toda educación científica racional".
La Secretaría de Educación Pública parece no estar en desacuerdo. En el documento que
describe el enfoque de los planes de estudio de matemáticas para secundaria se lee que
"la enseñanza de las matemáticas tiene como propósito general el desarrollo de
habilidades operatorias, comunicativas y de descubrimiento de los alumnos", para lo cual
propone el desarrollo, entre otras, de las capacidades para "elaborar conjeturas,
comunicarlas y validarlas; predecir y generalizar resultados; y desarrollar el
razonamiento deductivo".
En suma: capacidad para razonar, tal como argumenta Bosch.
758
El Hijo de El Cronopio No. 70
Pero hay al menos dos problemas de dimensión enorme: no hay sujetos más impopulares
en una escuela que los profesores de matemáticas, y no hay materia más generalmente
detestada y temida.
Estrategia en Espiral
Hasta hace pocos años, cuando aún era común purgar largos meses de condena a trabajos
forzados contra el acercamiento a la aritmética vía la teoría de conjuntos, inquirir si había
tal cosa como una estrategia pedagógica en la base de los programas de estudio era como
formular preguntas retóricas. Pero los programas han cambiado, y los enfoques, al
parecer, también. Ahora es posible adivinar tal estrategia. Mary Glazman, profesora de la
Facultad de Ciencias de la UNAM, propone que el conocimiento matemático es
adquirido en forma espiral: "Conforme penetra y se profundiza, se va expandiendo".
Esta analogía geométrica es fácilmente reconocible, en efecto, en algunos puntos de los
programas de matemáticas de la SEP para los tres años de secundaria. Por ejemplo, el
programa del primer grado comienza con el tema de orden y comparación de los
números naturales. El tercer tema –números decimales- examina desde temprano su
orden y comparación. En seguida, en el estudio de las fracciones, se aprende a
compararlas y ordenarlas, asunto al que se regresa durante el curso de segundo grado.
No es casual que junto con los de comparación y orden se aplique la estrategia "espiral" a
otro concepto fundamental de la matemática elemental: el de proporcionalidad. ¿Cuánta
gente está consciente de que dos magnitudes pueden ser comparadas tomando su
diferencia -es decir, restando una de otra-, pero también formando su cociente para
establecer la proporción de exceso de una respecto de la otra?
El asunto es de gran importancia porque conduce a otras nociones fundamentales. Al
comparar 24 con 32, por ejemplo, la simple resta basta para afirmar que la segunda cifra
excede en 8 unidades a la primera. Pero al formar el cociente se descubre que 24
representa tres cuartas partes de 32, o, lo que es lo mismo, 75 por ciento. Este tipo de
comparación lleva, pues, al cálculo de porcentajes -de indisputable relevancia cotidiana-,
pero también al de variación proporcional: la relación entre 32 y 24 es la misma que
entre 16 y 12, 8 y 6, 4 y 3 ó 35.2 y 26.4, digamos.
La utilidad aquí es que, si se es capaz de descubrir el factor de proporcionalidad entre
pares de números, vale postular una relación de dependencia entre unos y otros. Por
ejemplo, la tasa de natalidad de la población mexicana y la proyección del desempleo
puede ser modelada mediante una relación de dependencia proporcional si el crecimiento
de puestos de trabajo se mantiene a ritmo constante. Entender el fundamento matemático
de esta proposición -cierta o no- exige igual capacidad de comprensión que la que se le
pide a un estudiante de primer año de secundaria para lidiar con números fraccionarios,
con la regla de tres o con las reproducciones a escala.
Otro tema que se beneficia de la pedagogía espiral -y, por cierto, del abandono de la
aproximación conjuntista- es el que en los nuevos programas se conoce como
"tratamiento de la información". En primer año se enseña la lectura y elaboración de
tablas y gráficas y su uso para explorar si dos cantidades varían proporcionalmente o no.
En segundo se les emplea para explorar datos que varían con el tiempo y se calculan
tantos por ciento, por mil y partes por millón. Y en tercero se analizan conceptos
estadísticos -promedio, moda y mediana- dispersión de datos y nociones de población y
muestra, censo y encuesta.
759
El Hijo de El Cronopio No. 70
¿Quién Está a la Altura?
Gonzalo Zubieta, investigador de Matemática Educativa del Cinvestav, alega que los
programas de secundaria son adecuados pero que "existe una diferencia entre el
programa y lo que el profesor realiza en el aula". Glazman ofrece un análisis típicamente
numérico de la situación: "En la Facultad de Ciencias de la UNAM, en cincuenta años, se
han graduado cerca de 2 mil matemáticos, cantidad bajísima".
¿Quién, entonces, está enseñando matemáticas en las secundarias de México? "Para
satisfacer la demanda se han improvisado maestros", protesta Glazman, "muchos de los
cuales no entienden la esencia de la disciplina y son incapaces de transmitir la pasión y el
gozo. Es posible que esta sea una razón para que los alumnos no se inclinen hacia las
matemáticas".
Iñaqui de Olaizola, matemático con más de 20 años de experiencia como profesor de
secundaria, ofrece su perfil ideal: "Debe contar con una cultura matemática amplia. Yo
pensaría en unos dos años de la licenciatura de matemáticas -aunque con cursos menos
técnicos y más aplicados, y con componentes históricos- y otro tanto de preparación en
Educación Matemática".
Bosch coincide en que se necesita la preparación sólida de los enseñantes, y, como en la
Bamba, otra cosita: "Que tengan la vocación de maestros, lo cual no es fácil". Qué hacer,
mientras tanto, con quienes se hacen cargo hoy día de la educación matemática en
México es algo en lo que ha reflexionado Zubieta: "Los profesores tienen condiciones
infames para trabajar, lo que hace muy difícil que cursos de actualización resuelvan el
problema de una profesionalización de los docentes".
Como se dijo en Colima: ese resultado es imposible, al menos mientras abunden quienes
son buenos en otro oficio pero no en matemáticas.
Quién dijo qué
Cuatro matemáticos involucrados en la investigación y la enseñanza de las matemátcias
han opinado acerca del tema. Estas son sus credenciales:
Carlos Bosch Giral
Profesor e investigador del Departamento de Matemáticas del Instituto Tecnológico
Autónomo de México (ITAM), ha sido artífice de varios grupos de estudiantes
mexicanos que han tomado parte en Olimpiadas Matemáticas a nivel nacional e
internacional, e impulsor de la "Competencia Cotorra de Matemáticas", para estudiantes
menores de 12 años. Recibió el Premio TWAS de divulgación de la ciencia.
Mary Glazman Nowalski
Profesora titular de la Facultad de Ciencias de la UNAM, donde concentra su trabajo en
la enseñanza del álgebra. Es coordinadora académica del área de Matemáticas del
Programa de Apoyo a Actualización y Superación Docente del Bachillerato de la
UNAM, y de los cursos interanuales de actualización de la Dirección General de Asuntos
del Personal Académico.
Gonzalo Zubieta Badillo
Investigador del Departamento de Matemática Educativa del Centro de Investigación y
Estudios Avanzados del Instituto Politécnico Nacional (Cinvestav). Sus líneas de trabajo
exploran el empleo de figuras geométricas para despertar la creatividad de los
estudiantes, y la transición de lo cualitativo a lo cuantitativo con conceptos de cálculo. Es
autor de varios artículos sobre enseñanza de las matemáticas.
760
El Hijo de El Cronopio No. 70
Iñaqui de Olaizola Arizmendi
Matemático por la UNAM, ha combinado, por décadas, el trabajo académico en la
Universidad Autónoma Metropolitana con la práctica cotidiana de la enseñanza de
matemáticas a nivel de secundaria. Es partícipe cotidiano en los programas de
Olimpiadas de Matemáticas de la Academia Mexicana de Ciencias.
Lo demás es lo de menos
Consultados respecto del conocimiento mínimo de matemáticas que es deseable en
cualquier egresado de secundaria, los expertos ofrecieron los puntos siguientes: Cálculo
mental y capacidad de hacer estimaciones. Razonamiento proporcional. Operaciones
aritméticas su significado. Habilidad para reconocer patrones (aritméticos, geométricos,
etc.). Uso y comprensión de tablas, gráficas y funciones. Operaciones con expresiones
algebraicas. Resolución de ecuaciones lineales. Lectura e interpretación de tablas
estadísticas. Principios básicos de encuestas. Propiedades de cuerpos geométricos.
Reproducción a escala de objetos sencillos.
Por su parte, el documento de Enfoque del programa de matemáticas para educación
básica secundaria de la SEP lista las siguientes como habilidades que deben desarrollar
los alumnos: Seguridad y destreza en el empleo de técnicas y procedimientos básicos a
través de la resolución de problemas. Reconocer y analizar los distintos aspectos de un
problema. Elaborar conjeturas, comunicarlas y validarlas. Reconocer situaciones
análogas. Escoger o adaptar la estrategia adecuada para la resolución de un problema.
Comunicar estrategias, procedimientos y resultados de manera clara y concisa. Predecir y
generalizar resultados. Desarrollar gradualmente el razonamiento deductivo.
Noticias de la Ciencia y la Tecnología
Fitoplancton y el agujero en la capa del ozono
El plancton parece no estar siendo afectado por las consecuencias del agujero en la capa
del ozono.
El descubrimiento del agujero en la capa del ozono, la cual nos protege de la llegada de
radiaciones perniciosas como los rayos ultravioleta, ha hecho temer a los científicos por
la vida marítima de la zona antártica.
No obstante, los modelos por ordenador realizados por un equipo de la Stanford
University liderado por Kevin Arrigo nos permiten ser mucho más optimistas.
Dichos modelos incluyen factores como la posición del agujero, la capa nubosa y la
potencia de la radiación ultravioleta B, el tipo que se incrementa cuando se ve
disminuida la presencia de ozono.
Los resultados obtenidos, que analizan mediciones realizadas entre 1978 y 1992, indican
que la producción de fitoplancton, un organismo en la base de la cadena de la vida en el
mar, se redujo en tan sólo un 1 por ciento en este último año. Dicha reducción puede ser
de hasta el 10 por ciento en áreas localizadas, pero globalmente no resulta tan alarmante.
De hecho, la presencia o no de nubes es un factor muy determinante, ya que la radiación
que atraviesa el agujero en un día nublado es semejante a la que pasaría si no hubiese
agujero.
761
El Hijo de El Cronopio No. 70
Otro factor importante es que, en cualquier momento, el 80 por ciento del agujero de la
capa del ozono sobre el polo sur se encuentra sobre hielo. Por tanto, sólo una pequeña
parte del fitoplancton sufre su existencia.
El plancton marino se ha adaptado a la situación de forma global, pero esto no quiere
decir que debamos despreocuparnos del fenómeno, ya que el fitoplancton es sólo un
componente del ecosistema. Otras especies podrían estar sufriendo el problema, o quizá
el fitoplancton podría alcanzar pronto el límite de su resistencia a la radiación. (New
Scientist)
El Endeavour obtiene el mejor mapa de la tierra
Misión cumplida para la tripulación del transbordador Endeavour. El sistema de radares
instalado en su bodega ha obtenido la información topográfica necesaria para levantar el
mapa más preciso de la superficie de nuestro planeta.
Los cartógrafos están de enhorabuena. La misión del transbordador espacial Endeavour,
recientemente concluida, ha puesto a su disposición el mapa topográfico de la Tierra
(entre las latitudes 60 grados Norte y 56 grados Sur) más preciso obtenido hasta ahora.
Para ello, la tripulación de seis astronautas ha contado con un sistema de radares
denominado SRTM (Shuttle Radar Topography Mission), un gran paso adelante en las
técnicas de teledetección que ha permitido obtener mapas topográficos 30 veces más
precisos que los mejores mapas globales en uso hoy en día. El repetido paso sobre los
distintos puntos de la superficie terrestre, además, supondrá (una vez analizada la
información) la obtención de espectaculares imágenes en 3 dimensiones.
El sistema de radares, que pesó unas 15 toneladas al despegue, realizó una cobertura del
95 por ciento de la superficie habitada, con una resolución de unos 30 metros. El sistema
de radar (que ha producido unos 10 terabytes de datos) consistió en una antena de banda
C y otra de banda X en la bodega del Endeavour, y otras dos de las mismas
características en el extremo de un largo mástil de 61 metros que se desplegó y extendió
lejos de la nave para aprovechar las ventajas de la interferometría. El radar en banda X
fue proporcionado por las agencias espaciales italiana y alemana. El resto fue
responsabilidad del Jet Propulsion Laboratory.
La cuenta atrás para el lanzamiento se inició a las 22:30 UTC del 28 de enero. Sin
embargo, un fallo técnico y la mala meteorología aconsejó posponer la salida varios días.
El despegue se produjo finalmente a las 17:43 UTC del 11 de febrero, desde la rampa
39A del Kennedy Space Center, en Florida. El ascenso se llevó a cabo como ya es
habitual, con un desprendimiento limpio de los dos aceleradores sólidos, que fueron
recuperados en el océano y llevados a la costa para su reutilización.
El comandante Kevin Kregel, el piloto Dom Gorie, y los especialistas de misión Janice
Voss, Janet Kavandi, el alemán Gerhard Thiele y el japonés Mamoru Mohri, alcanzaron
la órbita unos 8 minutos y medio después del despegue. Se abrieron a continuación las
compuertas de la bodega de carga del Endeavour y se formalizó el reparto de tareas entre
los dos equipos que trabajarían constantemente a bordo. Kregel, Kavandi y Thiele
constituyeron el equipo rojo y se ocuparon de preparar el despliegue de la estructura con
el radar. Los otros tres astronautas, Gorie, Voss y Mohri, constituidos en equipo azul, se
fueron a dormir inmediatamente.
762
El Hijo de El Cronopio No. 70
Unas 5 horas y media después del despegue, la citada estructura rígida equipada con el
poderoso radar, la más grande desplegada en órbita, se había extendido conforme a lo
previsto. La operación duró unos 17 minutos.
El Endeavour fue orientado entonces de forma adecuada para iniciar la actividad de los
radares, tanto los situados en la bodega como los instalados en el extremo de la
estructura. Dado que la información enviada por los dos grupos de antenas debía ser
después combinada, se ensayó su comportamiento durante el uso de los motores de
control de posición.
Las operaciones científicas mediante el sistema de radares ya se encontraban en marcha
el sábado día 12. Al final del primer turno, se habían mapeado más de 4,5 millones de
km de superficie terrestre. En la Tierra, las primeras imágenes empezaron a hacerse
públicas, como una muestra de la calidad de los trabajos realizados.
La tripulación utilizó los motores auxiliares del Endeavour para comprobar sus efectos
sobre el mástil, el cual, como estaba previsto, apenas se movió. Esto permitió realizar
una pequeña maniobra de mantenimiento de la altitud, relativamente baja durante esta
misión (unos 200 km) para aumentar la resolución de las imágenes obtenidas con el
radar. El primer problema potencial apareció el domingo 13 de febrero. Debido a su
enorme longitud, el mástil estaba equipado con un motor de nitrógeno a presión en su
extremo, el cual ayudaba a mantener su orientación. Pero una válvula que dejó de
funcionar, quizá por un escape, empezó a impedir el uso correcto del motor, lo que dejó
la tarea de la estabilización exclusivamente al Endeavour. El uso de una mayor cantidad
de combustible podría haber obligado a recortar la misión en al menos un día. Por
fortuna, medidas especiales de ahorro de combustible no sólo permitieron respetar el
tiempo de captación de datos programado, sino prolongarlo algunas horas más.
Durante la primera semana, la rutina diaria a bordo del Endeavour no varió mucho. Los
dos equipos (azul y rojo) se fueron turnando para garantizar una cobertura de 24 horas.
La tripulación, además, realizó miles de fotografías mediante cámaras especiales y
atendió a los medios de comunicación, tanto estadounidenses como europeos. La
información acumulada en el Endeavour ocupó el equivalente a 13.500 CDs. Para el
almacenamiento se utilizaron 270 cintas en varios dispositivos llamados Payload High
Rate Recorders. Otro tipo de imágenes, tomadas con la llamada EarthKam (instalada en
la bodega), eran la responsabilidad de diversos estudiantes de la Tierra, quienes eligieron
los objetivos que deseaban fotografiar.
Janice Voss informó a Houston el 16 de febrero sobre la visión de un pequeño objeto de
color blanco surgiendo de la bodega del Endeavour, en el mismo momento en que Dom
Gorie estaba manipulando un conducto de gas frío. Se cree que se trataba de un pedazo
de hielo desprendido. El día 18, los controladores apreciaron que el pequeño motor del
mástil volvía a proporcionar algo de empuje, mejorando las perspectivas de poder
finalizar la misión como estaba previsto. El tiempo de mapeado quedó así establecido en
8 días, 18 horas y 10 minutos. Al final de este período, el 99,9 por ciento del área
observada lo había sido al menos una vez, más del 94,6 por ciento lo fue dos veces y casi
la mitad, tres veces. La desactivación del radar y las actividades de retirada del mástil se
llevaron a cabo normalmente. Si hubiera habido algún problema irresoluble, habría sido
expulsado hacia el espacio.
Por fin, el aterrizaje del Endeavour se realizó el 22 de febrero, a las 23:22 UTC. La
próxima misión tendrá a la estación espacial en su punto de mira.
763
El Hijo de El Cronopio No. 70
Información adicional en: http://www.dfd.dlr.de/srtm/html/newtoday_en.htm
http://spaceflight.nasa.gov
Imagen:
http://spaceflight.nasa.gov/gallery/images/shuttle/sts-99/lores/jsc2000e02653.jpg
(Perspectiva topográfica de una sección de Ventura County, en California, vista por el
complejo SRTM.) (Foto: JSC)
http://spaceflight.nasa.gov/gallery/images/shuttle/sts-99/lores/s99e5546.jpg
(En esta imagen se aprecia la antena SRTM al final del mástil de 61 metros.) (Foto: JSC)
Noticias de la Facultad
Próximos exámenes profesionales
Ildelfonso Tovar Martínez
El próximo 22 de marzo se llevará a cabo el examen profesional de Ildelfonso Tovar
Martínez que presentará y defenderá la tesis intitulada: Efectos estructurales debidos a
la incorporación de cobalto en una matriz de óxido de silicio. La tesis profesional será
presentada para obtener el título de Físico-Experimental, La tesis fue asesorada por José
Refugio Martínez Mendoza y Facundo Ruiz. A continuación presentamos el resumen de
la misma
Efectos estructurales debidos a la incorporación de cobalto
en una matriz de óxido de silicio
I. Tovar Martínez
Facultad de Ciencias
Universidad Autónoma de San Luis Potosí
Resumen
Utilizando espectroscopía infrarroja se analiza la estructura atómica local de vidrios
complejos, que consisten en la incorporación de cobalto en una matriz de SiO 2 ,
preparados por el método sol-gel. El óxido de cobalto se incorpora a la matriz de SiO 2
usando nitrato de cobalto calculando una concentración de 30% en peso de CoO. Los
vidrios fueron preparados a partir de soluciones alcohólicas de tetraetilortosilicato
(TEOS) para relaciones molares de 11.66 y 4 para H2 O/TEOS y Et-OH/TEOS,
respectivamente. Se presenta y se discute la evolución estructural de los vidrios, después
del punto de gelación, en función del tiempo de postgelación analizándola a temperatura
ambiente, sin realizar tratamientos térmicos, y la evolución estructural una vez que geló
el material realizando tratamientos térmicos. Con este proceso se obtiene una estructura
fibrosa, la cual es inducida por la incorporación de partículas de cobalto.
Laura Noemí Rocha Osornio
El próximo 24 de marzo se llevará a cabo el examen profesional de Laura Noemí Rocha
Osornio que presentará y defenderá la tesis intitulada: Índice de refracción efectivo en
guías de onda planas simétricas. La tesis profesional será presentada para obtener el
764
El Hijo de El Cronopio No. 70
título de Licenciado en Física, La tesis fue asesorada por Salvador Guel Sandoval. A
continuación presentamos la introducción de la misma
Índice de refracción efectivo en guías de onda planas simétricas
L.N. Rocha Osornio
Facultad de Ciencias
Universidad Autónoma de San Luis Potosí
Introducción
Un rayo de luz con transmisión transversal finita diverge al propagarse en un medio
homogéneo. Esta divergencia desaparece en estructuras capaces de guiar ondas eléctricas
bajo condiciones apropiadas; la dimensión transversal de estos modos de propagación es
determinada por los dieléctricos. Tales estructuras reciben el nombre de guías de onda.
Nuestro objetivo es presentar un análisis de la luz confinada en una guía de onda
simétrica y obtener ciertos valores fijos a partir de la constante de propagación y por una
determinada distribución de energía del frente de onda en ese medio. Obtenemos el
índice de refracción efectivo utilizando modos transversal eléctrico y se verá la
importancia del grosor de la guía de onda simétrica para el confinamiento de la energía
en dos dimensiones. Derivaremos las primeras propiedades de las guías de ondas en una
estructura de una capa. Los modos ópticos están representados como la solución de la
ecuación de eigenvalores derivadas de las ecuaciones de Maxwell sujetas a las
condiciones de frontera impuestas por la geometría de la guía de onda. La física de
propagación confinada se explica en términos de la reflexión total interna de onda plana
en la interfase dieléctrica. Los fenómenos y aplicaciones producidos cuando una luz de
alta intensidad modifica el índice de refracción y la velocidad de propagación en un
medio son notorios; el láser, por ejemplo, es uno de los protagonistas principales de estos
efectos, al igual que la holografía, que actúa como herramienta imprescindible. Los
efectos permiten expandir las posibilidades del proceso de información óptica y estos
desempeñan un revolucionario avance para muchas ramas de la tecnología.
La Ciencia desde el Macuiltépetl/ Las revoluciones científicas
Por Manuel Martínez Morales
En Roma, el 8 de febrero de l600, el tribunal de la inquisición condenaba por hereje e
impenitente al matemático, astrónomo y filósofo Giordano Bruno; después de escuchar
su sentencia de muerte, Bruno temerariamente replicó al Santo Tribunal: “Tienen ustedes
más miedo en sentenciarme, que yo de cumplir la sentencia”: Días más tarde, el 17 de
febrero, Giordano Bruno era quemado vivo en la hoguera. El célebre filósofo, nacido en
l548 en Nola, Italia, murió sin retractarse de sus ideas.
Uno de los pecados mayores de Bruno fue declarar, convencidamente, que el universo es
infinito y que existen, de igual forma, un sinfín de cuerpos como los que forman nuestro
sistema solar.
El mundo es infinito y por lo tanto, no hay en él ningún cuerpo al
que le corresponda estar en el centro o sobre el centro o en la
765
El Hijo de El Cronopio No. 70
periferia o entre ambos extremos del mundo; sino tan sólo le
corresponde estar entre otros cuerpos...
Escribe Bruno en su obra Sobre el infinito universo y los mundos.
En nuestros días, hasta la mente más simple acepta el hecho de que habitamos un
pequeño planeta perdido en la inmensidad de un universo sin límites, en tiempos de
Bruno lo contrario era la norma. Se creía que la tierra era el centro de una esfera cerrada,
en cuya superficie estaban fijas las estrellas; se admitía pues, la imagen de un universo
finito. El cambio de esa concepción a la concepción actual tuvo que darse a través de una
verdadera revolución del pensamiento. Alexander Koyré, destacado historiador de las
ciencias, nos dice al respecto:
Es posible describir aproximadamente esta revolución científica y
filosófica diciendo que conlleva la destrucción del Cosmos; es decir,
la desaparición en el campo de los conceptos filosófica y
científicamente válidos, de la concepción del mundo como un todo
infinito, cerrado y jerárquicamente ordenado; un todo en el que la
jerarquía axiológica determinaba la jerarquía y estructura del ser,
elevándose desde la tierra oscura, pesada e imperfecta hasta la
mayor y mayor perfecció n de los astros y esferas celestes. (Del
mundo cerrado al universo infinito, Siglo XXI, 1979).
Este episodio de la historia de las ciencias ilustra con precisión lo que se ha dado en
llamar revoluciones científicas. Se ha creído, y en algunos círculos se cree todavía, que el
desarrollo de las ciencias es un proceso gradual y progresivo mediante el cual se han ido
añadiendo conocimientos al caudal ya existente. Desde esta perspectiva, la historia de las
ciencias es contemplada como una disciplina que relata y registra esos incrementos
sucesivos, y los obstáculos que han inhibido su acumulación. Sin embargo, en vista de un
sinnúmero de dificultades encontradas por los historiadores, se ha fincado ya una nueva
corriente historiográfica que ha roto con esa tradición.
La nueva escuela de historiadores de la ciencia propone, y lo ha demostrado en muchos
casos, que el desarrollo del conocimiento científico se da gradualmente y evoluciona sólo
en tiempos “normales”, pero hay momentos históricos en los cuales se dan verdaderos
saltos cualitativos, verdaderas revoluciones. Tal es el caso de la transición de la
concepción de un universo cerrado a la de un universo infinito. Entre los mejores
exponentes de esta escuela destaca Thomas Kuhn, físico de profesión. Kuhn ha escrito
una de las mejores obras en este campo: La estructura de las revoluciones científicas
(FCE, 1973). En ella nos dice que
Las primeras etapas de desarrollo de la mayoría de las ciencias se
han caracterizado por una competencia continua entre una serie de
concepciones distintas de la naturaleza, cada una de las cuales se
derivaba parcialmente de la observación y del método científico y,
hasta cierto punto, todas eran compatibles con ellos. Lo que
diferenciaba a esas escuelas no era uno y otro error de método –
todos eran “científicos”- sino lo que llegaremos a denominar sus
modos inconmensurables de ver el mundo y de practicar en él las
ciencias.
766
El Hijo de El Cronopio No. 70
A estos modos particulares de ver el mundo y practicar en él las ciencias, Kuhn los
denomina paradigmas científicos. Para ponerlo en sus palabras:
Considero a éstos (los paradigmas) como realizaciones científicas
universalmente reconocidas que, durante cierto tiempo,
proporcionan modelos de problemas y soluciones a una comunidad
científica.
Pues bien, una revolución científica se da en el momento en que un paradigma es
sustituido por otro. Es el caso del paso del paradigma de la astronomía geocéntrica al de
la astronomía heliocéntrica, propuesta por Copérnico; otro ejemplo sería el salto de la
física de Newton a la física relativista; también es el caso de la biología predarwiniana
que deja el paso a la biología evolutiva. Estos cambios son drásticos, pues se sustituye un
paradigma por otro ¡totalmente inconmensurable con él!, lo que significa que uno no
puede reducirse o transformarse en el otro, ya que parten de concepciones y postulados
sobre la realidad radicalmente diferentes.
En ocasiones, son de tal fuerza los esquemas propuestos por los nuevos paradigmas que
cimbran no sólo el pensamiento científico de una época, sino que llegan a afectar la
ideología y el orden establecido de toda un formación social. Recordemos el caso de
Giordano Bruno.
¿Cuál es el proceso de desarrollo normal de una ciencia? ¿Qué tipo de problemas o
anomalías dan lugar a la sustitución de un paradigma por otro? ¿Cómo se resuelve la
competencia entre varios paradigmas? Cuestiones como éstas son las que hoy se plantean
los historiadores de las ciencias.
El estudio cabal de la historia de las ciencias constituye, sin duda, un sano ejercicio para
esclarecer y apreciar de manera justa el valor y los alcances de los paradigmas que la
ciencia normal de nuestro tiempo propone, pues
la investigación efectiva apenas comienza antes de que una
comunidad científica crea haber encontrado respuestas firmes a
preguntas tales como las siguientes: ¿Cuáles son las entidades
fundamentales de que se compone el universo? ¿Cómo interactúan
esas entidades unas con otras y con nuestros sentidos? ¿Qué
preguntas pueden plantearse legítimamente sobre esas entidades y
qué técnicas pueden emplearse para buscar soluciones?
Al menos, en las ciencias maduras, las respuestas a preguntas como esas se encuentran
enclavadas, firmemente, en la iniciación educativa que da licencia a los estudiantes para
la práctica profesional. Debido a que esta educación es tanto rigurosa como rígida, esas
respuestas llegan a ejercer una influencia profunda sobre la mentalidad científica (Kuhn).
El caso de Giordano Bruno no debería repetirse; sin embargo, hoy vemos que hay teorías
que se juzgan con la misma severidad que lo fueron las tesis de Bruno en su tiempo; tal
es el caso de las teorías marxistas de la historia y el conocimiento. ¿Será porque nos
proponen un paradigma que no sólo afecta la esfera del conocimiento sino que,
fundamentalmente, cuestiona la existencia de un sistema social fincado en el predominio
de una clase social sobre las demás? La historia lo dirá
2 de diciembre de l983
767
El Hijo de El Cronopio No. 70
El Cabuche (crónicas de la Facultad de Ciencias)/
Filosofía en la azotea
Por lo regular los lugares solitarios se prestan para reflexionar. Hay quienes lo hacen en
el baño y hay quienes ni siquiera eso. Cuando no existía el sistema de créditos, en la
década de los setenta, la materia de Filosofía era obligatoria, en la actualidad lo debería
de ser. Por lo regular Memo Marx, que también chambeó, o intentó, de director de esta
facultad, era el profesor natural para impartir esta materia. Con Memo cursamos varias
materias, tanto de matemáticas como de física e incluso de química, pero su actuación en
esas tareas fue más bien oscura. En contraparte los cursos de filosofía y historia de las
ciencias, eran su pasión y por consecuencia se convertían en excelentes cursos. Los
mismos se prestaban para salirse de lo convencional y en una escuela como la de física,
al menos de aquella época, y con personajes tan peculiares, incluyendo principalmente al
Memo, era de esperarse cualquier cosa. Cuando menos acordábamos nos encontrábamos
en el jardín de la escuela, bajo la sombra de un árbol, eso en el mejor de los casos,
leyendo y discutiendo libros de filosofía, bajo las explicaciones de Memo. Llegar tarde a
alguna de las sesiones se convertía en un ejercicio de juego de las escondidas, tenía uno
que buscar, con el libro de filosofía bajo el brazo, por todos los rincones y alrededores de
la escuela hasta dar con la raza que se encontraba desmenuzando las frases y
rearmándolas para, al menos, medianamente comprender los intrincados esquemas
filosóficos de pensadores griegos y contemporáneos tratados en el libro de Historia de la
Filosofía de Bertland Russel (creo que así se escribe, sino ahí corrijan) editado por la
casa española Aguilar. El libro era caro, así que disponíamos de un número muy limitado
de ellos, de hecho se utilizaba el de Memo, así que tratábamos de aprovechar al máximo
esas sesiones filosóficas. Del jardín pasamos a alturas considerables, tratando de evitar
las miradas asombradas e indiscretas de los ingenieros que se atrevían a pasar por allí,
terminamos por tener las sesiones en la azotea de la escuela, ahora a la sombra de los
tinacos; justo en el lugar donde el Beto Prestas, tiempo después como ya fue mencionado
en esta sección, en histórico día decidió tomar el sol como Dios lo trajo al mundo
acompañado de sendo chemo. Las sesiones se prolongaban durante todo el día, y en
ocasiones durante la noche; para aguantar tremendo ritmo y la mente estuviera preparada
para profundas cavilaciones, de vez en cuando acercábamos líquidas provisiones y una
que otra botana; como el agua es pa`bañarse y pa`las ranas que nadan bien, preferíamos
cervezas haladas, ya fueran Caguamas o ampolletitas, no discriminábamos, o en su
defecto ginebra con refresco de toronja, de preferencia Del Valle. Por arte de magia las
ideas fluían y adquirían sentido las propuestas filosóficas planteadas por Russel, de esta
forma la metodología pedagógica funcionaba y por necesidad repetíamos las sesiones
bajo el mismo esquema, aunque ya avanzadas las horas acabáramos discutiendo y
platicando de otras cosas. Si no nos volvimos expertos en cuestiones filosóficas, si en
trepar y caminar por la azotea en tremendo estado (de cavilación, claro) a tal grado que
tiempo después, según platica la raza, cuando se construían los nuevos salones en lo que
fuera la terraza de la escuela, el Memo escapaba habilidosamente por las ventanas en
construcción, para evitar impartir clases (ajenas a la filosofía) escabulléndoseles a los
estudiantes.
Tú y las nubes me traen muy loco/Tú y las nubes me
van a matar/Yo pa`rriba volteo muy poco/Tú pa`bajo
no sabes mirar
768
Boletín
El Hijo de El Cronopio
Facultad de Ciencias
Universidad Autónoma de San Luis Potosí
No.71, 27 de marzo de 2000
Boletín de información científica y
tecnológica de la Facultad de Ciencias
Publicación semanal
Edición y textos
Fís. J. Refugio Martínez Mendoza
Cualquier información, artículo o
anuncio deberá enviarse al editor
e-mail: flash@galia.fc.uaslp.mx
Este boletín y números anteriores,
pueden consultarse por Internet en la
página de la UASLP:
http://phobos.dtc.uaslp.mx/publi.html
Preparándonos para el cambio de
horario agüevo
A pesar de la reticencia de algunos estados de la
República, tal parece que se volverá a imponer, por
parte del gobierno federal, el horario de verano,
arg umentando (si es que se le puede llamar
argumentación) un supuesto ahorro energético, que
por lo pronto sólo se manifiesta en las mentes del
gobierno y de Téllez, Secretario de Energía y Minas.
A pesar de que los medios electrónicos de difusión
acostumbran dar informaciones sesgadas, y sacadas a
punta de microfonazos, a pregunta expresa de un
reportero que mencionaba el rechazo a la medida en
algunos estados, entre los que
se encontraba San Luis Potosí,
el secretario referido, sólo
alcanzó a declarar con una amenaza, que si eso
sucedía tendrían que provocar apagones. Como si el
servicio de electricidad fuera gratuito y una dádiva del
gobierno hacia la población, cuando es una obligación
primaria del estado. En fin, no es otra más que una
declaración típica d e la campaña de amenazas que ha
emprendido el gobierno federal (anuncios de lolita y
lola, para pagar impuestos, entre otras). ¿Desde
cuando las acciones de justicia son una caridad?.
Por lo pronto se sigue argumentando, aunque no se
demuestra, y se dan c ifras, que sólo ellos se las creen,
del multimillonario ahorro que ha provocado el sólo
hecho de recorrer una hora adelante en verano. De
acuerdo a la lógica del gobierno y de la secretaría de
energía ¿Si quisiéramos ahorrar el doble, podríamos
adelantar e n ves de una hora, dos?
Esperen cualquier respuesta taruga del secretario, total
disfrazada en cifras dichas sin titubeos, es argumento
suficiente para protegerse en los números. Más, si
Téllez fue a la misma escuela en que Zedillo estudió
matemáticas (ver El Hijo de El Cronopio No. 70; al
buen entendedor, muchas matemáticas).
Otra cosa muy diferente sería, si se argumentará como
un acto cultural e inclusive comercial (como en
realidad parecer ser), pero se atiende a una manejo
desubicado de los números.
Por otra parte, expertos del Instituto de Astronomía de
la UNAM afirman que por su posición en el globo
terráqueo, los días más cortos en México tienen 10
horas con 13 minutos de sol, por lo que la adopción de
un horario de verano no corresponde a las condiciones
de luminosidad. Rafael Costero dijo que las razones
para el cambio de hora se refieren a la necesidad de
homologación con las principales economías del
mundo y no tanto para aprovechar la luz del día. El
astrónomo Daniel Flores precisa que México e s de los
pocos países que tienen un horario de verano a pesar
de que su posición en el globo no lo haga tan
necesario. ¿Y LA OPINIÓN CIUDADANA?
NO POR MUCHO MADRUGAR AMANECE MAS
TEMPRANO
El Hijo de El Cronopio No. 71
Noticias de la Ciencia y la Tecnología
Algas que producen combustible
Un tipo de alga común podría ser empleado a gran escala para producir hidrógeno, un
combustible limpio con diversas aplicaciones en la industria.
A la búsqueda de fuentes de energía alternativas, el hidrógeno está bien posicionado para
ser adoptado en un futuro cercano, ya sea para producir electricidad mediante células de
combustible o para ser quemado en motores.
La obtención de hidrógeno para éstas y otras aplicaciones, sin embargo, es aún un
proceso químico dificultoso. Tampoco es un procedimiento ideal, ya que el hidrógeno se
suele extraer del gas natural, una fuente no renovable. Afortunadamente, científicos de la
University of California han descubierto un alga común que puede producirlo bajo
condiciones especiales y en cantidades interesantes. La citada alga, que ha sido estudiada
por el microbiólogo Tasios Melis y el estudiante de doctorado Liping Zhang, produce
hidrógeno gracias a la manipulación inteligente del proceso de fotosíntesis. Agua y luz
solar bastarán pues como materias primas.
Los análisis realizados hasta ahora se han efectuado sobre cultivos a pequeña escala de la
alga verde microscópica Chlamydomonas reinhardtii. Si bien el ritmo de producción
actual es todavía escaso, las investigaciones permitirán multiplicarla por diez,
convirtiendo el método en comercialmente viable. Ya se están desarrollando
fotobiorreactores para aplicaciones industriales y comerciales.
Los cálculos preliminares sugieren que una sola y pequeña planta productora podría
producir suficiente hidrógeno como para alimentar semanalmente a una docena de
automóviles.
Muchos expertos creen que el hidrógeno se convertirá algún día en la principal fuente de
energía renovable, reemplazando a los combustibles fósiles gracias a que no es agresivo
con el medio ambiente. Cuando el hidrógeno es quemado, el resultado es agua pura
(vapor), perfectamente apta para el consumo humano.
Serán necesarios más trabajos en otras áreas, como la del almacenamiento del hidrógeno
(que es un gas muy volátil), su transporte y su suministro, pero ello no se espera que se
convierta en un problema irresoluble.
Los científicos saben que ciertas algas pueden producir hidrógeno desde hace 60 años,
pero sólo en pequeñísimas cantidades. Las investigaciones más recientes han servido
para descubrir el "interruptor molecular" que hace que la célula ponga en marcha o
detenga su sistema fotosintético. Con una activación permanente, lo cual se consigue con
la ausencia de azufre en el medio de crecimiento del alga, se detiene la fotosíntesis y con
ello la producción de oxígeno. Sin oxígeno, las células anaeróbicas no pueden quemar el
combustible almacenado de la forma habitual (mediante la respiración metabólica). Para
sobrevivir, emplean entonces un sistema alternativo que genera hidrógeno y que podría
ser universal, encontrándose en muchos otros tipos de algas.
Las algas no pueden vivir para siempre en esta situación, pero sí un tiempo
razonablemente largo, lo bastante como para ser útiles para la producción de hidrógeno a
gran escala.
Información adicional en:
770
El Hijo de El Cronopio No. 71
http://www.urel.berkeley.edu/urel_1/CampusNews/PressReleases/releases/01-272000b.html
Imagen:
http://www.urel.berkeley.edu/urel_1/CampusNews/PressReleases/releases/bottle.jpg
(El alga Chlamydomonas reinhardtii.) (Foto: U. of California)
El bosque sepultado
Científicos estadounidenses han tenido la inmensa fortuna de poder estudiar un bosque
de hace 10.000 años, preservado milagrosamente gracias a una poco habitual cadena de
circunstancias.
Los investigadores de la Michigan Technological University y sus colegas de Harvard no
pueden creer en su buena suerte. La naturaleza ha conservado para ellos, en casi
perfectas condiciones, un bosque de abetos de 10.000 años de antigüedad.
El citado bosque se ha mantenido intacto durante todo este tiempo gracias a permanecer
enterrado en arena y agua. Su descubrimiento fue accidental, en Michigan, y ha
propiciado un estudio de sus características en comparación con los bosques modernos.
En apariencia, los abetos blancos que lo componen son semejantes a los que pueden
hallarse hoy en día en la Bahía de Hudson, los cuales continúan avanzando hacia el
norte. Los especimenes hallados pertenecerían a la primera población que se instaló en la
región, sobre el sedimento dejado a la vista por un glaciar en retirada.
Las agujas de los árboles han caído pero los troncos siguen derechos e intactos,
incluyendo las ramas. Las agujas, así como polen y otros elementos, pueden hallarse
fácilmente sobre la capa que constituía el suelo primitivo del bosque. Los árboles tienen
diámetros variables que van de 5 a 50 cm, mientras que el más alto tiene unos 9 metros.
Los más viejos tenía 145 años de edad cuando murieron.
La mayor parte de lo que sabemos acerca de los cambios que afectan a los bosques lo
hemos obtenido a partir de los estudios del polen fosilizado hallado en el fondo de lagos
y estanques. Encontrar un bosque completo es algo realmente excepcional, ya que en él
podrán analizarse multitud de casos biológicos a un tiempo.
La época a la que pertenece es representativa de una era en la que las temperaturas
subían, después de la última glaciación. También es el momento en el que los primeros
habitantes humanos llegaron a esta parte del mundo. De hecho, se han encontrado
objetos paleoindios a no mucha distancia de la posición del bosque enterrado.
Su muerte debió producirse debido a una prolongada pero suave inundación debido al
agua y la arena procedentes de una glaciar cercano que se estaba deshaciendo.
Información adicional en: http://www.demon.co.uk/bes; http://www.mtu.edu/
Imagen: http://www.admin.mtu.edu/urel/breaking/2000/images/twotrees.jpg
(Dos de los árboles del antiquísimo bosque.) (Foto: Michigan T. U.)
Un planeta en un tubo de ensayo
La microgravedad ayuda a crear modelos más precisos de las atmósferas planetarias y los
océanos.
La investigación relacionada con las atmósferas de otros planetas se encuentra coartada
por la enorme distancia que existe entre nosotros y nuestro objetivo. Las imágenes
771
El Hijo de El Cronopio No. 71
suministradas por las sondas o por los telescopios no son suficientes para obtener
modelos físicos concretos sobre su comportamiento.
Un experimento realizado a bordo de dos misiones del transbordador espacial, en 1985 y
1995, podría ayudar a definir mejor dichos modelos. El aparato se llama Geophysical
Fluid Flow Cell y fue diseñado por John Hart, de la University of Colorado.
En tierra, es imposible crear modelos esféricos fiables porque la gravedad terrestre
produce un comportamiento irreal en los fluidos que tratan de representar la atmósfera y
los océanos. Sin embargo, en la microgravedad de un viaje alrededor de nuestro planeta
las cosas son más sencillas.
En el interior del dispositivo, los científicos recrearon modelos del clima de la Tierra y
de su interior, la atmósfera del Sol y la de otros planetas.
Pero, ¿cómo es posible simular algo tan grande como un planeta en una esfera de acero
inoxidable tan pequeña como un ornamento de Navidad? La citada bola quedó situada
bajo un domo sintético de zafiro, con aceite de silicona circulando entre ambos para
simular la atmósfera de Júpiter, el Sol y el manto fundido de la Tierra, dependiendo de
las condiciones del experimento seleccionadas por los científicos. Una superficie
giratoria controlada por la temperatura hace girar el domo (simulando la rotación del
planeta) y una descarga eléctrica entre el domo y la esfera actúa como gravedad artificial.
Se realizaron más de 100 experimentos durante la primera misión, tomándose unas
50.000 imágenes en película de 16 milímetros. Los patrones de convección fotografiados
ayudarán a definir mejor los modelos matemáticos y de ordenador, y de hecho ya han
explicado algunas cuestiones clave, como los vientos zonales o la estructura atmosférica
de Júpiter.
La segunda misión contempló 29 experimentos separados de seis horas cada uno. Las
enseñanzas obtenidas nos permitirán además predecir y entender cómo se mueven los
continentes terrestres y la dinámica atmosférica de nuestro planeta.
Información adicional en: http://mtrs.msfc.nasa.gov/mtrs/
http://www1.msfc.nasa.gov/NEWSROOM/news/releases/2000/00-041.html
Imagen:
http://www1.msfc.nasa.gov/NEWSROOM/news/photos/2000/2000images/gffc_m.jpg
(La Geophysical Fluid Flow Cell.) (Foto: Marshall SFC)
http://www1.msfc.nasa.gov/NEWSROOM/news/photos/2000/2000images/16mm_m.jpg
(El fluido se mueve dentro de la Geophysical Fluid Flow Cell.) (Foto: Dr. John Hart,
University of Colorado at Boulder)
Identificado "el mensajero de la muerte"
Se ha localizado la proteína que actúa sobre el núcleo de la célula para que ésta ejecute el
proceso de su muerte programada.
Cuando determinadas células de un cuerpo se vuelven innecesarias, funcionan
incorrectamente o son malignas, puede desencadenarse un mecanismo de protección
natural que las impelirá a suicidarse (apoptosis).
La maquinaria celular que hace posible esto ha sido un relativo misterio hasta hace poco
tiempo. Científicos del Howard Hughes Medical Institute creen haber descubierto el
llamado "mensajero de la muerte", la proteína que forma parte de este mecanismo y que
viaja hasta el núcleo de la célula afectada para incitar su muerte programada.
772
El Hijo de El Cronopio No. 71
Esta muerte es un método biológico esencial que regula el número de células, las
conexiones entre ellas y que también sirve para esculpir correctamente los tejidos.
Cuando este sistema no funciona bien, pueden aparecer ciertos casos de cáncer,
enfermedades autoinmunológicas e incluso degenerativas.
H. Robert Horvitz, del MIT, junto a varios colegas del Max Planck Institute for
Biological Chemistry y de la Hebrew University, ha fundamentado sus trabajos sobre el
caso de un gusano llamado Caenorhabditis elegans, un animal que contiene exactamente
1.090 células, de las cuales 131 realizan la apoptosis, la mayoría durante el desarrollo
embrionario.
El equipo de Horvitz ha identificado a las proteínas EGL-1, CED-9, CED-4 y CED-3
como ingredientes esenciales en el proceso. La EGL-1 inicia la apoptosis inhibiendo la
acción de contención normal de la CED-9 sobre la CED-4 (ambas situadas en las
mitocondrias, las fábricas de energía de las células). Una vez liberada, la CED-4 dispara
la CED-3, una proteína altamente destructiva para los enzimas.
El estudio de las contrapartidas humanas de estas proteínas ayudarán a paliar los efectos
derivados de embolias, ataques al corazón, Alzheimer, etc.
Información adicional en: http://www.hhmi.org/news/horvitz.htm
Imagen: http://www.hhmi.org/news/images/horvitz.gif
(H. Robert Horvitz.) (Foto: Paul Fetters)
Calendario gregoriano
El calendario por el cual nos regimos tuvo unos orígenes mucho más curiosos de lo que
podría esperarse.
Mucha gente interesada por la forma en que medimos el tiempo se pregunta por qué
septiembre de 1752 tuvo sólo 19 días en Gran Bretaña pero en cambio disfrutó de 30 días
en España. O por qué el 2000 es un año bisiesto si 1800 y 1900 no lo fueron.
Estas y muchas otras curiosidades se deben a la forma en que el calendario ha ido
evolucionando a lo largo del tiempo. Entre ellas, el elevado número de arbitrariedades
que después, paradójicamente, han servido para establecer un calendario funcional.
Por ejemplo, si bien muchos cambios en el calendario tradicional, basado primero en las
fases de la Luna y después en el ciclo anual solar, se realizaron para incrementar su
precisión, otros se efectuaron por razones puramente políticas y religiosas. Así, febrero
cayó víctima de la vanidad de los emperadores Julio y Augusto, quienes le robaron un
día cada uno para que aquellos que fueron bautizados con sus nombres (julio y agosto)
fueran más largos que el resto.
Ante estos desmanes, ya en el año 1000 se propuso modificar el calendario Juliano
vigente, pero nadie consiguió el apoyo político necesario para la reforma. Así
permanecería hasta 1582, cuando el Papa Gregorio XIII decidió ajustarlo. Ese año,
Gregorio acortó el mes de octubre en 10 días y ordenó que sólo los años centenarios que
fueran divisibles por 400 fueran bisiestos.
Estos cambios convirtieron al nuevo calendario Gregoriano en más preciso que el
anterior, pero la razón fundamental para que se llevasen a cabo fue la corrección de la
fecha en la que caería la Pascua. Los países protestantes, liderados por Gran Bretaña, no
harían caso de ello, por supuesto, y el cambio en su calendario no se materializaría hasta
septiembre de 1752. Para entonces, estaba desfasado en 11 días.
773
El Hijo de El Cronopio No. 71
Dejando aparte las motivaciones de su aplicación, el calendario Gregoriano se ha
convertido en uno de los sistemas más sencillos y precisos para hacer un seguimiento de
algo tan inherentemente impreciso como es la longitud de un año.
Micromáquinas de diamante
No podrás regalárselas a tu pareja en el día de San Valentín, y son demasiado pequeñas
para ser el mejor amigo de una mujer, pero a pesar de todo científicos americanos han
creado lo que creen es la primera micromáquina de diamante del mundo.
El diamante interesa a los investigadores por sus cualidades superiores en el ámbito de la
dureza, resistencia al desgaste, a la fricción, etc. También tiene un gran potencial como
material biocompatible, de manera que puede ser usado dentro del cuerpo humano en
aplicaciones médicas, sin que se produzca una reacción alérgica.
En la carrera hacia la creación de máquinas cada vez más pequeñas, tiene sentido la
construcción de algunas de ellas mediante este material, el diamante amorfo, el más duro
en el mundo después del diamante cristalino. Su disposición y la metodología para su
manipulación es lo que están desarrollando diversos especialistas en los Sandia
Laboratories.
Las primeras micromáquinas construidas mediante diamante son dispositivos móviles de
un milímetro cuadrado, donde sus diminutos dientes se mueven hacia delante o hacia
atrás cuando una corriente eléctrica cambia de polaridad. Como piezas básicas, formarán
parte de otros complejos más sofisticados.
Ya se han construido micromáquinas con otros materiales, como el polisilicio, pero a
pesar de su tamaño, siguen siendo susceptibles de desgaste. El diamante ayudará a
reducir este desgaste y a prolongar su vida útil. Las investigaciones sugieren que el
diamante debería durar 10.000 veces más que el polisilicio.
Los MEMs de silicio, sistemas microlectromecánicos, ya se usan en aplicaciones tales
como los "air bags" de los automóviles o en los microespejos ópticos que podrían ser
desplegados en satélites artificiales. Se trata de una tecnología muy prometedora y con
múltiples aplicaciones.
El uso de diamante amorfo en vez diamante cristalino, que es más duro aún, se explica
sabiendo que este último necesita de temperaturas mucho más altas para ser sintetizado.
Además, aplicado sobre superficies, proporciona una terminación rugosa, inapropiada
para la tecnología de multicapas empleada en las micromáquinas.
Información adicional en:
http://www.sandia.gov/media/NewsRel/NR2000/diamond.htm
Imagen:
http://www.sandia.gov/media/NewsRel/NR2000/images/jpg/ADcomb.jpg
(Vista de una micromáquina de diamante.) (Foto: Sandia Labs.)
El ranking de la ingeniería
Neil Armstrong, el primer astronauta que pisó la Luna, no cree que la conquista del
espacio deba situarse en el primer puesto de los logros de la ingeniería y la tecnología en
el siglo XX.
Neil Armstrong, durante muchos años profesor de astronáutica, primer hombre que pisó
nuestro satélite (Apolo-11), y persona extremadamente reservada y prácticamente
774
El Hijo de El Cronopio No. 71
retirada de la vida pública desde que regresó de la Luna, prefiere otros logros de la
ingeniería antes que encumbrar a su antigua profesión.
Para el que fuera prototipo del héroe americano en un ambiente tecnológico extremo, el
ránking de la ingeniería y la tecnología debería estar regido por el criterio de la mejora en
la calidad de vida de las personas.
Así, otorga a la electrificación de la sociedad el primer puesto de la lista, en cuya
definición han participado otras personalidades del mundo científico. La disponibilidad
masiva de esta fuente de energía es, para Armstrong, la más importante aportación
tecnológica del siglo XX. En segundo lugar se encontraría el automóvil, seguido por el
avión, el suministro de agua potable y la electrónica.
Armstrong, de 69 años, continúa mencionando, en orden descendente, a la radio y la
televisión, la mecanización de la agricultura, la informática, el teléfono, y el aire
acondicionado y la refrigeración.
Siguiendo con su compromiso de dar crédito a todo aquello que ha sido más útil a la
sociedad, sitúa a continuación a las autopistas, la exploración espacial, Internet, las
técnicas médicas de diagnosis mediante imágenes, otros tipo de tecnologías relacionadas
con la salud, el aprovechamiento del petróleo y el gas, el láser y la fibra óptica, la
tecnología nuclear y los nuevos materiales.
Información adicional en: http://www.greatachievements.org/
Por donde sopla el viento
El instrumento SeaWinds del satélite Quikscat ha empezado a suministrar información
que permitirá mejorar las predicciones meteorológicas en todo el mundo.
Cada vez se hace más necesario tener una visión global de la meteorología mundial para
realizar predicciones más exactas y a más largo plazo. Para ello se emplean sensores
situados en el espacio, los cuales aportan información sobre innumerables aspectos que
analizados conjuntamente proporcionan un cuadro más completo de la situación.
Uno de estos sensores es el SeaWinds, instalado a bordo del satélite Quikscat. Este
instrumento realiza mediciones de la dirección y la intensidad del viento en la superficie
de los océanos. Estos datos, junto a los que se refieren a las nubes, la temperatura y otros
parámetros meteorológicos, pueden ser usados para entender cómo se desarrollan los
diversos sistemas y tormentas, y también para predecir el tiempo en todo el globo.
Las medidas son asimismo cruciales para comprender las corrientes oceánicas, los
patrones climáticos y las variaciones cíclicas y anómalas que pueden ocurrir en ellos.
El SeaWinds es un radar que opera en la frecuencia de las microondas, capaces de
penetrar a través de las nubes. Gracias a la órbita polar que sigue, el aparato tiene una
visión completa de la superficie terrestre, la cual gira bajo su trayectoria. Además de los
vientos oceánicos, se consiguen datos de las olas, las corrientes, las estructuras adoptadas
por el hielo polar y otros fenómenos.
Tras su lanzamiento en junio de 1999 y un extenso período de calibración, el SeaWinds
ha empezado a aportar los datos que se esperaba de él. Ahora, los científicos disponen de
información de los vectores del viento sobre los océanos casi a tiempo real, permitiendo
su incorporación a los modelos numéricos de predicción del tiempo.
El sistema pertenece al programa Earth Science Enterprise de la NASA, diseñado para
examinar la tierra, los océanos, la atmósfera, el hielo y la vida como un sistema
integrado.
775
El Hijo de El Cronopio No. 71
Información adicional en: http://www.earth.nasa.gov;http://podaac.jpl.nasa.gov/quikscat/
http://haifung.jpl.nasa.gov/
Imagen: http://haifung.jpl.nasa.gov/images/daily_nepac.mov
(Animación de los vientos en el Pacífico nordeste.) (Foto: JPL)
Arqueología e informática
En ocasiones, los arqueólogos no sólo deben hacer labores de rescate de la información
legada por la antigüedad sino también batallar por la preservación de sus propios
archivos.
Estamos acostumbrados a imaginar a los arqueólogos cavando zanjas, tomando medidas,
escribiendo notas, examinando objetos hallados en yacimientos antiquísimos, pero esto,
como vamos a ver, no siempre es así.
La tarea de investigación de los recintos arqueológicos es necesariamente destructiva.
Implica excavar de forma continuada y examinar cada piedra y objeto encontrado. Todo
ello, sobre todo la disposición de cada elemento, queda reflejado en la documentación
escrita, donde se preservará para la posteridad. No será posible regresar y rehacer el
proceso de exploración, de modo que la conservación de dichas notas y archivos es tan
importante como la excavación propiamente dicha.
En la actualidad buena parte de los archivos son almacenados mediante medios
informáticos. El problema es que los trabajos arqueológicos de hace tan sólo unos años
quedaron documentados en sistemas que ya se han vuelto obsoletos, con el consiguiente
peligro de la pérdida de la información tan cuidadosamente obtenida.
El arqueólogo Keith Westcott, del Archaeology Data Service, explica que el formato de
los archivos usados en los ordenadores cambia tan rápidamente que lo que se crea en el
ultimísimo programa disponible puede resultar inservible dentro de un año, quedando
ilegible dentro de quizá no mucho tiempo más (sobre todo cuando los viejos discos dejan
de poder ser leídos ante la falta del hardware adecuado).
Es entonces cuando los especialistas en esta ciencia se han visto obligados a hacer
arqueología de sus propios trabajos, a la búsqueda de la rehabilitación de una
información muy valiosa que podría perderse (los discos y cualquier otro medio
magnético pueden ser susceptibles a sufrir la corrupción de los datos que contienen).
Conscientes de este peligro, el doctor Westcott y sus colegas de la University of York han
empezado a rescatar y preservar más de 7.000 archivos de su área de influencia (unos
120 megabytes de datos), exportándolos a formatos más modernos. No sólo eso, la
información, a partir de ahora, estará disponible en Internet, accesible por cualquiera que
lo desee. El objetivo es actualizar los formatos cada cierto tiempo, para asegurar que
siempre esté disponible sin ningún problema.
Información adicional en: http://ads.ahds.ac.uk/; http://ads.ahds.ac.uk/catalogue/
http://ads.ahds.ac.uk/press/1-2000release.html
Imagen: http://ads.ahds.ac.uk/press/1-2000-3.jpg
El origen de la inclinación de la orbita lunar
La misteriosa inclinación orbital de nuestro satélite podría ser el resultado de la misma
gigantesca colisión contra la Tierra que al parecer le dio forma.
776
El Hijo de El Cronopio No. 71
Una de las teorías más aceptadas sobre el origen de la Luna dice que un planeta de un
diámetro semejante a Marte chocó contra la Tierra. El catastrófico encuentro proporcionó
el material suficiente para su formación, dotándole además de las particulares
características geológicas que posee nuestro satélite.
De la misma manera, la curiosa inclinación de su órbita con respecto al ecuador terrestre
(unos 10 grados) podría estar relacionada con este suceso. Así lo creen los científicos del
Southwest Research Institute, quienes han simulado en potentes ordenadores la evolución
de la órbita lunar, moviéndose hacia atrás en el tiempo. Sabiendo que la Luna se aleja
paulatinamente de nosotros es fácil llegar a la conclusión de que ésta se formó mucho
más cerca de nuestro planeta.
La mayoría de los satélites de otros planetas en el sistema solar poseen inclinaciones
orbitales inferiores a 1 ó 2 grados. Para explicar por qué la de la Luna es mucho mayor,
hay que retroceder y contemplar el choque que, hace 4.500 millones de años, se produjo
entre la Tierra y otro planeta algo menor. El principal resultado de este impacto fue un
disco caliente de restos, girando alrededor del ecuador de nuestro planeta. Para dar pie a
un satélite con el tamaño de la Luna, el choque debió crear un disco con una cantidad de
material equivalente a dos masas lunares. Las partículas exteriores y más cercanas a la
Tierra resultaron perturbadas por la gravedad terrestre, impidiendo su unión con el resto.
La Luna se habría formado con la materia restante a unos 22.000 km de nuestro planeta.
Su propia gravedad habría entonces ocasionado una serie de ondas en el disco interno y
diversos efectos de resonancia. La interacción gravitatoria entre el satélite y dichas ondas
habría modificado la inclinación de la órbita. Bastaría un disco con entre un 25 y un 50
por ciento de la masa lunar, durante menos de un siglo, para generar una inclinación
orbital de hasta 15 grados, lo cual está de acuerdo con lo observado.
Imagen:
http://images.jsc.nasa.gov/images/pao/AS11/10075298.jpg (La Luna.) (Foto: Johnson
SC)
La Ciencia desde el Macuiltépetl/ Don Cuco y sus parientes
Por Manuel Martínez Morales
Porque tú formaste mis entrañas;
tú me hiciste en el vientre de mi
madre
Salmos
Todos los sábados por la tarde, puntualmente, la querida tía Lilia nos conducía, a mis
hermanos y a mí, a las lecciones de catecismo que tenían lugar en cierto convento de
monjas capuchinas. No me molestaba en absoluto asistir al catecismo; era más bien una
experiencia emocionante puesto que en el barrio corría la versión de que la casona,
albergue del convento , estaba embrujada. Caminar por aquellos oscuros pasillos con
rechinantes pisos de madera, siempre olientes a incienso, me impresionaba
singularmente.
En la primera lección se nos dijo que Dios había hecho al primer hombre de barro:
“Entonces Jehová Dios formó al hombre de polvo de la tierra y sopló en su nariz aliento
de vida y fue el hombre un ser viviente” (Génesis).
777
El Hijo de El Cronopio No. 71
Aún conservo nítidamente la imagen que me formé entonces de aquel hombre
primigenio, hecho de barro inerte, animado de pronto, adquiriendo su humanidad al
soplo de su creador. Más tarde fui obsesionándome morbosamente por todo tipo de
leyendas y relatos sobre androides y criaturas humanoides. La historia del doctor
Frankestein ocupa un lugar privilegiado en mi catálogo personal de golem. Hace años me
encantó enterarme que, según la mitología maya-quiché, el hombre fue hecho de maíz.
Esos fabulosos Hombres de Maíz de Miguel Ángel Asturias aún iluminan mi
imaginación.
En todos los mitos y leyendas sobre la creación del hombre, se trasluce una concepción
dual sobre nuestra naturaleza; somos materia y espíritu, carne y alma. El hombre ha sido
formado de material elemental –barro, maíz, madera, caldo primigenio–, pero para vivir
fue necesario que recibiera el soplo divino; sin este soplo, sin alma, el hombre no pasaría
de ser un “humanoide”, un maniquí, un monstruo o una caricatura del verdadero ser
humano.
Al tratar de caracterizar lo que distingue lo vivo de lo muerto, los biólogos
contemporáneos encuentran un escollo. Verifican que, según los paradigmas vigentes
sobre la objetividad del conocimiento, la vida no puede explicarse. De ahí el recurso a las
interpretaciones soslayadamente vitalistas y animistas. El mejor intento que conozco por
salvar el obstáculo es la formulación del concepto de teleonomía, propuesto por Jacques
Monod (El azar y la necesidad, Ensayo Sobre la Filosofía Natural de la Biología
Moderna, Monte Avila, Ed., 1971). Este concepto tiene ciertos matices metafísicos, lo
cual es por demás positivo, pues ¿acaso puede hacerse ciencia sin invocar a la
metafísica?
Otra corriente epistemológica que trata de explicar el fenómeno de la vida es la
representada por IIya Prigogine, según la cual la dinámica de la naturaleza, incluyendo al
hombre, obedece tanto a causas materiales y eficientes, como a causas finales; el futuro
determina el presente, la idea de propósito se acepta como término epistemológico
respetable. Aristóteles es reivindicado.
Don Cuco es un robot bastante bien diseñado, que puede moverse, cantar y realizar
algunas tareas elementales. Don Cuco es creación del grupo de investigadores que dirige
el doctor Alejandro Pedroza, especialista en Bioelectrónica y Premio Nacional de
Ciencias. Este autómata fue construido en la Universidad Autónoma de Puebla y estuvo
en exhibición en el pabellón mexicano de la Feria Sevilla 92. A don Cuco le fue como en
feria al regreso de la misma, pues casi se pierde en el camino. Su constructor sospecha de
competidores que tal vez intentaron apoderarse de los circuitos y programas que
“animan” a Don Cuco.
Este simpático androide pertenece a una variedad de robots más bien inofensivos,
divertidos y útiles. Más peligrosos, diabólicos, son los golem, cuya creación se avizora
como consecuencia de ambicioso proyecto Genoma Humano. Es éste un proyecto de
investigación multinacional e interdisciplinario en el que se han invertido más dólares
que en ningún otro proyecto individual desde el Proyecto Manhattan, relacionado éste
con el diseño y construcción de la primera bomba de hidrógeno.
El objetivo último del proyecto es descifrar completamente el código genético humano,
con la intención explícita de poder modificar los genes individuales. De este modo,
especulo desaforadamente, podrían “crearse” humanoides con las características que se
quieran de carne y hueso (Un Mundo Feliz, de Aldous Huxley, está a la vuelta del siglo).
778
El Hijo de El Cronopio No. 71
Junto a éstos, sus parientes lejanos, Don Cuco se miraría como hoy miramos una carreta
al lado de una nave espacial.
¿Para qué, me pregunto, llegar a tales extremos de soberbia y transgresión moral? ¿Por
qué no conformarnos con dar vida a otros seres como Dios manda, mediante el sano y
placentero mecanismo sexual para el que estamos dotados?
Claro que en este proceso natural hay mucho azar; ignoramos cuál de los millones de
seres que potencialmente podemos engendrar será concebido en el encuentro amoroso;
no podemos escoger el color de ojos, la estatura, la inteligencia, el color de la piel, el
carácter o la constitución física de nuestros hijos. No los podemos “programar”, no
podemos hacerlos a nuestra medida y antojo, ni podemos garantizar que serán felices en
la vida. Sin embargo, hay un sagrado regocijo en dar vida a un hijo, con los riesgos y
responsabilidades que implica; pues, como bien dicen en mi tierra, “no le aunque que
nazcan chatos, con tal que resuellen bien”.
El Cabuche (crónicas de la Facultad de Ciencias)/
En el Teatro de la Paz
Alejandro Pedroza Meléndez investigador de la Benemérita Universidad Autónoma de
Puebla, potosino de nacimiento es además, así se le conoce, el papá del ilustre Don Cuco
el Guapo, un robot construido por el grupo de Alejandro en la universidad poblana que
causó revuelo a partir de 1992. Don Cuco tiene la virtud de ser un autómata que sabe
tocar el piano acompañado de su propio conjunto, eso sí, de buenos músicos. Con la
ayuda de Don Cuco el grupo de Alejandro ha recorrido el grueso de la República
haciendo divulgación científica, con una mezcla de ciencia y arte deleitando y
entusiasmando a niños y adultos. En 1993 quedamos de acuerdo con Alejandro de
presentar el robot pianista en San Luis, para lo cual entramos en contacto con el Instituto
de Cultura a fin de poder realizar un par de conciertos en el majestuoso Teatro de La Paz.
Convertidos en productores nos dimos a la tarea de organizar los detalles del concierto,
en esas andábamos cuando un grupo de alumnos de la facultad, nos solicitó
presentáramos al robot en el mes de marzo, justo en la Semana de Ciencias, en esa época
aún se le designaba Semana de Física y estaba en transición el nombre a Semana de
Ciencias. La propuesta significaba adelantar tres meses la presentación; accedimos a la
solicitud y se apresuraron los trabajos a fin de tener todo a tiempo. El trabajo de
promoción de los alumnos no fue lo esperado; sin embargo, la presentación del robot
había despertado la curiosidad de un amplio sector de la población. El concierto se
programó finalmente para el 10 de marzo de 1994, en dos funciones 18:00 y 21:00 horas,
en el marco de la XXXII Semana de Ciencias. Llegado el día tuvimos que vivir la
experiencia de lo que es armar un escenario, que significaba además armar el robot que
es transportado en cajas, y enfrentarse a contratiempos técnicos, como el que una tarjeta
electrónica que conecta a la computadora el control del robot se quemará, y al parejo del
ensayo de los músicos, movimiento de cables, luces, ajustes de sonido etc. Se
implementará un taller donde los electrónicos de Puebla apuraran el repuesto de la
tarjeta; sin mencionar la atención que se tenía que dar a los medios de difusión que
abundaban en espera de tomar algunas escenas y placas previas del robot. Finalmente
con 30 minutos de retraso comenzó el concierto que fue llamado Comunicación: Don
779
El Hijo de El Cronopio No. 71
Cuco el Guapo acompañado del grupo experimental y de investigación en música
electrónica (GEIME), en el que participaba el pianista Jorge Sánchez Chantres quien ya
se había presentado en el Teatro de la Paz como director musical del grupo del cubano
Amaury Pérez. Los integrantes del grupo de Don Cuco el Guapo (mi tocayo por cierto,
sí, en todos los sentidos) estaba conformado por: Músicos: Don Cuco el Guapo (solista);
Arturo Mawcinitt Frías (guitarra); Isaac Sosa Hamud (bajista); Jorge Sánchez Chantres
(teclados); Alejandro Pedroza Meléndez (teclados); Victor Illarramendi (baterista);
Sonido: Jesús Portillo; Escenografía: Adriana Arenas; Ingenieros de Sistemas: Héctor
vargas Martínez, Pedro Miranda Romagnoli; Imágenes y Efectos Especiales: Rodolfo
Pérez garcía, Gerardo Villegas Rosas; Neumática: Ignacio Becerra Ponce de león;
Sistema de Control: Javier Méndez Mendoza; Mecánica: Domingo Vera Mendoza;
Apoyo Técnico: Benjamín Parra y Jaime Pérez; Director del Grupo: Alejandro Pedroza
Meléndez. Bueno, aquí en la Facultad también el Chino tiene su robot y a control
remoto, eso sí, no tiene grupo es para el solito, parece que también toca.
El programa de mano que fue repartido en aquella ocasión decía lo siguiente:
Don Cuco el Guapo debutó el 4 de septiembre de 1992. Su éxito en la exposición
universal de Sevilla lo llevó a ser conocido en todo el Mundo. En 1993 se presentó en las
ciudades de Monterrey y Puebla ante miles de espectadores lo que acrecentó su
popularidad en todo el país.
Ahora en San Luis Potosí, se presenta por primera vez acompañado del grupo
experimental y de investigación en música electrónica (geime). En el concierto
COMUNICACIÓN se integra la música electrónica y clásica amalgamada con
elementos nacionales. La rica gama acústica se complementa maravillosamente con
imágenes de arte, técnica, historia y futuro. En este concierto se incluyen obras
musicales escritas por los músicos del mencionado grupo.
En la obra musical El Juicio Final (de Arturo Mawcinitt), el autor anclado a su plano
temporal espacial viaja a los momentos del juicio final, donde gente sin fe sufre el
terrífico castigo anunciado. Ve como los bienes, el dinero, el poder y la soberbia no
valen nada. Pero entre todos esos hombres castigados por los jinetes del Apocalipsis ve
a hombres dignos y llenos de fe que son salvados por un ángel.
En la melodía 365 (de Arturo Mawcinitt) se recrea el ciclo anual que ya no condiciona
la vida del hombre que ha conquistado todo el mundo. Inventos e ideas geniales lo
llenaron de bienes y las enfermedades son erradicadas. Solo el SIDA, el cáncer y la
catástrofe ecológica quebrantan la armonía de los 365 días. El hombre encuentra una
solución: la simbiosis hombre-máquina, que no enferma y que cuenta con una fuente
inagotable de energía, el orden y la armonía de los 365 días ya no son necesarios y esto
anuncia el día del juicio final.
En la obra Comunicación ( de Isaac Sosa), se narra como Isaac siendo el primer
hombre que se comunica con una máquina se ve en la necesidad de enseñarle su arte.
Los fríos tiempos mecánicos de Don Cuco tienen que acondicionarse a los tiempos
biológicos humanos. Don Cuco escucha, repite y se equivoca; Isaac enseña y corrige.
En un mundo en caos filosófico y falto de valores humanos, el futuro empieza con frágil
comunicación entre Isaac y Don Cuco y se vuelven los progenitores del futuro hombremáquina.
El Dr. Pedroza, autor de Recordando a Bach, hace un viaje en el tiempo y una falla en
su computadora fractal, hace que se meta en un torbellino cósmico que lo lleva al futuro.
780
El Hijo de El Cronopio No. 71
Asombrado, contempla como el sol ha disminuido su actividad en un 5% lo que es
suficiente para que el planeta Tierra se congele. Los recuerdos llegan a él como un
relámpago y los más gratos, son para el genial maestro Bach. En esa vorágine de
recuerdos secuenciados fractalmente, ve a su amada ciudad de Puebla en la que resalta,
su bella catedral e iglesias con sus viejos recovecos, sus imponentes columnas, sus
monumentales órganos y cuando levanta la cabeza al cielo en busca de consuelo, ve esos
bellos vitrales que apenas dejan entrar la luz, para que los feligreses se acerquen a
Dios. La falla se corrige y su viaje vuelve a la normalidad. De esa experiencia, escribe
la obra Concierto Cósmico No.2, que es un homenaje a la ciudad de Puebla. El Dr.
Pedroza hace más de diez años inició su actividad musical con los conciertos cósmicos y
ahora, junto con su genial creación Don Cuco el Guapo prosigue en su titánica labor
musical.
Al nacer Don Cuco, Jorge trata de enseñarle las notas musicales, pero el robot no le
responde. Héctor, que habla el lenguaje de máquina, auxilia al músico y entre los dos
logran establecer la comunicación hombre-máquina, Jorge cercano al arte y Don Cuco
cercano a todos los mexicanos; hacen con su comunicación la armonía del futuro
hombre-máquina.
Jorge hace los bellos musicales de las obras que interpreta Don Cuco y no deja que
desarmonice en ninguna de sus interpretaciones.
En el futuro el Dr. Pedroza, Jorge, Isaac y Héctor serán recordados como los hombres
que hicieron de una máquina un ser humano que está en el corazón de todos nosotros.
Hasta aquí lo escrito en el programa de mano. El par de conciertos respondieron a las
expectativas. Al día siguiente trasladamos el robot al auditorio de la Facultad de
Ingeniería, en donde Alejandro Pedroza y su grupo hablarían del robot y sus
experiencias; Don Cuco fue armado, aunque no para interpretar melodías, por falta de
tiempo; el auditorio de Ingeniería quedo pequeño para la asistencia que se dio cita a
presenciar el robot, en la misma sesión se transmitió parte del concierto que fue grabado
en el Teatro de La Paz. No fue la única ocasión que Don Cuco visitó San Luis por
invitación de la Facultad de Ciencias, en el mismo año 1994, pero en el mes de
noviembre se presentó en un concierto-conferencia para niños y grupos escolares en
donde se trató el tema de la robótica y ciencias afines y se con la actuación de Don Cuco
el Guapo al piano tocando melodías populares. Los niños disfrutaron y bailaron con Don
Cuco el Guapo, el robot pianista mexicano. Entre los atributos de Don Cuco, se
encuentra no sólo en ser bien parecido. De cuerpo, tallado en acrílico transparente, con el
propósito de que se vean a simple vista sus “órganos vitales”, tienen la musculatura
propia de un atleta, para conseguir tal perfección, la escultora Gloria Weimberg, tuvo que
hacer 40 moldes. Pero no es todo, pues a la belleza de sus formas se suma su talento. El
robot también es pianista y está dotado de visión artificial para reconocer patrones
musicales y de voz. Para controlarlo, además de la electrónica se recurrió a la neumática.
Con el auxilio de esta última, los servomotores (máquinas que se detienen en cuanto se
les da una orden) permiten a Don Cuco mover el brazo, antebrazo y manos para efectuar
ciertos movimientos. Don Cuco no canta, pero en su repertorio musical preferido se
encuentra el Huapango de Moncayo; por esta ocasión cerramos la sección imaginando el
mentado Huapango.
781
Boletín
El Hijo de El Cronopio
Facultad de Ciencias
Universidad Autónoma de San Luis Potosí
No.72, 3 de abril de 2000
Boletín de información científica y
tecnológica de la Facultad de Ciencias
Publicación semanal
Un imán ajustable
Conducción más suave
Impacto súbito
Edición y textos
Fís. J. Refugio Martínez Mendoza
Como se orientan los pájaros
Sonría por favor
Cualquier información, artículo o
anuncio deberá enviarse al editor
e-mail: flash@galia.fc.uaslp.mx
Este boletín y números anteriores,
pueden consultarse por Internet en la
página de la UASLP:
El súper-radiotelescopio
Microrobots contra el crimen y al
rescate
Vida virtual
http://phobos.dtc.uaslp.mx/publi.html
Noticias de la Facultad
Noticias del Espacio
Acuerdos del H. Consejo Técnico
Consultivo
Noticias de la Ciencia y
la Tecnología
La Ciencia desde el Macuiltépetl/
Religión y ciencia
Con Nerón, el arte ya no fue lo que era
Lunas reencontradas
El Cabuche (crónicas de la Facultad
de Ciencias)/
Einstein forever II
El Hijo de El Cronopio No. 72
Noticias del Espacio
♦
La NASA está tan interesada en la búsqueda de vida primitiva en el probable océano
líquido que estaría bajo el hielo que cubre la superficie de la luna Europa, que no quiere
arriesgarse a que la sonda Galileo pueda llegar a contaminarla en el futuro. Aunque el
vehículo sigue activo y resistiendo los embates de la radiación presente en el medio
ambiente joviano, los técnicos creen que su vida útil no se prolongará mucho más.
Cuando ello ocurra, podría no ser posible el contacto desde la Tierra, así que la NASA
está estudiando la posibilidad de enviarla con antelación hacia una ruta de impacto contra
Júpiter o contra alguno de sus otros satélites, asegurando así que no pueda chocar contra
Europa. La Galileo no fue esterilizada tras el lanzamiento debido a la naturaleza de su
misión, y aunque es improbable la presencia de microorganismos vivos transportados
desde la Tierra después de las altas dosis de radiación a la que ha sido sometida la nave,
no es descartable que la sonda contenga aún alguna traza de vida capaz de contaminar
Europa en caso de un impacto futuro incontrolado. De lo contrario, los futuros vehículos
que intentarán descubrir si hay o no vida primitiva en Europa podrían ver alterados sus
resultados. Otra posibilidad es que la Galileo realice una serie de asistencias gravitatorias
con los diversos satélites y el propio Júpiter, lo cual permitiría su salida de la órbita
joviana y su entrada en una órbita solar definitiva, donde aún podría ser útil. En cualquier
caso, ninguna de las alternativas posibles se llevaría a cabo antes del final de la presente
fase de la misión, en febrero de 2001.
♦
La Oficina de Historia de la NASA anuncia la actualización del Apollo 15 Flight
Journal. Se han añadido tres nuevas secciones, las cuales incluyen el período de tiempo
que va hasta el encuentro en órbita lunar, la liberación del módulo lunar y el posterior
día de descanso de la tripulación. También se ha añadido un ensayo sobre las técnicas de
encuentro en órbita lunar (LOR) y muchas fotografías.
Disponible en:
http://history.nasa.gov/ap15fj/
♦
El 1 de abril fue un día de celebración para la comunidad meteorológica mundial. El
primer satélite de este tipo, el Tiros-1, fue lanzado hace 40 años desde Cabo Cañaveral, a
bordo de un cohete Thor-Able-II. El Television Infrared Observation Satellite demostró
que era posible seguir desde el espacio la evolución de la capa nubosa, aumentando la
precisión de los pronósticos meteorológicos a medio y largo plazo. En la actualidad,
nadie puede imaginarse la no disponibilidad de estos vehículos, los cuales han llegado a
altas cotas de sofisticación y que en ocasiones influyen decisivamente en numerosos
aspectos de nuestra vida social. Más información en:
http://www.nesdis.noaa.gov/40th.html
http://www.ncdc.noaa.gov/pub/data/images/tiros1.gif
http://www.photolib.noaa.gov/lb_images/space/spac0046.htm
http://goes1.gsfc.nasa.gov
http://rsd.gsfc.nasa.gov/goes/
http://poes2.gsfc.nasa.gov
784
El Hijo de El Cronopio No. 72
♦ La NASA ha llevado a cabo con éxito el vuelo más prolongado hasta la fecha del X38, el prototipo a escala de vehículo de emergencia para la ISS. El quinto ensayo de la
serie se llevó a cabo el 30 de marzo en el Dryden Flight Research Center (Edwards,
California) y sólo se vio afectado por un despliegue defectuoso de uno de los segmentos
de su tren de aterrizaje. Un avión NB-52 llevó al vehículo hasta los 39.000 pies, desde
donde fue soltado en vuelo libre hasta igualar la trayectoria que el X-38 tendrá de regreso
en la atmósfera procedente del espacio. El vuelo libre se prolongó durante 44 segundos, a
partir de cuyo momento desplegó su enorme paracaídas/parapente. El diseño de este
último es una versión mejorada de los utilizados hasta ahora. Unos 11 minutos y medio
después, el X-38 se posó sobre la superficie, con la única dificultad ya mencionada de
que uno de los tres esquíes que emplea como tren de aterrizaje no se desplegó. Los
ingenieros del programa están muy satisfechos del vuelo, ya que además de demostrar el
buen comportamiento del parapente, también pudieron comprobar que el software de
control respondió bien. Se esperan nuevos ensayos durante lo que queda de 2000 (el
primero en verano) y el año próximo, culminando con un vuelo orbital en 2002.
Noticias de la Ciencia y la Tecnología
Con Nerón, el arte ya no fue lo que era
El arte pictórico romano debe gran parte de su decadencia al emperador Nerón, quien
prefirió adornar las paredes de sus palacios con mármol para elevar aún más su figura.
Nerón, el famoso y despótico emperador romano, no fue sólo el responsable del incendio
que devastó Roma en el año 64 de nuestra era. Sintiéndose inclinado a imitar a los
gobernantes helénicos, decidió prescindir del arte pictórico en muchas de las paredes de
sus palacios, reemplazándolo por el frío mármol típico de las construcciones suntuosas
de origen griego.
Las investigaciones arqueológicas llevadas a cabo por especialistas holandeses de la
NWO en la llamada Domus Aurea (la "casa dorada" de Nerón, construida después del
incendio), demuestran que las habitaciones imperiales estaban adornadas sólo con
mármol, mientras que las pinturas estaban presentes en las zonas menos importantes.
Los arqueólogos de la Leiden University y de la Amsterdam University (UvA) han
determinado que cada habitación fue decorada dependiendo de su función,
estableciéndose un orden jerárquico proporcional a la cantidad de mármol utilizado en
las paredes. Así, las habitaciones de Nerón estaban recubiertas de este material, mientras
que las de los sirvientes sí contenían pinturas.
Hasta la llegada del reinado de Nerón, el arte pictórico romano se encontraba en pleno
florecimiento, alcanzando cotas de creatividad muy interesantes, como se puede ver en
los edificios conservados de Pompeya. A partir de entonces, la calidad pictórica fue en
descenso, tal y como permiten entrever las casas de Ostia.
El estudio de la "casa dorada" es importante ya que es el único complejo residencial de la
Roma imperial cuya decoración se ha preservado. Fue descubierta en el año 1500 y el ala
accesible posee al menos 150 habitaciones. Curiosamente, las pinturas encontradas en
785
El Hijo de El Cronopio No. 72
ellas dieron un nuevo ímpetu al arte europeo de la época, inspirando a la escuela de
Rafael.
Información adicional en:
http://www.nwo.nl/english/nwo/newsarchive/00februari4/content.html
Lunas reencontradas
Fueron descubiertas por la sonda Voyager alrededor del planeta Urano, en 1986, pero
hemos tenido que esperar 14 años para poder contemplarlas de nuevo.
El envío de vehículos automáticos hacia otros planetas tiene grandes ventajas. La
proximidad puede deparar en tales ocasiones considerables sorpresas. Por ejemplo, en
enero de 1986, la sonda Voyager-2 sobrevoló Urano en su camino hacia el exterior del
Sistema Solar. Durante su breve encuentro, la nave fotografió el planeta y sus satélites
naturales.
De estas imágenes surgieron dos nuevas lunas, desconocidas debido a su pequeño
tamaño: 1986 U7 y 1986 U8. Más tarde, recibirían el nombre oficial de Cordelia y
Ofelia, pero no fueron vistas nunca más. Ningún telescopio había podido identificarlas
después de la visita de la Voyager.
Catorce años después, sin embargo, los astrónomos han logrado encontrarlas de nuevo.
Investigadores de la University of Arizona, de la Cornell University y del Wellesley
College, así lo anunciaron el 2 de marzo.
Para conseguirlo, han empleado fuertes dosis de teoría física y, sobre todo, imágenes
proporcionadas por el telescopio espacial Hubble. Los astrónomos han definido ya las
órbitas de Cordelia y Ofelia, y con ello podrán generarse efemérides que permitan su
seguimiento continuado en el futuro.
Los dos satélites tienen un interesante papel en el sistema de Urano. Se les llama "lunas
pastoras" porque su presencia mantiene la integridad del anillo Epsilon que rodea al
planeta. Los anillos de Urano son tan finos que se disolverían en poco tiempo si una
fuerza gravitatoria suplementaria no actuara en sus cercanías, papel que podemos asignar
a Cordelia y Ofelia.
Se trata de lunas muy pequeñas. Su diámetro no debería superar los 45 km. Ofreciendo
una escasa superficie sobre la que los débiles rayos del Sol puedan reflejarse, incluso el
Hubble ha tenido problemas para localizarlas. Las imágenes del telescopio, no obstante,
muestran distorsiones en los anillos de Urano que delatan su presencia.
Información adicional en:
http://www.news.cornell.edu/releases/March00/UranusMoons.bpf.html
http://spacescience.com/headlines/y2000/ast07mar_1.htm
Imagen:
http://spacescience.com/headlines/images/lostmoons/dustrings_med.gif
(Una sección de los anillos de Urano y algunos de sus satélites.) (Foto :JPL)
Un imán ajustable
La obtención de un nuevo material cuyas propiedades magnéticas pudieran ser ajustables
por el usuario abriría todo un nuevo campo de aplicaciones.
La revista Science informa sobre los primeros pasos realizados hacia la obtención de un
nuevo material de aplicaciones múltiples y muy atractivas.
786
El Hijo de El Cronopio No. 72
Los investigadores buscan desde hace tiempo un material moldeable, ligero pero duro y
resistente, cuyas propiedades magnéticas puedan manipularse a voluntad. Podría usarse
en el almacenamiento masivo de datos, como recubrimiento antiestático para aviones o
naves espaciales, y para muchas otras cosas más.
Es en este sentido hacia donde marchan las investigaciones de varios científicos de la
canadiense University of Toronto. Mark J. MacLachlan y sus colegas manipularon
moléculas de hierro y polímeros, transformándolas en un material cerámico magnético,
que ha podido ser moldeado de distintas formas.
Altas dosis de calor (a partir de 500 grados Celsius) en una cámara de pirolisis hacen que
el hierro que contiene este material se agrupe y forme nanocúmulos. Cuanto mayores son
estos nanocúmulos, más ferromagnéticos son, de manera que el ajuste de la temperatura
en la cámara sirve para determinar sus propiedades magnéticas.
Así pues, utilizando moldes, la cerámica puede adoptar cualquier forma, y en función de
la temperatura, actuar como un imán más o menos potente. El material puede construirse
en forma de polvo, cables, películas, cintas, etc., con lo que sus aplicaciones en diversos
ámbitos son muy amplias. La industria informática y la aeroespacial se muestran
especialmente interesadas en él, lo que garantiza su rápido desarrollo y producción a gran
escala.
Información adicional en: http://www.aaas.org/
Conducción más suave
La investigación de las ondas gravitatorias servirá también para que nuestra conducción
en la carretera sea más cómoda.
La industria automovilística trabaja incansable para mejorar la seguridad y la comodidad
de los vehículos que produce. En algunos casos, la ausencia de vibraciones está
alcanzando cotas tan elevadas que puede llegar a desorientar incluso a los ocupantes. La
tecnología avanza y los sistemas de amortiguación o de reducción de ruidos no se quedan
atrás.
Los expertos, sin embargo, creen que no hemos llegado al final del camino. El principal
problema para mejorar aún más los sistemas actuales reside en la eficacia de los sensores
que, por ejemplo, detectarán los baches y ordenarán al sistema de amortiguación lo que
debe hacer.
Mark Bocko, un ingeniero eléctrico de la University of Rochester, trabaja en la detección
de ondas gravitatorias, un campo fundamental y muy avanzado de la física, en el que se
están desarrollando instrumentos muy sensibles. Bocko cree que algunos de ellos podrían
aplicarse en la industria automovilística con relativa facilidad. Así, el ingeniero ha
empezado a colaborar con una compañía de Buffalo para la obtención de un dispositivo
que podrá medir los movimientos graduales, como el frenado o el giro, con una precisión
jamás alcanzada.
Cuando se diseña un automóvil, una máquina industrial o un puente, los ingenieros
necesitan saber cómo les afectarán las vibraciones o los golpes. En el caso de un coche,
las vibraciones no sólo son molestas sino que además pueden causar fatiga en los
materiales, aumentando el número y la frecuencia de las reparaciones. Los diseñadores
también desean saber en qué medida podrá sobrevivir un automóvil a un accidente, y
787
El Hijo de El Cronopio No. 72
para ello necesitan medir su respuesta frente a los choques de prueba a los que son
sometidos los prototipos.
Bocko diseñó para su labor investigadora detectores capaces de medir movimientos tan
pequeños como una milésima del diámetro de un protón. Su experiencia está siendo
ahora aplicada en el desarrollo de detectores más avanzados que los tradicionales
basados en cristales llamados piezoeléctricos, que producen una carga eléctrica cuando
son sometidos a compresión. Los nuevos sensores serán un paso adelante en la carrera
hacia el diseño de coches más seguros y cómodos.
Información adicional en:
http://www.rochester.edu/pr/News/NewsReleases/latest/WWWMBOCKO.html
Impacto súbito
Un nuevo laboratorio experimental permitirá estudiar las características balísticas de
impactos de proyectiles a gran velocidad.
El Glenn Research Center, de la NASA, ya dispone de un nuevo edificio dedicado a la
investigación de las propiedades de los impactos producidos por proyectiles.
El llamado Edificio 49 dispone de un cañón de gas de más de 12 metros de largo, capaz
de lanzar proyectiles a velocidades de hasta 1.600 km/h. Una cámara de alta velocidad
(2,5 millones de imágenes por segundo), permitirá estudiar cada fase de los
experimentos.
El objetivo es comprobar cómo se comportan diversos materiales al resultar afectados
por dichos proyectiles. No sólo nos interesa saber si pueden sobrevivir a ellos, sino
también cómo se deforman o acaban fallando.
Gracias a este instrumental, los expertos en materiales podrán probar nuevas aleaciones y
configuraciones estructurales. Una inmediata aplicación la tenemos en las carcasas de los
motores de los aviones, que a menudo son golpeadas por pájaros o granizo y que pueden
llegar a fallar, provocando un grave accidente.
Los motores modernos son muy resistentes y aguantan bien estos contratiempos, pero
son asimismo demasiado pesados. Los científicos preferirían encontrar nuevas
estructuras más ligeras, así que el centro Glenn ayudará a certificar que éstas podrán
realizar su trabajo con total seguridad.
Los proyectiles lanzados por el cañón de gas pueden ser grandes o pequeños, ser poco o
muy pesados, e incluso tener una forma irregular. Todos ellos serán probados contra
aleaciones intermetálicas, materiales compuestos reforzados con fibras, polímeros, etc.
Al mismo tiempo, los ensayos ayudarán a demostrar la fiabilidad de los modelos de
ordenador que ya se están empleando para reducir el número de pruebas.
Información adicional en:
ftp://ftp.hq.nasa.gov/pub/pao/pressrel/2000/00-034.txt
Imagen:
http://www.grc.nasa.gov/WWW/PAO/pressrel/images/00-xxi1.jpg
(El cañón de gas, preparado para acelerar proyectiles a más de 1.600 km/h.)
(Foto: Glenn Research Center)
http://www.grc.nasa.gov/WWW/PAO/pressrel/images/00-xxi2.jpg
(Esquema del sistema.) (Foto: Glenn Research Center)
788
El Hijo de El Cronopio No. 72
Como se orientan los pájaros
Las aves migratorias utilizan el campo magnético terrestre para moverse de un lado a
otro, pero, ¿dónde está la brújula magnética que parecen utilizar para esta tarea?
El campo magnético terrestre no sólo ayuda a los humanos a orientarse sobre la
superficie. Animales tan diversos como las aves migratorias, las salamandras, ciertos
roedores o el salmón, lo emplean también para una función semejante.
Si bien esto se contrastó hace tiempo, los científicos no habían localizado aún el sistema
sensor que les permite aprovecharse del campo geomagnético, algo así como la "brújula"
que les indicará el camino que deberán seguir.
Científicos de la University of Illinois creen estar avanzando en la dirección correcta al
descubrir un fotorreceptor de luz azul, situado tanto en los ojos como en los cerebros de
los animales que utilizan esta técnica, cuyo papel podría ser esencial. El citado
fotorreceptor, llamado "criptocromo", ya es conocido como un importante sistema que
regula el ciclo día/noche en los animales.
Las biomoléculas típicas interaccionan con el campo magnético terrestre de una forma
demasiado débil como para alterar el curso de sus reacciones químicas. Sin embargo, las
reacciones bioquímicas de los criptocromos sí pueden ser influidas por un campo
magnético con una intensidad comparable a la que tiene el de la Tierra.
Los pájaros migratorios y otros animales, en muchos casos, no pueden distinguir entre el
norte y el sur basándose sólo en información magnética. Para solucionarlo, emplean luz.
Las reacciones generadas en los criptocromos ayudan a modular la sensibilidad visual.
Los animales "ven" el campo geomagnético a base de superponer sobre las imágenes
visuales la información sobre la dirección del campo magnético. De hecho, cuando son
sometidos a luz monocromática roja, pueden sufrir un comportamiento errático, lo que
denota la importancia de los fotorreceptores en la capacidad de orientación.
Información adicional en:
http://www.admin.uiuc.edu/NB/00.03/migrationtip.html
Sonría por favor
Hay un momento en el caótico período de desarrollo de los adolescentes a partir del cual
las chicas empiezan a sonreír más a menudo que los chicos.
Cada año, los alumnos de centros educativos de todo el mundo, juntos o por separado,
son llamados para poner en práctica una costumbre muy extendida: la participación en
sesiones fotográficas que inmortalizarán su rostro para la posteridad.
El rápido desarrollo físico e intelectual que afecta a todos en una época tan especial del
ser humano parece reflejarse en cada una de estas imágenes. Muchas, seguramente, se
convertirán en un recuerdo imborrable. Pero hay algo más en estas fotografías que el
simple hecho de mostrarnos cómo hemos ido cambiando con el paso del tiempo. En ellas
pueden apreciarse, además, síntomas claros de la evolución psicológica del individuo.
Un investigador de la Washington University ha dedicado innumerables horas a
contemplar más de 15.000 fotografías de este tipo. Y una de sus principales conclusiones
es bien curiosa: a partir de una determinada edad, las chicas empiezan a sonreír más a
789
El Hijo de El Cronopio No. 72
menudo que los chicos. Esto ocurre a partir de los 9 a 12 años, confirmándose a los 14 y
prolongándose en la época en la que nos hacemos adultos.
Aunque nadie sabe por qué las mujeres sonríen más que los hombres, su tendencia a
hacerlo está bien documentada desde hace años. El principal interés de este estudio
reside en identificar el preciso momento, el período de transición en que ambos sexos se
diferencian en esta faceta. En el jardín de infancia, los porcentajes son parejos, pero en
cuanto los individuos empiezan a crecer, las diferencias se hacen patentes. Hasta el
cuarto grado, el 77 por ciento de los chicos sonríen en sus fotografías, por el 89 por
ciento de chicas.
Los dos años siguientes serán más complicados. Los cambios relacionados con la
adolescencia y el desarrollo de los aspectos más diferenciados del sexo hacen que sólo el
43 por ciento de los chicos sonrían, frente al 70 por ciento de las chicas.
Más adelante, los porcentajes vuelven a crecer, pero siempre con las mujeres tomando la
delantera en tan saludable actividad (84 contra 65 por ciento).
Aunque se han planteado diversas teorías sobre por qué las mujeres sonríen más que los
hombres, la mayor parte de ellas se centran en cómo los preadolescentes responden a los
mensajes culturales acerca del sexo y la sexualidad.
En los anuncios de la prensa, las modelos aparecen sonriendo mucho más a menudo que
los hombres, que deben aportar una imagen de seriedad y frialdad. Estas y otras
imágenes son tomadas como estereotipos por los preadolescentes.
Por otro lado, la sesión fotográfica puede suponer para la chica un momento social
importante, en el que se debe destacar por estar bien vestido y por aportar la mejor
imagen de uno mismo. Para el chico, en cambio, la importancia residirá en proporcionar
un aire lo más masculino posible, incluyendo la seriedad y frialdad de sus estereotipos.
Información adicional en:
http://news-info.wustl.edu/nai.html
El súper-radiotelescopio
Los científicos preparan el diseño del mayor radiotelescopio del mundo, un sistema
agrupado de 1.000 antenas que totalizarán una superficie colectora de 1 km cuadrado.
La búsqueda inagotable de una mayor sensibilidad y resolución a través de instrumentos
más sofisticados está llevando a los radioastrónomos, aquellos que exploran el universo
estudiando las ondas de radio que llegan hasta nosotros procedentes de los diversos
objetos que componen el Cosmos, a idear un nuevo radiotelescopio cuyo valor se
encuentra sobre los 600 millones de dólares.
Su nombre le describe: el Square Kilometer Array, o SKA, consiste en un conglomerado
de antenas actuando al unísono, cubriendo una superficie colectora total de 1 kilómetro
cuadrado. Serán necesarias 1.000 antenas individuales para alcanzar este objetivo. Su
puesta en práctica está prevista para dentro de una década.
El SKA es una iniciativa internacional y va a necesitar un largo período de gestación
para asegurar su éxito. De hecho, el proyecto, iniciado en 1997 y en el que participan seis
naciones, ha producido ya no menos de tres diseños distintos.
Cada antena, ya sea grande o pequeña, actuará como un radiotelescopio individual, pero
capaz de compartir la información recolectada con el resto de unidades, integrándola
790
El Hijo de El Cronopio No. 72
para formar una "imagen" interferométrica cuya resolución no tiene precedentes. Cada
antena podrá ser calibrada de forma independiente y ser dirigida con total precisión. Si es
necesario, cada una podrá ser orientada hacia direcciones distintas, con lo que se
realizarán observaciones simultáneas de objetos diferentes que no requieran el poder de
resolución de todo el conjunto.
Las antenas estarán interconectadas por unos 5.000 km de cable de fibra óptica. Su
posición no será única. De hecho, algunas de ellas podrían encontrarse a hasta 1.000 km
de distancia de las demás, dando forma a un interferómetro muy potente. La imagen
producida será equivalente a la obtenida por un único radiotelescopio de 1.000 km de
diámetro.
Su definición será 100 veces mejor que complejos de antenas semejantes, como el Very
Large Array (27 antenas situadas en forma de "Y") o la gran antena de Arecibo.
El principal problema será encontrar un sitio adecuado para la instalación de tan gran
cantidad de antenas. Debe ser un lugar libre de interferencias, en una región accesible y
políticamente estable, que carezca de extremos meteorológicos. Por ahora, el principal
candidato se encuentra en la región de Upper Gascoyne-Murchison, en Australia
occidental.
Una vez en operación, el sistema permitirá el descubrimiento de muchos púlsares
(estrellas de neutrones giratorias que emiten ondas de radio hacia la Tierra), y también
permitirá explorar las fases iniciales de formación y evolución de estrellas y galaxias.
Información adicional en:
http://www.usska.org
http://naic.edu
Imagen:
http://naic.edu/pictour/platf3.jpg
(Sección de la antena de Arecibo.) (Foto: NAIC)
Microrobots contra el crimen y al rescate
Diminutos robots ayudarán en las tareas de reducción de maleantes y a salvar vidas
humanas en peligro.
Un equipo de ingenieros de la Michigan State University ha recibido un contrato de la
Defense Advanced Research Project Agency, por valor de 1,6 millones de dólares, para
diseñar micro-robots adaptables y reconfigurables para ser aplicados en tareas de
recolección de información, detención de delincuentes, búsqueda de accidentados y
rescate.
Cuando se trata de detener a un criminal que no podemos ver, puede resultar muy
peligroso acercarse hasta su posición sin conocer bien cuáles son las circunstancias que
hallaremos en el lugar. Pocos segundos pueden suponer el éxito o el fracaso total de una
empresa. Por eso, cuanta más información dispongamos, mucho mejor. Los microrobots
podrían ser una gran solución.
Pequeños y manejables, los citados robots podrán moverse rápidamente y cercar al
delincuente, penetrando por los lugares más insospechados. La idea es construirlos con
un tamaño inferior a los 5 centímetros y equiparlos con pequeñísimas cámaras, sensores
térmicos e infrarrojos, micrófonos, etc. La información que recolecten resultará esencial
791
El Hijo de El Cronopio No. 72
durante la fase de toma de decisiones, cuando definitivamente sea necesario el concurso
de las fuerzas humanas.
Los robots podrán ser depositados en un lugar desde la distancia, desde un helicóptero, e
incluso disparados al interior de un edificio como si fueran balas.
Deberán disfrutar de una gran maniobrabilidad y autonomía, y poder ser producidos en
grandes cantidades, de forma económica. Su tamaño limita su diseño, pero ya se sabe
que podrán ascender verticalmente a través de escaleras gracias a ventosas, y avanzar
como lo haría una oruga.
Tan importante o más que el diseño del robot será el desarrollo del software que
controlará la horda de aparatos. A pesar de poder ser dirigidos desde la distancia,
poseerán rutinas internas básicas que les dotarán de "reflejos" para actuar frente a
situaciones inesperadas, como por ejemplo, obstáculos imprevistos, etc. El software debe
permitir asimismo su actuación conjunta y coordinada.
El producto final estará listo en mayo de 2001.
Vida virtual
Los científicos han hecho un nuevo paso adelante en el desarrollo de un mundo virtual en
el que la inteligencia artificial tiene un protagonismo especial.
Imaginen una sirenita en un juego de ordenador en el que la protagonista trata de escapar
de las fauces de peligrosos tiburones. La habilidad del jugador permite sortear todos los
peligros y poner la mítica figura a salvo.
Algo así han preparado en la University of Toronto, con la diferencia de que el personaje
que huye no está dirigido por mentes humanas, sino que se desenvuelve gracias a
inteligencia artificial muy sofisticada.
Demetri Terzopoulos ha dado a sus personajes la habilidad de pensar. Mientras un
hambriento tiburón traza círculos a su alrededor, la sirena busca un lugar donde
esconderse. En un momento determinado, el tiburón se aleja, lo que aprovecha la mujer
pez para lanzarse al agua. Entonces, el tiburón se lanza en su persecución. ¿Conseguirá
escapar?
Los esfuerzos de Terzopoulos nos ofrecen algo más que inteligencia artificial. Se trata en
realidad de vida artificial, en un ambiente de gráficos, animaciones y realidad virtual.
Los personajes poseen cuerpos funcionales y cerebros que muestran un comportamiento,
una percepción, y centros de aprendizaje y raciocinio.
Terzopoulos y sus alumnos han desarrollado un lenguaje cognitivo que permite a los
personajes animados razonar. Por ejemplo, hizo que la sirena formulara un plan de
acción basado en el razonamiento y en el conocimiento básico de que, ya que no puede
huir de los tiburones, sí puede ocultarse tras las rocas que se hallan bajo el agua,
esperando a que los cazadores pierdan la paciencia y decidan abandonarla. Con este tipo
de personajes, el animador sólo debe especificar un plan de comportamiento, a través del
razonamiento, y éstos adoptarán automáticamente una detallada secuencia de acciones.
El modelado cognitivo y el lenguaje que lo hace posible se convertirán en poderosas
herramientas para los científicos, los animadores y los desarrolladores de juegos.
792
El Hijo de El Cronopio No. 72
Noticias de la Facultad
Acuerdos del H. Consejo Técnico Consultivo
En la sesión correspondiente al mes de marzo, el H. Consejo Técnico Consultivo de la
Facultad de Ciencias llegó a los siguientes acuerdos:
Se postergó el análisis de la propuesta presentada por la Comisión integrada por el
H.C.T.C. para atender las solicitudes presentadas por los alumnos pasantes de la Facultad
de Ciencias generaciones 1992 y anteriores interesados en obtener su Título Profesional.
La propuesta presenta lineamientos generales, mismos que tienen que ser revisados a fin
de cuadrarlos con el reglamento general de exámenes, entre otras consideraciones.
En asuntos generales, se presentó el análisis de la situación curricular de la Srita. Sandra
Eloisa Balderas Mata, alumna de la carrera de Licenciado en Física, con salida terminal
en Física Experimental. De acuerdo a la revisión de las materias cursadas por la Srita.
Balderas Mata, se considera que el número y tipo de cursos aprobado es suficiente y
adecuado para considerarse pasante de la carrera citada.
La Ciencia desde el Macuiltépetl/ Religión y ciencia
Por Manuel Martínez Morales
Probablemente la religión y la ciencia tuvieron un origen común, una misma raíz que era
la imperiosa necesidad de los hombres por conocer y transformar su entorno. Aunque
esta necesidad no está suficientemente clarificada, es decir, no estamos seguros si el
conocimiento se ha buscado sólo por contar con elementos firmes para controlar y
modificar nuestro medio, o si esa búsqueda obedece a necesidades subjetivas más
profundas, su existencia es innegable.
Sólo que, respondiendo a diferentes influencias sociales y económicas, la ciencia y la
religión se han constituido en dos islas de la experiencia humana. La ciencia ha tendido
hacia el conocimiento objetivo-práctico, orientándose en su origen hacia la conformación
de un sistema de conocimientos dirigidos a explicar los fenómenos físicos.
Más tarde aparecieron ciencias en las cuales el hombre mismo ha sido objeto de estudio;
tales son los casos de las ciencias biológicas y sociales. La religión, por su parte, fue
derivando hacia un terreno subjetivo ético inclinándose a establecer normas morales
basadas en explicaciones que apelan más a la fe y al dogma que a la razón.
La institucionalización, la aparición de instituciones socialmente reconocidas y
sustentadas, de la religión y la ciencia acentuó más las diferencias entre los objetivos de
ellas y se delinearon con más claridad sus funciones. La ciencia se desentendió de
manera tajante y absoluta de todo juicio moral, de todo juicio valorativo en general. En
otra vertiente, la religión se integró a la esfera ideológica de las sociedades y, en general,
perdió todo sustento racional y terminando por enunciar juicios preceptivos donde la
norma es lo existente: esto debe ser así porque así es.
La historia nos habla de graves y enconados enfrentamientos entre la religión y la ciencia
en los que a veces la primera ha cobrado primacía, y en otras ha sido la segunda; pero
793
El Hijo de El Cronopio No. 72
también han surgido intentos por volver a unir sentimiento y razón, moral y ciencia. Hay
en nuestros días un gran movimiento de religiosos y laicos que tratan, de diversas
maneras, de lograr no la unión de la ciencia y la religión, entiéndase bien, sino de
integrar aspectos de la vida humana que sólo en apariencia se encuentran disociados.
Recientemente ha alcanzado proporciones de escándalo el juicio inquisitorial en el cual
el Vaticano ha sometido a varios religiosos que sustentan opiniones y tesis conocidas
como la teología de la liberación. Para los seguidores de esta corriente,
la cuestión es cómo ser un cristiano en un mundo de empobrecidos
y miserables. Ya pasó el tiempo de las reformas. Se necesita un
proceso de liberación, en el cual los pobres recuperen su dignidad
envilecida y ayude a gestar una sociedad, no necesariamente rica,
sino justa y más fraterna. (Leonardo Boff, citado en el núm 409 de
Proceso)
Esto significa no seguir aceptando las cosas como son, sino modificarlas. Y es en este
punto en el que se establece un puente con la actitud científica, pues ésta se propone,
entre otras cosas, conocer el mundo para transformarlo (la sociedad incluida).
Naturalmente, para transformar esta sociedad injusta es menester conocerla y, por ello,
no es casual que los teólogos de la liberación sean grandes estudiosos de las ciencias
sociales contemporáneas.
De modo sorpresivo, los teólogos progresistas no se han conformado con incursionar en
las ciencias sociales. Entre otros, tenemos en México el caso del exjesuita José Porfirio
Miranda quien, a principios de la década de lo setenta, escribiera el controvertido libro
Marx y la Biblia.
Porfirio Miranda ha publicado un llamativo texto Apelo a la razón. Teoría de la ciencia y
crítica del positivismo (Premiá Ed., 1983), en la cual se da a la dura tarea de esclarecer la
manera en que el positivismo, que es sólo una interpretación de la ciencia, ha contribuido
a justificar la existencia del capitalismo, poniendo al descubierto también sus falacias
epistemológicas y sus serias limitaciones como interpretación filosófica del mundo.
Dice Miranda:
Saber sobre el mundo más que lo que la simple observación, es
saber si lo observado es justo o inicuo, saber si lo observado debe
ser o no debe ser. Lo que el positivismo les procura a las clases
dominantes es lo que los déspotas siempre han deseado tener: que
nadie se abrogue el derecho de juzgar sus acciones y de llamarlas
malas.
Mientras el explotador sojuzga a un segmento de la humanidad cuyo
subyugamiento le permite a él vivir como si fuese superior a los
otros seres humanos, el mejor regalo que puede recibir es la
proclamación de una doctrina que nos niegue el derecho de afirmar
que todos los seres humanos tienen igual dignidad porque la
dignidad no es un dato empírico sensorialmente verificable.
Cuanto más culpable es un sistema, tanto más tiene que repudiar
como anticientífica toda filosofía que lo llame culpable. El
positivismo calza demasiado exactamente con las necesidades
mentales del capitalismo, es demasiado precisamente la defensa que
el capitalismo necesitaba: relativismo pero sin humildad, tachando
794
El Hijo de El Cronopio No. 72
de anticuados y anticientíficos a quienes todavía creen que hay
diferencia entre el bien y el mal.
Esta intensa polémica entre la religión tradicional y la teología de la liberación rebasa el
ámbito de lo puramente religioso y conduce a cuestionar nuestra realidad total, tanto en
lo político y social, como en lo intelectual y en lo puramente existencial.
El Cabuche (crónicas de la Facultad de Ciencias)/ Einstein Forever II
Pues terminó la mentada Semana de Ciencias y la imagen de Einstein descansará, al
menos hasta la próxima edición de la semana. En los últimos años la imagen de Einstein
ha enmarcado los festejos de aniversario de la Facultad de Ciencias y ha dado nombre a
los premios sui generis que los estudiantes, mediante votación, reparten a estudiantes y
profesores de la Facultad, justo al cerrar las actividades de la Semana de Ciencias. En
esta ocasión unas figurillas doradas como monigotes de dragon ball Z que supongo
representan a Einstein cayeron en las manos de al menos una veintena de personajes de
la Facultad. Como siempre, la participación entusiasta de los estudiantes da realce a ese
tipo de festejos; culminó la Semana con un brillo especial mostrando que después de 38
años mantiene la lucidez y el espíritu con que fue creada. La influencia de Einstein ha
sido tremenda, no sólo para la gente en su sano juicio (o sea que no es físico o científico)
que lo considera la imagen prototipo del científico, sino para el estudiante en ciernes; no
es de extrañar entonces que en las últimas ediciones de la semana aparezca
irremediablemente Alberto (el cuate de Miguel Ángel Herrera) adornando los carteles,
carpetas, camisetas, reconocimientos y premios.
Durante las actividades sociales de la Semana pudimos comprobar, que si bien ha habido
cambios (que son naturales) a lo largo de estos 38 años, sustancialmente se mantiene,
entre otras cosas, la capacidad de la raza para mover la garganta ante líquidos procesados
en base a C2 H5 OH, y haciéndolo, aunque parezca una aberración, sanamente, sin
perjudicar a terceros ni llegar a niveles en donde la falta de respeto sea la nota a resaltar.
Felicitamos a todos los estudiantes que participaron, tanto en la organización como en
los eventos académicos, culturales, sociales y deportivos que se programaron a lo largo
de la semana. En especial felicitamos a aquellos que se arriesgaron a que les diéramos
una paseada en la cancha de futbolito, sabemos que lo hicieron pensando que sería al
revés pero ya ven; para su información parte de ese equipo fue campeón en el I Torneo
de Futbol Rápido de Profesores Universitarios (lo de fultbol rápido, sólo tiene el
nombre), hace no mucho tiempo casi diez años y anteriormente, cuando aguantábamos,
era la base del equipo de futbol de física que disputaba los primeros lugares de la liga
universitaria de futbol, en fin. Siguiendo con Einstein; en el antiguo edificio de la
Facultad, ahora del Instituto, aún existe la placa que identificaba una de las aulas de la
Escuela-Facultad, el laboratorio de electrónica, crónica ya narrada en esta sección en el
boletín 41 (qué quieren ese número le tocó, la mención del angelito también es casual, la
coincidencia es eso, pura coincidencia) en el artículo Einstein Forever. Así que Einstein
ha estado y seguirá presente en la Facultad. No creo que Einstein se incomode por usar
su nombre; total una que otra Corona que nos recetemos, será a su salud.
Como se lleva un lunar,/todos podemos una mancha
llevar/En este mundo tan profano/quien muere limpio, no
ha sido humano
795
Boletín
El Hijo de El Cronopio
Facultad de Ciencias
Universidad Autónoma de San Luis Potosí
No.73, 10 de abril de 2000
Boletín de información científica y
tecnológica de la Facultad de Ciencias
Publicación semanal
Edición y textos
Fís. J. Refugio Martínez Mendoza
Cualquier información, artículo o
anuncio deberá enviarse al editor
e-mail: flash@galia.fc.uaslp.mx
Este boletín y números anteriores,
pueden consultarse por Internet en la
página de la UASLP:
Definitivamente
es
un
problema en el que la
educación, la divulgación y la
democracia deben estar involucrados. Sabemos de la
carencia, con honrosas excepciones, de una televisión
inteligente, que provoca la falta de reflexión del
televidente ante lo expuesto en programas, noticieros,
anuncios y pro mocionales.
Debemos dar el paso para que la opinión de la gente
tenga un importante peso específico; para ello es
necesario una población adecuadamente educada.
Por un lado la población es la única que puede opinar
sobre la conveniencia o la incomodidad que un
programa de esa naturaleza, como el cambio de
horario, causa a su cotidianeidad y a su convivencia
diaria con el resto de la sociedad. Por otra parte, deben
de existir las condiciones para que ante argumentos,
que promuevan o desmeriten un programa, la
población pueda discernir y codificar los mensajes
esgrimidos, en pro y en contra. En este punto la
educación en general y, en particular, la divulgación
de la ciencia tienen un importante papel.
Mientras son peras o manzanas, el “Brodi”, y
posiblemente solo él, seguirá disfrutando de la
posibilidad que le brinda el cambio de horario para
darse una vida de la patada (en base a las patadas).
http://phobos.dtc.uaslp.mx/publi.html
Un buen ejemplo de la necesidad de realizar
divulgación científica lo constituye el problema de la
decisión unilateral del gobierno federal de imponer el
cambio de horario, según la época del año.
Después de la imposición, empezó a aparecer una
campaña televisiva promoviendo las supuestas
bondades del programa. A pesar de las voces,
mayoritariamente autorizadas, que opinaban en contra
del citado programa, el mismo se impuso y se siguió
insistiendo en los desprestigiados e insostenibles
argumentos originalmente esgrimidos por los
promotores del programa.
El “Brodi” tiene una hora más de luz solar para patear
el balón (y supongo una buena lana por el anuncio).
En este número transcribimos un artículo de Shahen
Hacyan, titulado Geografía para funcionarios, que
trata precis amente del problema citado, mismo que
escribió para el periódico Reforma en su sección
Aleph Cero.
____________________________
Todos aquellos interesados en contemplar las pasadas
y nuevas imágenes tomadas desde la Mars Global
Surveyor sobre la famosa c ara de Cydonia, en Marte,
pueden hacerlo en:
http://mars.jpl.nasa.gov/mgs/msss/camera/images/4_5
_00_cydonia/index.html
____________________________
El Hijo de El Cronopio No. 73
Aleph Cero/Geografía para funcionarios
Por Shahen Hacyan para el periódico Reforma
La Tierra es una esfera que gira sobre sí misma en 24 horas. El eje de rotación de la
Tierra está inclinado unos 23.5 grados con respecto al plano de la órbita alrededor del
Sol, y siempre apunta en la misma dirección: hacia Alfa de la Osa Menor, mejor
conocida como la Estrella Polar (Más precisamente, el eje de rotación describe
lentamente un cono en el espacio, dando una vuelta completa en 25 mil 800 años; pero
este efecto es prácticamente imperceptible).
Las estaciones son una consecuencia de la inclinación del eje de rotación. Durante el
verano septentrional, el Polo Norte está del lado del Sol, por lo que el hemisferio norte
recibe más calor solar. En la misma época, el hemisferio sur está más tiempo en la
sombra y allí es invierno.
En el verano, los días son más largos que en el invierno. El tiempo que está el Sol
encima del horizonte depende de la latitud del lugar. En el Ecuador, los días y las noches
son siempre iguales: el Sol siempre está doce horas encima del horizonte. A medida que
uno se aleja del Ecuador, ya sea hacia el Norte o hacia el Sur, la diferencia entre la
duración del día y la de la noche empieza a aumentar. En los países situados en los
trópicos, la salida y la puesta del Sol puede variar hasta por un par de horas, a lo largo
del año. Arriba de los trópicos, la diferencia de duración entre día y noche se hace cada
vez mayor con la latitud. En los Estados Unidos y Europa, en el verano, el día dura
bastante más que la noche (y lo contrario ocurre en invierno). La situación extrema
corresponde a las regiones situadas encima del Circulo Polar, donde, en verano, el Sol da
vueltas en el cielo sin meterse nunca debajo del horizonte.
En los países tropicales, la diferencia entre día y noche es bastante poca. En la Ciudad de
México, que se ubica en la zona tropical, el tiempo máximo que el Sol permanece por
encima del horizonte es de 13 horas y 20 minutos, lo cual ocurre en el solsticio de
verano, alrededor del 21 de junio. En ciudades nórdicas, este tiempo es notablemente
mayor: 14 horas y tres cuartos en Washington; 15 horas en Madrid y Nueva York; 16
horas en París; 16 horas y media en Londres... Ante estas circunstancias, tiene sentido
recorrer el tiempo oficial una hora, para aprovechar la luz del atardecer, pero sin perder
la del amanecer.
A la latitud de Harvard o Nueva York, por ejemplo, el Sol se levanta en verano alrededor
de las 5 y media y se mete a las 8 y media, con todo y el horario de verano. Algo similar
ocurre en Europa: en París, durante el verano, el Sol llega a salir antes de las 5 de la
mañana y se mete cerca de las 9 de la noche.
En la ciudad de México, en verano, el Sol solía salir a las seis de la mañana y meterse
poco después de las siete de la tarde. Pero con el tan discutido horario de verano, ahora
sale alrededor de las siete (como a las 7:10 en abril y octubre; a las 6:55 en junio y julio).
Justo en la latitud de México, el cambio de horario resulta ser muy crítico porque, para la
mayoría de la población, hace toda la diferencia entre empezar el día con sol o a oscuras.
No es este caso fuera de la franja del Trópico, donde los habitantes pueden levantarse de
madrugada con un Sol radiante, aun si les adelantan los relojes una hora.
Aun suponiendo que realmente se gasta menos energía por correr el horario, es evidente
a estas alturas que el ahorro es a costa de causar molestias a la mayoría de la población.
798
El Hijo de El Cronopio No. 73
Si se trata de ahorrar sin importar la comodidad de los ciudadanos, entonces, con esa
misma lógica, ¿por qué no suspender por completo el suministro de electricidad a los
hogares? Habría molestias, pero el ahorro en energía sería fenomenal.
Algunos especialistas han señalado que la verdadera ventaja del horario de verano en
México es la separación de las horas pico de consumo eléctrico por la industria y los
hogares. Si realmente es así, podría ser más conveniente recorrer los horarios de las
industrias, o bien cobrar tarifas diferenciadas por la energía eléctrica. En muchos países
industrializados, la electricidad es más barata durante la noche; las industrias pueden
trabajar de noche y pagar más a sus obreros por sus jornadas nocturnas; el beneficio es
para todos.
Soluciones racionales se pueden encontrar sin necesidad de engañar a la población con
argumentos absurdos, como ése de que se aplica el horario de verano en México porque
también lo hacen otros setenta países. Se les olvida a nuestros funcionarios precisar
cuántos de esos países se encuentran en el Trópico. Ni parece que hayan estado en
Harvard (en verano).
Noticias de la Ciencia y la Tecnología
La Vía Láctea se formó en un tiempo record
A pesar de su lenta evolución, la galaxia en la que vivimos adoptó su forma actual de una
manera rápida.
La Vía Láctea, nuestra galaxia, se formó en su mayor parte en un proceso rápido, que
duró entre 500 y 1.000 millones de años, sólo un 5 por ciento de su edad total. Estos
datos contradicen lo que sostenían algunos resultados científicos publicados en los
últimos años, que establecían períodos de hasta 4.000 ó 5.000 millones de años.
Investigadores del grupo de Poblaciones Estelares del Instituto de Astrofísica de
Canarias (IAC) y del grupo de Cúmulos Estelares de la Universidad de Padua (Italia) han
llegado a esta conclusión, que ayuda a esclarecer el debate sostenido en los últimos
veinte años entre quienes opinaban que la Vía Láctea se formó lentamente y los
defensores de un esquema de formación rápida. El estudio aporta además nuevos datos
sobre las características del Universo primitivo.
Los resultados, efectivamente, concluyen que la Vía Láctea se formó en unos pocos
cientos de millones de años –entre 500 y 1.000– y que la mayor parte de nuestra galaxia
se originó a partir del rápido colapso de una protogalaxia primigenia. Los investigadores
han establecido estas cifras tras estudiar las edades de 52 cúmulos globulares de nuestra
galaxia, los conjuntos de estrellas más viejos conocidos.
Las conclusiones del estudio aparecen publicadas en la revista especializada
Astronomical Journal y dan la razón a los partidarios de un esquema de formación
rápida, frente a quienes piensan que el proceso fue mucho más lento. Para los primeros,
la formación de la Vía Láctea se produjo tras la rápida caída del material primigenio
hacia el centro de la protogalaxia. Durante esta caída se formó la mayor parte de los
cúmulos globulares de la Vía Láctea. Para los partidarios del proceso de formación lenta,
estos cúmulos se formaron a partir del encuentro fortuito entre nubes de materia que se
desplazaban lentamente alrededor y a gran distancia del centro. El esquema de la
799
El Hijo de El Cronopio No. 73
formación lenta, que había acumulado resultados científicos favorables en los últimos
años, queda en parte desautorizado por el nuevo estudio.
Para llegar a esta conclusión, los investigadores establecieron las diferencias de edad de
52 cúmulos globulares entre sí. Por sus edades, de entre 12.000 y 15.000 millones de
años, estos cúmulos constituyen una útil herramienta para estudiar el proceso de
evolución inicial de las galaxias. Usando dos telescopios, el "Jacobus Kapteyn" (JKT),
en el Observatorio del Roque de los Muchachos, del IAC, y el "Dutch", en La Silla,
Chile, los investigadores lograron precisar, con un margen de error mucho menor que el
conseguido hasta ahora, que la mayoría de las edades de estos cúmulos difieren entre sí
menos de unos 500 ó 1.000 millones de años. Es decir, a escala cósmica, se formaron
casi a la par y muy rápidamente, y sus órbitas radiales en torno a la galaxia –que
describen un movimiento alternativo hacia dentro y hacia fuera– demuestran que son
fruto de un gran y rápido colapso de la materia de la protogalaxia primigenia. Los autores
sostienen en su estudio que estas conclusiones también son útiles para explicar cómo se
formó el resto de galaxias del Universo.
En el estudio han participado Alfred Rosenberg (astrofísico del IAC y autor de la tesis
que recoge los resultados), Ivo Saviane (Universidad de Padua), Giampaolo Piotto
(investigador principal del grupo de Cúmulos Estelares de Padua) y Antonio Aparicio
(investigador principal del grupo de Poblaciones Estelares del IAC). Los investigadores
señalan que han encontrado algunos casos de cúmulos globulares claramente más
jóvenes y dispersos que la mayoría. Esto les lleva a extender su trabajo a cúmulos
globulares situados a distancias mayores del centro galáctico. Hasta ahora, habían
analizado los 60.000 años-luz centrales que, de hecho, contienen la mayor parte de los
cúmulos globulares de la Vía Láctea. Nuestro Sol se encuentra a 25.000 años-luz del
centro.
Los científicos aseguran, sin embargo, que encontrar cúmulos globulares de menor edad
no invalidará el resultado principal de su trabajo, pues se cree que la Vía Láctea sigue
incorporando material estelar procedente de su exterior, que no estaba presente durante
su formación.
El estudio moderno de la formación de la Vía Láctea comenzó hace cincuenta años,
cuando los investigadores pudieron medir, con ciertas garantías de precisión, las edades
de los cúmulos globulares. Gracias a estas primeras investigaciones, se pudo determinar
que la Vía Láctea y las demás galaxias se formaron poco después del origen del
Universo. En 1962, los astrónomos Olin J. Eggen, Donald Lynden-Bell y Allan Sandage
propusieron un esquema de formación sencillo. La galaxia se habría formado por una
práctica caída libre de la nube de materia original por efecto de la gravedad. Este es el
origen de un esquema de formación rápida. Sin embargo, en 1979, Leonard Searle y
Robert Zinn plantearon que las condiciones físicas en que se encontraban un cierto tipo
de estrellas dentro de estos cúmulos (en concreto, las estrellas de la llamada "rama
horizontal": unas estrellas viejas que producen energía mediante la combustión
termonuclear del helio de su interior) se debían a que sus edades serían distintas en
diferentes cúmulos y, por tanto, el tiempo de formación total de la galaxia sería mayor.
Esto dio origen al esquema de formación lenta.
La tesis de Alfred Rosenberg demuestra que la mayoría de los cúmulos globulares con
ramas horizontales diferentes tiene, no obstante, edades muy similares. Por consiguiente,
serían otras variables las que explicarían estas diferencias en la distribución de las
800
El Hijo de El Cronopio No. 73
estrellas. Otros estudios apuntan a la rotación interna de las estrellas, la pérdida de su
materia o las fricciones entre las distintas capas que forman la estrella (lo que se conoce
como "longitud de mezcla") como responsables de estas diferencias entre unos cúmulos
globulares y otros. (IAC)
Información adicional en: http://www.iac.es/gabinete/noticias/iacnotas/2000/r15mar.htm
Imagen: http://www.iac.es/gabinete/noticias/iacnotas/2000/fr14mar.jpg
(Uno de los cúmulos globulares estudiados.) (Foto: IAC)
Defensa contra el láser malintencionado
Los sensores ópticos, naturales o artificiales, podrán ser protegidos frente a la agresión
de láseres externos.
Investigadores de la University of Florida han desarrollado un nuevo mecanismo con
aspecto de chip cuya superficie pasa de transparente a opaca de forma tan rápida que
permite proteger ojos o sensores electrónicos de los ataques cegadores de un láser
enemigo.
El "párpado" artificial, si se le puede llamar así, tiene aplicaciones claramente militares,
y para ello ha sido construido, pero también puede ser usado en aplicaciones civiles,
desde gafas de sol programables a cámaras mejores que las actuales.
El invento se basa en la utilización de un polímero extremadamente pequeño y películas
de electrodos que controlan la transmisión de luz. Se ha diseñado para proteger a los
pilotos de combate militares y a otros equipos, como sistemas sensores electrónicos en
satélites, que de otro modo pueden ser cegados desde tierra o el aire con rayos láser de
gran potencia.
Este tipo de ataques ya se han producido en el pasado. Un oficial de la Marina
estadounidense y un piloto militar canadiense manifestaron en 1997 que habían sido
afectados por un láser mientras estaban fotografiando un navío de carga ruso situado
frente a la costa del estado de Washington. El uso de un láser no ha sido probado, pero
los pilotos han informado de dolor recurrente en sus ojos, típico de una exposición a este
tipo de luz.
Los satélites espía, que fotografían el suelo del enemigo desde la órbita, también pueden
ser cegados mediante rayos láser, ya que su posición puede ser seguida desde tierra. Si
éstos son lo bastante potentes, los sensores y las cámaras pueden estropearse
definitivamente.
Los científicos que han diseñado el párpado artificial han construido un mecanismo que
contiene miles de pequeñísimas aberturas (de 1 milímetro a 50 micrómetros de
diámetro). Los prototipos han demostrado que las aperturas pueden abrirse y cerrarse
hasta 10.000 veces por segundo. Cuando un láser es detectado, el cierre, rapidísimo,
impide que el sensor sufra daño alguno.
Las gafas de sol actuales que se ajustan al cambio de las condiciones de luz imperantes
necesitan varios minutos para hacerlo. Con el nuevo sistema ello se producirá
instantáneamente, con la apertura del número de orificios adecuado. Tales gafas serían
tan seguras que permitirían incluso contemplar un eclipse de Sol. Automáticamente,
bloquearían la luz solar y permitirían ver la corona.
Las cámaras domésticas también podrían emplear la tecnología, eliminado problemas
comunes de iluminación de la escena.
Información adicional en: http://www.napa.ufl.edu/2000news/eyelid.htm
801
El Hijo de El Cronopio No. 73
Imagen: http://www.napa.ufl.edu/graphics/eyelid.jpg
(Una imagen aumentada de un "párpado artificial".) (Foto: University of Florida)
Un mes alrededor de Eros
La sonda NEAR, ahora rebautizada como Shoemaker, ha cumplido su primer mes de
estancia alrededor del asteroide Eros.
La NASA ha anunciado que la sonda NEAR pasa a llamarse, a partir de ahora,
Shoemaker, en honor del doctor Eugene M. Shoemaker, un geólogo muy conocido por
sus aportaciones al estudio de los cuerpos menores y la Luna, y que falleció
recientemente (1997) debido a un accidente de tráfico. El científico descubrió junto a
Levy muchos cometas, entre ellos el famoso Shoemaker-Levy 9, que en 1994 chocó
contra Júpiter.
Por su parte, la Shoemaker, en órbita alrededor del asteroide 433 Eros, acaba de cumplir
su primer mes de operaciones científicas en dicha posición. La altitud actual es de unos
200 por 209 km con respecto al centro gravitatorio del objeto. El 2 de abril, sin embargo,
realizará una corrección de trayectoria que la llevará a una órbita de 200 por 100 km.
Este será un primer paso para situarse a unos constantes 100 km, la distancia apropiada
para una ronda de observaciones de mayor resolución.
Todos los instrumentos a bordo funcionan perfectamente, a excepción de un error de
ejecución detectado en el Multispectral Imager (MSI) el 14 de marzo. Se está
investigando lo ocurrido. Precisamente, las fotografías transmitidas por este aparato
ofrecen una imagen espectacular y clara de la superficie, por otro lado llena de cráteres y
otros accidentes geológicos. Durante las dos últimas semanas, la cámara multiespectral
ha enviado más de 2.400 imágenes, las más próximas a un asteroide realizadas jamás (se
pueden apreciar detalles de hasta 50 metros de diámetro y también que Eros está
literalmente cubierto por cráteres de menos de 1,6 km de diámetro).
La nave ha observado el asteroide mediante su detector de rayos-X, y ha demostrado la
presencia de magnesio, hierro y silicio, así como probablemente de alumino y calcio.
Ello fue posible gracias a una protuberancia solar ocurrida el 2 de marzo. El estallido de
rayos-X procedentes del Sol permitió a los citados elementos reaccionar y emitir rayos-X
fluorescentes detectables por el espectrómetro instalado a bordo de la sonda.
El altímetro láser de la NEAR también ha sido usado para medir el terreno, aportando
pistas sobre si sus características se deben a la erosión, a líneas de tensión tectónicas, etc.
Información adicional en: http://near.jhuapl.edu
http://wwwflag.wr.usgs.gov/USGSFlag/Space/Shoemaker/GeneObit.html
Imagen: http://near.jhuapl.edu/iod/20000322/20000322.jpg
(El aspecto de la superficie de Eros.) (Foto: The Johns Hopkins U.)
Primates primitivos
Los paleontólogos han descubierto el primate más pequeño conocido, así como a un
probable antecesor común de hombres, monos y simios.
Los paleontólogos siguen investigando en nuestro pasado como especie, y también en el
de nuestros parientes próximos, los monos y simios.
802
El Hijo de El Cronopio No. 73
Un equipo de especialistas de la Northern Illinois University, encabezado por Dan Gebo,
ha estudiado fósiles pertenecientes al primate más pequeño conocido. Su antigüedad se
cifra en unos 45 millones de años.
Los fósiles fueron encontrados en sedimentos chinos, en 1996, y pertenecen en realidad a
varias especies, alguna de las cuales tendría representantes de apenas 10 gramos de peso.
Tan distantes antepasados de monos, simios y humanos debieron ser presa habitual de
depredadores nocturnos, como las lechuzas. El primate más pequeño conocido hasta
ahora (31 gramos) era un lémur que vive en Madagascar.
Los fósiles hallados pertenecen a una rama de la evolución de los primates que
finalmente dio lugar a los humanos. Los primates son mamíferos, caracterizados por
tener cerebros más grandes, manos con capacidad de sujetar objetos, uñas en vez de
garras y ojos situados en la zona frontal del cráneo.
La zona en la que vivían los diminutos primates, en China, pertenece al Eoceno medio y
consistía en una selva en la que no se han encontrado restos de criaturas de mayor
tamaño.
Los paleontólogos han encontrado también restos de una especie de primate llamada
Eosimias, cuyo tamaño era similar al del mono más pequeño actual, y que vivía en los
árboles. Con anterioridad, los fósiles que se habían hallado de este animal eran
demasiado escasos, de tal manera que no podía certificarse con total seguridad que fuera
un primate. Las nuevas evidencias sugieren que, en efecto, el Eosimias es un primitivo
antecesor del linaje que ha desembocado en todos nosotros. Poseía características
pertenecientes a los primates inferiores, pero también otras que sólo se pueden localizar
en los primates superiores, más avanzadas. Estos fósiles ayudan a cubrir los inmensos
espacios en blanco que aún posee nuestro árbol genealógico. Su presencia en Asia
también es significativa, ya que muchos científicos esperan encontrar en África a los
ancestros de los primates antropoides.
Información adicional en:
http://www.niu.edu/pubaffairs/RELEASES/2000/MAR/primate/Tinyprimates.htm
http://www.niu.edu/pubaffairs/RELEASES/2000/MAR/primate/Nature.htm
Imagen:
http://www.niu.edu/pubaffairs/RELEASES/2000/MAR/primate/hi-res/thumb.JPG
(El primate más pequeño.) (Kim Reed-Deemer/Northern Illinois University)
http://www.niu.edu/pubaffairs/RELEASES/2000/MAR/primate/hi-res/eosimias.JPG
(El Eosimias.) (Carnagie Museum of Natural History)
Será aun peor
La devastación producida por el impacto de un asteroide contra la Tierra será superior a
lo que se creía hasta ahora.
Los científicos dicen que aún no hemos valorado correctamente el daño potencial que un
hipotético impacto de un asteroide o un cometa contra la superficie terrestre podría
acarrear para la vida en nuestro planeta.
Ya se ha hablado a menudo del "invierno del impacto": el choque pulverizaría una gran
cantidad de suelo y rocas, que ascenderían hasta la atmósfera, oscureciéndola y
haciéndola opaca a los rayos del Sol. Esta situación se prolongaría durante muchas
semanas o meses, de manera que las plantas, imposibilitadas de realizar la esencial
fotosíntesis, morirían, rompiendo la cadena de alimentación. Los animales que no
803
El Hijo de El Cronopio No. 73
habrían muerto abrasados por la ola de fuego extendida por la onda de choque, o
ahogados por los enormes tsunamis, pronto no tendrían nada que comer y morirían
también.
Pero esto no es todo. Los investigadores van más allá y hablan ya de la "primavera
ultravioleta". Expertos de la Oregon State University y del British Antarctic Survey han
examinado los efectos residuales de la desaparición de la capa del ozono, la lluvia ácida
y la radiación ultravioleta.
Como resultado del impacto, la atmósfera se vería cargada de óxido nítrico, lo que daría
lugar a cantidades masivas de lluvia ácida. Lagos y ríos verían reducidos el número de
carbones orgánicos disueltos, lo que permitiría una penetración superior de la luz
ultravioleta.
Al principio, durante la presencia de la nube de polvo, ésta haría de escudo frente a la luz
ultravioleta, pero 390 días después del impacto, se habría depositado el suficiente polvo
como para dejar pasar el mismo nivel de radiación que antes del choque. A partir de aquí,
y gracias a la ausencia de la capa del ozono, dicho nivel crecerá, hasta duplicarse a los
600 días del cataclismo.
El daño genético que esta radiación hará sobre los seres vivos supervivientes será unas
1.000 veces superior al normal, unas 500 veces sobre las plantas. Se producirán
mutaciones, cáncer y cataratas. Las plantas morirán o su crecimiento será más lento,
suprimiendo la fotosíntesis que forma la base de la cadena de alimentos.
Curiosamente, los impactos de asteroides más pequeños que el que causó la desaparición
de los dinosaurios, hace 65 millones de años, podrían causar más daño, ya que la
ausencia de polvo en cantidades suficientes en la atmósfera provocaría una intervención
más temprana de la radiación ultravioleta, lo que aceleraría sus efectos perniciosos.
Información adicional en:http://osu.orst.edu/dept/ncs/newsarch/2000/Mar00/asteroid.htm
Viviendo en el pasado
Si usted cree que está viviendo en otra época, quizá tenga razón. Afortunadamente, la
ciencia nos indica que el desfase es extraordinariamente pequeño.
Lo que usted piensa que está viendo en un preciso instante de su vida está siendo en
realidad influenciado por el futuro. O lo que es lo mismo, todos estamos viviendo en el
pasado, con un retraso respecto al presente de al menos 80 milisegundos, apenas un poco
más de lo que se tarda en parpadear.
El cerebro debe engañarnos necesariamente. Lo que perciben nuestros sentidos es
transformado en impulsos eléctricos que viajan a una determinada velocidad a través de
los nervios hasta llegar al cerebro. La sensación será analizada después y asimilada por
nosotros como un acto real y presente. El proceso para llevar a cabo toda esta operación
no es instantáneo, así que el cerebro debe "corregir" la sensación para que la sintamos
como actual y no como un suceso que ocurrió hace 80 milisegundos.
Cuando acercamos la yema de uno de nuestros dedos a la superficie de una mesa y la
tocamos, debería existir un desfase entre que completamos la orden y somos conscientes
de la sensación que nos ha producido. No obstante, el cerebro realiza el ajuste necesario
para evitar confundirnos y no llegamos a ser conscientes del retraso.
El cerebro actúa como las cadenas de televisión, que aunque emitan en directo lo están
haciendo con unos pocos segundos de margen, lo que da tiempo a manipular y editar la
imagen si es necesario. Es decir, el cerebro recoge información en dirección al futuro de
804
El Hijo de El Cronopio No. 73
un evento antes de "aceptar" lo que cree que vio en el momento en que se produjo. En
este sentido, el cerebro estaría constantemente "puliendo" el pasado.
Información adicional en: http://www.salk.edu; http://www.cnl.salk.edu/~eagleman/flashlag
Un agujero negro en la Tierra
Los científicos se preguntan si sería posible crear agujeros negros artificiales aquí
mismo, en la Tierra.
Los agujeros negros son una de las teorías más fascinantes de la física moderna. Teoría
que cada día que pasa se ve apoyada por nuevas evidencias.
Los agujeros negros son cuerpos tan masivos que su gravedad es extremadamente
elevada. Tanto que la velocidad de escape supera los 300.000 m/s, y por tanto ni siquiera
la luz puede huir de ellos. Podrían calificarse de invisibles si no fuera por los efectos
indirectos que causan a su alrededor. No hay duda de que el estudio de los agujeros
negros es esencial para nuestra comprensión del Universo. Sin embargo, la dificultad de
su detección o su lejanía nos complica la tarea.
Según Michael Brooks, esto se resolvería parcialmente si fuésemos capaces de crear un
agujero negro aquí mismo, en la Tierra. Un objeto de este tipo no tiene porqué ser muy
grande, basta con que cumpla los requisitos físicos que lo definen, y de hecho es
perfectamente posible que existan agujeros negros de tamaño microscópico. El problema
es que su inmensa gravedad atrae irremediablemente a cualquier cuerpo que se acerque
demasiado a ellos, asimilándolo, y también desconocemos cómo manipular y contener
algo así. Sin embargo, Ulf Leonhardt y Paul Piwnicki, del Royal Institute of Technology
de Suecia, afirman conocer un modo viable de crear agujeros negros en el laboratorio de
una forma segura. Si ello fuese posible, quizá podríamos demostrar que la única e
hipotética radiación capaz de escapar de ellos, la radiación de Hawking, realmente existe,
y aprender más sobre sus propiedades. También podrían servir como plataforma
experimental para avanzar en la teoría de la gravedad cuántica, el intento de unir la
mecánica cuántica con la teoría de la relatividad de Einstein.
En realidad, Leonhardt, no propone crear un agujero negro real sino uno óptico, uno que
sea capaz de atraer la luz y no necesariamente la materia. El truco está en que la luz es
constante en el vacío (300.000 km/s), pero cambia en función del medio que atraviesa.
Por ejemplo, en el agua, la luz viaja a 3/4 partes su velocidad normal (220.000 km/s).
El año pasado, los científicos consiguieron frenar la luz hasta unos 8 m/s, gracias al uso
de vapor de átomos de rubidio. Mejor aún, se alcanzó una velocidad de 50 cm/s al
atravesar materia en un estado ultrafrío llamado de Bose-Einstein.
Cuando el medio que hace avanzar despacio a la luz se mueve a su vez, puede arrastrarla
con él. De este modo, si se crea un vórtice en dicho medio, entonces la luz puede verse
absorbida como si estuviese cayendo en un agujero negro.
Los científicos trabajan para reducir la velocidad de la luz hasta 1 cm/s. Si se consiguen
crear vórtices lo bastante rápidos, tendremos un agujero negro óptico en la práctica,
disponible para ser estudiado en el laboratorio. (New Scientist)
Una serpiente con patas (y no es el Mora)
Se ha hallado un fósil de 95 millones de antigüedad que puede poner en duda el origen
marítimo de estos animales.
805
El Hijo de El Cronopio No. 73
Las teorías actuales sugieren que las serpientes son reptiles que, aunque adaptados a
moverse sobre tierra firme, tienen un origen marítimo. En la actualidad, muchas de ellas
viven aún en ambientes húmedos.
Sin embargo, los paleontólogos han descubierto en un depósito cerca de Jerusalén un
fósil de hace 95 millones de años que podría hacer cambiar definitivamente la impresión
anterior.
La nueva especie se llama Haasiophis terrasanctus y es en realidad la segunda extraída
del yacimiento situado en Ein Yabrud, un lugar cuyos sedimentos sugieren un ambiente
primitivo marítimo. Lo interesante es que el citado fósil posee signos indiscutibles de
haber poseído extremidades, lo cual pone en duda su verdadero origen.
La otra especie descubierta, la Pachyrhachis problematicus, parecía situada en la base
del árbol evolutivo de las serpientes. Existen características específicas en su cráneo que
hacían creer que se trata de un enlace transitorio entre los mosasauros (reptiles gigantes
del Cretáceo que vivían en el agua hace entre 144 y 65 millones de años) y las
verdaderas serpientes. Esta visión contrasta con la tradicional que contemplaba a reptiles
pequeños y terrestres como los ancestros de las serpientes.
El Haasiophis terrasanctus parece un animal cercano al Pachyrhachis. Un análisis más
completo sugiere que estas dos especies no son en realidad ancestros primitivos, sino
serpientes relativamente evolucionadas como las boas o las pitones, lo que rompe la
teoría de que la Pachyrhachis sea el enlace entre los reptiles marinos y las verdaderas
serpientes.
El principal problema es por qué las dos especies poseían lo que parecen extremidades.
Dado el escaso registro fósil sobre serpientes del que disponemos, no se puede excluir la
posibilidad de que las extremidades de las serpientes no desaparecieran una sola vez, al
principio, sino varias veces a lo largo de su historia.
Las patas son demasiado pequeñas en relación al resto del cuerpo como para darles una
utilidad de locomoción clara. Pero si los antepasados más antiguos tenían extremidades
más desarrolladas, probablemente el origen de las serpientes se encuentre
definitivamente en tierra y no en el mar.
Hallado el meteorito de Yukón
El objeto que cayó sobre Canadá el pasado 18 de enero ha sido localizado y recuperado
para su análisis por parte de los especialistas.
Cuando el 18 de enero uno de los más importantes meteoros de los últimos 10 años en
todo el mundo fue observado sobre los cielos del Yukón, en Canadá, los científicos se
apresuraron a investigar por todos los medios sus efectos indirectos. Aviones especiales
sobrevolaron la zona y atravesaron para estudiarla la nube de partículas dejada por la
caída del objeto. Ahora, además, tendrán la oportunidad de analizar el meteorito
propiamente dicho, ya que ha sido hallado por una persona anónima y puesto a su
disposición.
El meteoro estalló con la energía de 2 a 3 kilotones de TNT, dispersando múltiples
fragmentos por una amplia área. Algunos de ellos fueron hallados claramente destacados
sobre la nieve, introducidos en bolsas de plástico y mantenidos en estado de congelación.
Esto es muy importante, ya que se trata de los únicos restos de meteorito "frescos" que
han podido ser capturados y conservados para su estudio sin apenas variaciones respecto
806
El Hijo de El Cronopio No. 73
a su estado original. Se han preservado así los materiales orgánicos u otros compuestos
volátiles que pudiera contener.
Los fragmentos son pedazos de roca con superficies quemadas y tienen el aspecto de
trozos de carbón. Son negros, porosos, bastante ligeros y aún poseen un ligero olor a
azufre. Los especialistas dicen que estamos ante un condrito carbonáceo, un tipo raro de
piedra espacial que contiene muchas formas de carbono y elementos orgánicos, los
ladrillos básicos de la vida. Este tipo de meteoritos supone sólo el 2 por ciento de todos
los que caen sobre la Tierra y son difíciles de recuperar porque se rompen fácilmente
durante la entrada atmosférica y el choque posterior con el suelo. El último recuperado,
el meteorito de Murchison, data de hace 31 años.
Se ha recuperado de momento aproximadamente 1 kg perteneciente al meteorito del
Yukón. Las pruebas han empezado, sobre todo las centradas en actividades no
destructivas. Por ejemplo, se ha obtenido una sección muy fina para analizar la
mineralogía de los fragmentos, y se ha medido la radioactividad inducida (a la que habría
estado sometido el meteorito durante su estancia en el espacio). Esta prueba puede
darnos pistas del tamaño original del meteoroide, con estimaciones que sugieren un
diámetro de hasta 15 metros y una masa de más de 55 toneladas.
Después se estudiarán los fragmentos desde el punto de vista orgánico, lo cual implicará
la destrucción de algunas muestras y precisará de los correspondientes permisos.
Este tipo de objetos fue creado hace 4.500 millones de años, a partir de la misma materia
básica que dio lugar a los planetas, incluida la Tierra. Su preservación en un estado
primigenio nos ayudará mucho a la hora de averiguar más cosas sobre el origen del
Sistema Solar y de nosotros mismos.
Información adicional en: http://spacescience.com/headlines/y2000/ast16mar_1.htm
http://spacescience.com/headlines/y2000/ast25jan_1.htm
Imagen: http://spacescience.com/headlines/images/yukon/murchison.gif
(El meteorito de Murchison, de 1969, era el último condrito carbonáceo recuperado hasta
ahora.) (Foto: New England Meteoritical Services)
La Ciencia desde el Macuiltépetl/ Caos
Por Manuel Martínez Morales
¿Puede hoy el aleteo de una mariposa en Pekín provocar una tormenta en Nueva York el
mes próximo? Una variante de esta enigmática pregunta (que bien pudiera plantearse
como koan a algún devoto estudiante de budismo zen), la propone, con vena poética,
Gabriel Zaid en La máquina de cantar:
El viento se convierte en música en un arpa eólica, en unas campanillas
japonesas; saca agua del pozo; gira un molino mayor de mar sol nubes
lluvia ríos mar, otra vez; hace feliz la piel y las velas; tuerce destinos,
provoca encuentros insólitos, arroja a Ulises a los brazos de Circe;
destruye ciudades enteras; arrebata papeles de las manos, pone en las
de Cervantes la historia del Quijote. ¿Es una máquina aleatoria?
807
El Hijo de El Cronopio No. 73
El problema al que refiere la interrogación inicial ha sido bautizado por los meteorólogos
como “el efecto mariposa”. En términos un poco más precisos la pregunta se
reformularía así: ¿Pueden cambios muy pequeños en alguna situación física, biológica o
social, dar lugar a cambios enormes en el futuro? La respuesta dada por los estudiosos de
estas cuestiones es sí, a veces… y el caos sobrevino.
Hasta hace poco tiempo se consideraba que los sistemas naturales o artificiales se
clasificaban en dos categorías ajenas: a) sistemas deterministas, cuya evolución en el
tiempo es descrita por ecuaciones y su solución exacta es, en principio, obtenible, y b)
sistemas estocásticos o aleatorios, descritos por modelos probabilistas o estadísticos.
Pero, la contemplación de problemas como “el efecto mariposa” y otros similares
surgidos en otras ciencias, ha dado origen a una nueva estirpe de entes matemáticos que
son los sistemas caóticos. Estos sistemas son, en principio, deterministas, con la
peculiaridad de que su comportamiento en el largo plazo no es del todo predecible, en
términos del determinismo clásico; cambios pequeños en las condiciones iniciales
pueden provocar alteraciones enormes en los estados futuros del sistema. No obstante, es
posible caracterizar y describir algunas de las propiedades macrotemporales de estos
sistemas, lo cual generalmente se logra aplicando teorías y métodos probabilistas.
Es posible que un sistema caótico permanezca en equilibrio estable por algún tiempo,
mas una pequeña perturbación, en un momento determinado, bastaría para lanzarlo a
oscilaciones inestables que incluso pueden destruir al sistema (algunas arritmias
cardiacas se han explicado empleando modelos caóticos; ver por ejemplo, L. Glass y
M.C. Mackey, From Clocks to Chaos: The Rythms of Life, Princeton University Press,
1988.) Una advertencia, caos no es lo mismo que azar. El caos tiene sus propias leyes y,
al momento, es un fascinante campo de investigación que apenas comienza a despuntar.
Aun los artistas plásticos se han sentido atraídos por las formas del caos. (H.O. Peitgen y
P.H. Richter, The Beauty of Fractals, Springer-Verlag, 1986) Para el matemático, el caos
ofrece una variada colección de entidades con nombres exóticos, atractores extraños,
transformaciones del panadero, conjuntos de Mandelbrot y Julia…
Las formas del caos aplicadas a la biología, la economía, la sociología, la psicología y la
ecología aún están por desarrollarse plenamente. Se ha encontrado, por ejemplo, que los
precios de algunas mercancías varían caóticamente que ciertas alteraciones psíquicas
pueden explicarse empleando modelos caóticos. (J. Gleick, Chaos, Making a New
Science, Penguin, 1987). Me atrevo a sugerir una posibilidad interesante: la introducción
de nuevos artefactos tecnológicos, los videojuegos, por ejemplo, en un grupo social tiene
efectos expansivos en todo el entorno cultural, cuya dinámica tal vez pudiera modelarse a
través del caos.
El caos, este nuevo objeto de la indagación científica, tiene como columna vertebral a la
matemática; incorpora bastante de la matemática clásica como topología, análisis,
ecuaciones diferenciales y probabilidad, así como nuevas herramientas que, a falta de
otro nombre, se les designa como matemáticas del caos (A. Lasota y M.C. Mackey,
Probabilistic Properties of Deterministic Systems, Cambridge University Press, 1985).
El caos nos abre los sentidos a la “música de las esferas”, a esa intuición milenaria de
que todo tiene que ver con todo la posición del planeta Marte en el momento de mi
nacimiento determinó, a lo mejor, mi afición por las matemáticas y, de rebote, la
escritura de estas líneas.
808
El Hijo de El Cronopio No. 73
El Cabuche (crónicas de la Facultad de Ciencias)/
Un Instituto en el portafolios
(dedicado a Juan Fernando Cárdenas Rivero)
Las ciencias, disciplinas tan despreciadas en nuestro país, la mayoría de las veces sólo
son tomadas en cuenta cuando es necesario dictar un discurso político, por lo que
proyectos de creación de instituciones y centros de ciencia responden, otra vez en la
mayoría de las veces, más a intereses políticos que a un convencimiento de la autoridad;
por lo que encontrar este tipo de instituciones, sobre todo en provincia, encierra toda una
historia epopéyica por parte de sus impulsores y consolizadores; nuestras instituciones,
lejos de ser una excepción, representan un ejemplo típico de esas epopeyas por la ciencia
y, los personajes, si bien no sobran, existen en buen número en una historia que se ha
escrito y sigue escribiéndose durante más de cuarenta años. El Instituto de Física de la
UASLP inició sus operaciones en 1955 un año antes de que se creara la Escuela de
Física, principalmente para dar cobijo a los trabajos de investigación del Dr. Gustavo del
Castillo y Gama y permitir la gestación del proyecto de creación de la Escuela de Física
impulsado por el propio Gustavo del Castillo, mismo que en diciembre de 1955 fue
aprobado por el Consejo Directivo Universitario. La historia no es tan trivial y por lo
tanto un poco extensa, pero aquí puedo recomendar que lean, le echen un ojo, al libro
Física al Amanecer de Cadelario Pérez Rosales, si lo consiguen pues su edición no fue
muy alta, aunque está por salir la segunda edición del libro (ya salió, el artículo fue
escrito hace un año); igualmente acaban de salir publicados un par de artículos, uno en la
Revista Universitarios Potosinos, que edita la propia UASLP, el artículo, escrito por José
Luis Morán López, se intitula: comentarios sobre el libro física al amanecer de
Candelario Pérez Rosales; el otro artículo escrito por el propio Candelario Pérez Rosales,
acaba de ser publicado en el Boletín de la Sociedad Mexicana de Física y habla
precisamente del personaje de quien me ocuparé en esta ocasión.
Después de diez años de desarrollar importantes trabajos en física experimental, el
Instituto de Física, como tal, estuvo prácticamente inactivo, hasta que a principios de los
setenta, cuando Juan Fernando Cárdenas Rivero tuvo que dejar la dirección la escuela,
fue retomado por él, el proyecto y el espíritu de lo que aún quedaba en los recintos
universitarios de lo que en una ocasión fuera una de las instituciones más productivas en
física experimental. A partir de ese momento y ante la imposibilidad de contar con un
espacio propio para revivir el Instituto, Cárdenas incorporó con sus objetos personales la
documentación, que daba la posibilidad de reincorporar al Instituto en la vida
universitaria, a su portafolio. El inseparable portafolios negro de Cárdenas daría cobijo al
nuevo instituto en ciernes durante casi una década. Alejado de la actividad de la Escuela,
lo conocí en una de sus peregrinaciones por la ciudad, por supuesto, con su portafolio,
posiblemente a tratar algún trámite o asunto relacionado con el Instituto. Como ya se
narró en algún otro Cabuche, para 1973 se realizaban los trabajos de construcción del
edificio del Instituto de Física, y por lo pronto además de existir en el portafolios del
profe Juan, como se le conocía, para entonces existía algo de personal que formaba parte
del Instituto, además de estudiantes egresados de la Escuela que realizaban sus estudios
de Maestría, misma que fue impulsada por el profe Juan. En septiembre de 1978, por fin,
fue inaugurado el edificio del Instituto, el cual además empezó contando con algo de
equipo conseguido por Cárdenas a través del apoyo económico de la Organización de
809
El Hijo de El Cronopio No. 73
Estados Americanos; dos meses antes cuando se celebraba la FENAPO 78, los alumnos
de la Escuela de Física encabezados por Salvador Palomares, habíamos organizado una
exposición de aparatos antiguos de laboratorio de física, los mismos que ahora se pueden
observar en mi oficina; no podía faltar, mientras atendíamos a las familias y niños que
visitaban nuestra gustada exposición, apareció de repente el profe Juan, acompañado del
Instituto en pleno, alojado en su portafolios negro, aproveche para preguntarle si se
abrirían los cursos de maestría, mismos que se habían interrumpido a nuevas
generaciones; su preocupación por lo pronto estaba centrada en iniciar los trabajos en el
nuevo edificio y trasladar paulatinamente el Instituto de su portafolio a su nuevo espacio
físico; tuve que emigrar a Puebla a realizar mis estudios de maestría y mientras me
encontraba por allá reiniciaron los cursos de posgrado y el instituto estrenaba una planta
de investigadores que prometía un buen futuro, para 1984 se graduó de doctor en
ciencias Pedro Villaseñor y con él se iniciaba en provincia la otorgación de grados de
doctorado en física, el tesón de gente como el profe Juan había permitido que en la
UASLP se logrará graduar el primer doctor en ciencias en la especialidad en física. La
presente dista mucho de ser una crónica exhaustiva de la labor de uno de los personajes
que ha allanado el camino para que la física se desarrolle en nuestra universidad y en
provincia y con ella la formación, ahora, de profesionistas en ciencias en las áreas de
electrónica, matemáticas y física. En dos ocasiones tuvo en sus manos la dirección de las
instituciones científicas que ahora nos dignifican, de mediados de los sesenta a principios
de los setenta, la Escuela de Física y de principios de los sesenta a principios de los
noventa, el Instituto de Física; prácticamente contra su voluntad tuvo que dejar ambos
cargos, la más reciente salida, la aprovechó Cárdenas para jubilarse dignamente en la
universidad para finalmente fallecer hace justo un año (ahora dos), el 19 de abril de
1998. La salida en esta ocasión está dedicada a recordar a otro personaje de la vida
nacional desaparecido hace 42 años y, que al parecer sigue siendo el ídolo del pueblo,
Pedro Infante. En cuanto a los versos de la canción, las coincidencias no tienen nada que
ver con alusiones personales, son eso, simples coincidencias.
Yo soy quien soy y no me parezco a na’iden/Me cuadra el
campo y el chiflido de sus aires/y, mis amigos son los
buenos animales/Chivos y mulas y uno que otro viejo
buey.
Juan Fernando Cárdenas Rivero
2 años de su muerte
El próximo 19 de abril de 2000 se cumplen dos años de la muerte de Juan
Fernando Cárdenas Rivero, quien fuera director de la Escuela de Física y
posteriormente director del Instituto de Física. El Boletín, con su edición de
esta semana, rinde tributo a su trabajo en pro del desarrollo de la física en
San Luis.
810
Boletín
El Hijo de El Cronopio
Facultad de Ciencias
Universidad Autónoma de San Luis Potosí
No.74, 1 de mayo de 2000
Boletín de información científica y
tecnológica de la Facultad de Ciencias
Publicación semanal
Edición y textos
Fís. J. Refugio Martínez Mendoza
Cualquier información, artículo o
anuncio deberá enviarse al editor
e-mail: flash@galia.fc.uaslp.mx
Este boletín y números anteriores,
pueden consultarse por Internet en la
página de la UASLP:
Definitivamente
es
un
problema en el que la
educación, la divulgación y la
democracia deben estar involucrados. Sabemos de la
carencia, con honrosas excepciones, de una televisión
inteligente, que provoca la falta de reflexión del
televidente ante lo expuesto en programas, noticieros,
anuncios y promo cionales.
Debemos dar el paso para que la opinión de la gente
tenga un importante peso específico; para ello es
necesario una población adecuadamente educada.
Por un lado la población es la única que puede opinar
sobre la conveniencia o la incomodidad que un
programa de esa naturaleza, como el cambio de
horario, causa a su cotidianeidad y a su convivencia
diaria con el resto de la sociedad. Por otra parte, deben
de existir las condiciones para que ante argumentos,
que promuevan o desmeriten un programa, la
población pueda discernir y codificar los mensajes
esgrimidos, en pro y en contra. En este punto la
educación en general y, en particular, la divulgación
de la ciencia tienen un importante papel.
Mientras son peras o manzanas, el “Brodi”, y
posiblemente solo él, seguirá disfrutando de la
posibilidad que le brinda el cambio de horario para
darse una vida de la patada (en base a las patadas).
http://phobos.dtc.uaslp.mx/publi.html
Un buen ejemplo de la necesidad de realizar
divulgación científica lo constituye el problema de la
decisión unilateral del gobierno federal de imponer el
cambio de horario, según la época del año.
Después de la imposición, empezó a aparecer una
campaña televisiva promoviendo las supuestas
bondades del programa. A pesar de las voces,
mayoritariamente autorizadas, que opinaban en contra
del citado programa, el mismo se impuso y se siguió
insistiendo en los desprestigiados e insostenibles
argumentos originalmente esgrimidos por los
promotores del programa.
El “Brodi” tiene una hora más de luz solar para patear
el balón (y supongo una buena lana por el anuncio).
En este número transcribimos un artículo de Shahen
Hacyan, titulado Geografía para funcionarios, que
trata precisamente del problema citado, mismo que
escribió para el periódico Reforma en su sección
Aleph Cero.
____________________________
Todos aquellos interesados en contemplar las pasadas
y nuevas imágenes tomadas desde la Mars Global
Surveyor sobre la famosa cara de Cydonia, en Marte,
pueden hacerlo en:
http://mars.jpl.nasa.gov/mgs/msss/camera/images/4_5
_00_cydonia/index.html
____________________________
El Hijo de El Cronopio No. 74
Aleph Cero/Geografía para funcionarios
Por Shahen Hacyan para el periódico Reforma
Noticias de la Ciencia y la Tecnología
Corazón de dragón
Los científicos han descubierto el fósil de un dinosaurio de 66 millones de años de
antigüedad cuyo corazón se ha preservado de forma extraordinaria.
Uno de los milagros de la paleontología es la increíble cantidad de información que los
expertos pueden extraer de una reunión, casi siempre incompleta, de huesos fosilizados.
Imaginemos por tanto cuánto más seríamos capaces de comprender si además de los
esqueletos pudiésemos disponer de las partes blandas de un cuerpo prehistórico.
Esto ha ocurrido alguna vez, gracias a especialísimas circunstancias y condiciones de
conservación, pero en escasas ocasiones se ha producido un gigantesco avance
paleontológico como el presente. Científicos de la North Carolina State University y del
North Carolina Museum of Natural Sciences han descubierto el primer espécimen de
dinosaurio que aún conserva su corazón fosilizado.
La importancia del hallazgo es enorme, ya que podría llegar a resolver muchas de las
incógnitas relacionadas con la fisiología de estos animales, desaparecidos completamente
hace unos 65 millones de años.
Imágenes mejoradas mediante ordenador muestran las interioridades del corazón
fosilizado, el cual parece poseer cuatro cámaras o ventrículos y una única aorta
sistémica, tal y como si estuviésemos contemplando el corazón de un mamífero o un
pájaro y no el de un reptil.
La primera conclusión es que el sistema circulatorio de los dinosaurios era mucho más
avanzado que el de los reptiles, lo que apoya la hipótesis que sugiere que eran animales
de sangre caliente.
El dinosaurio herbívoro protagonista de esta historia tiene 66 millones de años de
antigüedad y se llama Thescelosaurus. Su tamaño es similar al de un pequeño pony y su
peso debió alcanzar los 300 kg. Sin embargo, su cola y su cuello le otorgaban una
longitud total de casi 4 metros. Sus restos han sido bautizados como Willo (no es el
Angelito), en honor a la esposa del granjero en cuyas tierras fueron hallados en 1933, en
el noroeste de South Dakota.
Los ventrículos y la aorta de Willo indican que poseía unos sistemas circulatorio y
pulmonar totalmente separados, lo que sugiere que su metabolismo era más rápido que lo
que podemos apreciar en los reptiles actuales. Los especialistas utilizaron una serie de
escaneados mediante tomografía computerizada en dos dimensiones para crear una
imagen tridimensional. Gracias a ello confirmaron que la forma rojiza visible dentro de
su caja torácica es, efectivamente, un corazón fosilizado.
La identificación no fue sencilla, ya que el esqueleto se halla comprimido y en un orden
anatómicamente incorrecto. Así permaneció, enterrado durante 66 millones de años en
piedra arenisca, un lugar que, gracias a la ausencia de oxígeno, actuó como perfecto
ataúd de conservación.
798
El Hijo de El Cronopio No. 74
El Thescelosaurus Willo, probablemente de la especie T. neglectus, es un caso especial
de espécimen magníficamente conservado. De hecho, es el primero que presenta un
cráneo completo y tejidos blandos. Se han encontrado también, por ejemplo, algunos
tendones aún conectados a la columna vertebral, así como cartílago fosilizado unido a las
costillas. Willo podría contener otros órganos fosilizados, pero las investigaciones no han
llegado todavía tan lejos.
Información adicional en:
http://www.dinoheart.org
http://www.ncsu.edu/news/
http://www.naturalsciences.org/
El cuarto cráter de impacto
A pesar de la erosión que los ha hecho a menudo casi invisibles, los científicos siguen
descubriendo huellas de pasados impactos contra la Tierra. El último, identificado en
Australia, es el cuarto más grande conocido.
Basta con echar un vistazo hacia otros cuerpos sólidos del Sistema Solar para descubrir
en ellos claros signos de un pasado que fue violento. Objetos más pequeños
bombardearon sus superficies, dejando a su paso cicatrices indelebles fácilmente
identificables. La Tierra, sin embargo, es un mundo activo, y fenómenos como el
vulcanismo o la tectónica de placas, la erosión del viento o de las aguas, han conspirado
para borrar u ocultar las huellas de tan primitivos impactos.
A pesar de todo, nuestro planeta presenta signos evidentes de cráteres y, aunque difíciles
de identificar, su catalogación no ha dejado de avanzar durante los últimos años. En la
actualidad se han documentado unos 170 y a menudo los científicos siguen
sorprendiéndonos con nuevos anuncios.
El más reciente se refiere a un cráter que presenta un tamaño espectacular. Se encuentra
en Australia (Woodleigh) y su diámetro alcanza los 120 km, lo que lo sitúa cuarto en el
ránking de los mayores cráteres de impacto conocidos en nuestro planeta.
El hallazgo no ha sido fácil, puesto que la estructura se encuentra oculta, como muchas
otras, bajo una capa sedimentaria plana. El Woodleigh, por fortuna, conserva un pico
central y una serie de signos concéntricos que delatan su origen. En realidad, el cráter es
conocido desde hace mucho tiempo, pero se han necesitado dos décadas de estudios para
confirmar su origen extraterrestre.
Durante este período se han realizado extracciones de minerales, análisis de todo tipo,
fotografías aéreas, mediciones gravitatorias, etc. Una vez determinada su procedencia
real, los científicos se han esforzado en calcular su edad, la cual aún no está del todo
clara. Algunas estimaciones la sitúan entre los 365 y los 395 millones de años,
coincidente con diversos episodios de extinciones masivas.
Quizá lo más interesante de estos estudios sea que los especialistas avanzan hacia una
cada vez más sencilla identificación de cráteres enterrados, lo que hace suponer que éste
no será ni mucho menos el último que vaya a ser descubierto en poco tiempo.
Información adicional en:
http://www.dme.wa.gov.au/news/17apr.html
799
El Hijo de El Cronopio No. 74
La broca del futuro
Mientras la NASA trabaja para construir herramientas que permitan extraer muestras
procedentes de otros planteas, el mismo esfuerzo tecnológico podrá ser aplicado en otros
campos aquí mismo, en la Tierra.
Los científicos del Jet Propulsion Laboratory, en Pasadena, han desarrollado un
dispositivo ultrasónico que puede perforar rocas muy duras, lo que lo hace ideal para
extraer muestras que deberán ser analizadas para buscar sustancias químicas específicas
o incluso signos de vida en otros planetas.
La herramienta, no obstante, podría ser también utilizada de forma masiva en las
consultas de los cirujanos ortopédicos y por otros especialistas médicos.
Ideados para misiones espaciales, dichos dispositivos son ligeros y pequeños, consumen
muy poca energía y son extremadamente fiables, características nada desdeñables en el
ámbito de la medicina. Aunque los prototipos no son aún perfectos, la tecnología podrá
miniaturizarse para que ocupe sólo la palma de una mano.
El mecanismo se llama Ultrasonic/Sonic Drill and Corer y está siendo desarrollado bajo
contrato por la empresa Cybersonics. El perforador se mueve gracias a actuadores
piezoeléctricos, los cuales sólo poseen dos piezas móviles, careciendo de motores y
transmisiones. Este tipo de actuadores están hechos de materiales que cambian su forma
bajo la aplicación de un campo eléctrico. El sistema puede ser adaptado para actuar bajo
un amplio rango de temperaturas y su potencia es tal que puede perforar las rocas más
duras, como el granito o el basalto.
El prototipo actual pesa únicamente 0,7 kg y puede realizar agujeros en granito de 12
mm de profundidad usando sólo unos 10 vatios de energía eléctrica. Los perforadores
rotativos convencionales precisarían entre 20 y 30 veces más fuerza impulsiva, así como
entre 2 y 3 veces más energía.
La pieza situada en el extremo de la broca no debe ser afilada y su velocidad de
actuación no disminuye en ningún momento. Como no gira, puede ser dirigida a mano
con total seguridad. La perforación puede realizarse en secciones circulares, cuadradas o
hexagonales.
En medicina, podrá ser usado para diagnósticos o para reparaciones de piezas óseas.
Información adicional en:
http://ndeaa.jpl.nasa.gov
Imagen:
http://www.jpl.nasa.gov/files/images/browse/ultrasonic_drill_2.gif
(La broca ultrasónica.) (Foto: JPL)
Comunidad vecinal
No hay nada como charlar por encima de la valla de nuestro patio si lo que queremos es
acrecentar nuestro sentimiento de implicación en la comunidad de vecinos.
Algunas ciudades han crecido tanto que sus habitantes han perdido toda noción de
comunidad vecinal. No sólo se conocen apenas entre ellos, sino que además ignoran
800
El Hijo de El Cronopio No. 74
buena parte de lo que sucede en el barrio, propiciando un sentimiento de desconexión y
lejanía con respecto a sus conciudadanos.
Algunos estamentos han intentado resolver esto a base de publicaciones informativas,
pero no es suficiente. La cuestión es lo bastante grave como para propiciar el inicio de
estudios sociológicos, como el llevado a cabo por Sandra J. Ball-Rokeach, de la
University of Southern California.
Dicho estudio llega a una sorprendente conclusión: los habitantes de Los Ángeles, sobre
los cuales se ha documentado el trabajo, sienten que pertenecen a una comunidad en
proporción directa a la cantidad de tiempo que pasan hablando con sus vecinos.
Para ello se han entrevistado a 1.800 residentes. Estadísticamente, los resultados no
pueden ser más claros: las viejas relaciones interpersonales, el encuentro en el vestíbulo
del edificio de apartamentos, o la charla entre dos vecinos, con la tradicional valla entre
ambos, son el camino más rápido y poderoso de sentirse como parte integrante de una
comunidad. En tales situaciones, los interlocutores hablan de otros vecinos (no siempre
bien, por supuesto), de las historias publicadas por la prensa que más les afectan, de
actividades organizadas por los estamentos vecinales, etc.
Dichos estamentos, pues, deben hacer lo posible por fomentar la difusión de información
vecinal, o de otro modo, se corre el peligro de propiciar el aislamiento y la retirada de la
vida pública. En una era globalizada y cada vez más dominada por las relaciones
interpersonales que se derivan del correo electrónico e Internet, existe el riesgo de que
nuestro sentimiento de aprecio hacia todo lo que nos rodea de forma más inmediata se
desvanezca.
El estudio, llamado "Proyecto Metamorfosis", busca dilucidar si aún es posible que las
grandes áreas urbanas puedan sostener comunidades. La principal conclusión es que las
comunicaciones vecinales deben ser potenciadas al máximo si estas comunidades deben
poder subsistir en el futuro.
También se ha visto que el seguimiento masivo de la programación televisiva general
influye en gran medida en la paulatina desintegración del sentimiento de comunidad. Las
sociedades que han perdido este sentimiento son precisamente aquellas que presentan
mayores índices de criminalidad local, lo cual a su vez dificulta aún más los esfuerzos
institucionales por mejorar la zona.
Información adicional en:
http://www.annenberg.edu/
http://www.usc.edu/ext-relations/news_service/releases/stories/38633.html
Imagen:
http://uscnews.usc.edu/files/ball-rokeach/Ball-Rokeach1.jpg
(Sandra J. Ball-Rokeach.) (Foto: Irene Fertik, USC News Service)
Fumar no ayuda en la vejez
Aunque algunos estudios habían sugerido que el fumar podría proteger contra
enfermedades tales como la demencia senil, una investigación estadística más precisa
desmiente esta posibilidad.
801
El Hijo de El Cronopio No. 74
Fumar durante la vejez no va a ayudarnos a luchar contra enfermedades graves como el
Alzheimer o la demencia, casi siempre relacionadas con edades avanzadas. Esta
conclusión contradice un estudio previo que sugería lo contrario.
Para dilucidar este tema, los científicos realizaron un control estadístico de una
comunidad concreta, situada en North London. Expertos del londinense Institute of
Psychiatry, junto a los que ha colaborado Jorge Cervilla, del Hospital San Luis, de
Palencia, analizaron los hábitos de bebida y tabaco de 650 personas de más de 65 años,
así como sus capacidades intelectuales.
Una vez excluidos aquellos que ya habían dado muestras de deterioro mental, los demás
fueron seguidos durante un período de un año, al término del cual se estableció si ese
deterioro se había producido o no. Las pruebas fueron similares a las utilizadas
habitualmente para determinar el grado de gravedad de enfermedades como las
mencionadas Alzheimer o demencia senil.
De las 417 personas que pudieron ser sometidas de nuevo a las pruebas al final del
período convenido, una de cada 16 había sufrido una reducción significativa de su
capacidad intelectual. Después de ajustar los resultados a factores que afectan a la
función cerebral de las personas mayores, como la depresión, la salud general, el
consumo de alcohol y los niveles educativos, se encontró que los fumadores tenían una
probabilidad cuatro veces superior a sufrir deterioro mental que los no fumadores o los
que habían dejado el tabaco con anterioridad. Los bebedores moderados, por su parte,
tenían una posibilidad de sufrir problemas de este tipo sólo ligeramente mejor que los
que consumían mucho alcohol.
El fumar contribuye a las enfermedades vasculares y a la arterioesclerosis, que reduce el
caudal de las arterias y las endurece, perjudicando a todo el cuerpo pero en especial al
cerebro.
Los investigadores creen que a pesar de haber alcanzado una edad avanzada, los
pacientes deben ser inducidos a dejar de fumar lo antes posible, ya que ello seguramente
repercutirá en su estado intelectual con posterioridad.
Información adicional en:
http://www.cfah.org/
Prototipo en marcha
Dicho y hecho, los promotores de un nuevo y revolucionario sistema de detección
radioastronómica para trabajos relacionados con la búsqueda de señales extraterrestres
inteligentes han presentado por fin el prototipo del sistema.
Cuando se cumplen 40 años del inicio de las actividades SETI (Búsqueda de Inteligencia
Extraterrestre), miembros de la University of California han dado a conocer el primer
prototipo de un nuevo radiotelescopio que promete convertirse en el más poderoso y
sensible de los que se han dedicado nunca a esta tarea.
El modelo definitivo se llamará One Hectare Telescope o 1hT, y como su nombre indica,
consistirá en un sistema de antenas cuya superficie colectora alcanzará una hectárea
(unos 10.000 metros cuadrados). El 1hT es una iniciativa conjunta de la mencionada
universidad y el SETI Institute. Para validar su diseño, los astrónomos que participan en
802
El Hijo de El Cronopio No. 74
el proyecto han ideado la construcción de sucesivos prototipos, el primero de los cuales
fue presentado el 19 de abril.
Dicho prototipo posee un total de siete parábolas y es un grito lejano de lo que será el
instrumento definitivo, formado por cientos o quizá miles de antenas parabólicas,
interconectadas de forma altamente compleja.
Por supuesto, un dispositivo como éste tiene también un enorme potencial en otras áreas
gracias a su sensibilidad, como la radioastronomía, donde será útil para estudiar el
nacimiento de las estrellas.
El prototipo tiene el objetivo de demostrar que es posible agrupar una serie de antenas
individuales y hacer que trabajen de forma conjunta con total precisión. Servirá también
para afrontar problemas como las interferencias (en particular las procedentes de los
satélites de comunicaciones), el procesado de señales, etc. Por tanto, no será usado en la
investigación SETI.
Se probarán diversos tipos de motor y monturas para mover las antenas hacia una
sección particular de la bóveda celeste, todo ello en condiciones de campo y no sólo en el
laboratorio. Se pretende probar que es posible realizar observaciones simultáneas de
diversos objetivos, y otras tareas en las que se mezclen radioastronomía e investigación
SETI.
El segundo prototipo, más grande, quedará listo en 2002. La versión definitiva del 1hT
será instalada en el llamado Hat Creek Observatory hacia el año 2005.
En esa fecha, el sistema será el mayor dedicado a trabajos SETI, con un poder de
captación de señales similar al del Very Large Array, situado en New Mexico. Con el 1hT
se avanzará más allá de la observación de unos pocos centenares de estrellas cada año, tal
y como ocurre ahora mismo. Además, podrá ser expandido en función de las
necesidades, con la simple adición de un mayor número de antenas. Su precio final será
de unos 25 millones de dólares, mucho menos que un sistema convencional.
Información adicional en:
http://www.seti.org
http://www.seti-inst.edu/general/rpa_pr/index.htm
http://www.berkeley.edu/news/media/releases/2000/04/19_seti.html
Imagen:
http://www.seti.org/general/rpa_pr/pages/HatCreekMid.htm
(Las antenas prototipo.) (Foto: Seth Shostak/SETI Institute)
Tras la pista del rey
El análisis de los supuestos restos del rey Felipe II, padre de Alejandro el Grande, revela
que corresponden en realidad a otra persona.
El antropólogo Antonis Bartsiokas ha demostrado una vez más que las apariencias
engañan. Durante mucho tiempo, los estudiosos de la historia griega antigua habían
atribuido a un esqueleto conservado en un museo una identidad que en realidad no es la
suya.
Hasta ahora se creía que los huesos correspondían al rey Felipe II, líder militar y padre
de Alejandro el Grande. La razón es que su cráneo presenta una serie de marcas que se
803
El Hijo de El Cronopio No. 74
atribuyeron a las heridas sufridas por Felipe cuando éste recibió el impacto de una flecha
en su ojo derecho.
Pero Bartsiokas ha demostrado que dichas marcas son sólo un capricho anatómico,
acentuado por los efectos de una cremación y de una incorrecta reconstrucción posterior.
El antropólogo ha utilizado una técnica llamada macrofotografía, que le ha permitido
estudiar el esqueleto con meticuloso detalle.
El citado esqueleto fue extraído en 1977, tras ser descubierto en una tumba real en
Vergina, punto donde se encontraba la antigua capital Macedonia, Aigai. Casi todas las
tumbas de la zona habían sido expoliadas hacía tiempo, pero ésta contenía los restos de
un hombre y una mujer que habían sido quemados.
Los especialistas identificaron la pareja como el rey Felipe II y su esposa, los cuales
reinaron entre los años 359 y 336 antes de Cristo. Las actividades militares de Felipe,
que dominó Macedonia y tomó el control de Atenas y Tebas, dejaron el camino expedito
para que su hijo Alejandro creara un vasto imperio, lo cual incrementa el interés histórico
de su figura.
Sin embargo, recientemente se determinó que los utensilios encontrados en la tumba real
son de aproximadamente el 317 antes de Cristo, una generación después del asesinato de
Felipe en el 336. Por tanto, los inquilinos de la tumba son más probablemente los
sucesores de Alejandro el Grande, quien a su vez fue enterrado en Egipto.
Tras la muerte de Alejandro, el trono fue a parar a uno de los otros hijos de Felipe II,
Felipe III Arrhidaeus. Rey sólo de nombre, ya que los amigos de Alejandro se dividieron
el imperio entre ellos, Arrhidaeus estaba mentalmente enfermo o quizá estaba
discapacitado. Plutarco nos dice que Olympias, la celosa madre de Alejandro, lo
envenenó de pequeño.
Para resolver el misterio de la identidad del esqueleto de una vez por todas, Bartsiokas,
del Anaximandrian Institute of Human Evolution, tomó varias fotografías de los huesos y
las amplió hasta alcanzar la escala de un microscopio óptico convencional. Esto le
permitió revisar con detalle toda la superficie ósea, incluyendo los lugares en los que
supuestamente se produjeron las heridas.
Así, las marcas observadas con anterioridad han sido descartadas como heridas de
guerra, negando la identidad asignada al individuo. Bartsiokas también detectó daños en
el cráneo durante la cremación, que después fueron resueltos incorrectamente por los
enterradores, ya que éstos provocaron una distorsión asimétrica.
Bartsiokas investigó finalmente si los huesos habían estado recubiertos de carne antes de
la cremación. El cuerpo de Arrhidaeus fue enterrado después de ser asesinado por
Olympias o un conspirador, de modo que la teoría de que su sucesor, Cassander, le
exhumó para volverlo a enterrar después de la cremación de sus restos, cobra especial
relevancia. Cassander habría hecho esto como gesto honorífico que promoviera su propia
legitimidad como rey.
Como los forenses saben bien, los huesos presentan claras diferencias en función de si
han sido quemados inmediatamente o después de transcurrido un tiempo tras la muerte.
Los huesos con carne sobre ellos sufren fracturas debido a la acción del calor sobre el
colágeno, que se contrae.
Los huesos de la tumba real fueron quemados cuando ya no había carne sobre ellos, lo
que confirma que pertenecen a Arrhidaeus y no a Felipe II.
804
El Hijo de El Cronopio No. 74
Muchos de los objetos encontrados son probablemente heredados de Alejandro el Grande
e incluyen una corona de plata, un yelmo de hierro y un elaborado escudo ceremonial.
Para los historiadores, las oportunidades de encontrar al verdadero Felipe II parecen
haber disminuido mucho. Aunque las excavaciones continúan, los saqueos vaciaron los
contenidos de la mayoría de las tumbas hace mucho tiempo.
Información adicional en:
http://www.aaas.org/
Bloqueo de satélites e Internet
Expertos de la Fuerza Aérea estadounidense han descubierto con desmayo que las
instrucciones para bloquear ciertos satélites de importancia estratégica circulan
libremente en Internet.
El llamado Space Aggressor Squadron es un equipo de especialistas de la US Air Force
dedicado a la búsqueda de puntos débiles en los sistemas de comunicaciones y de
navegación. Adoptando el papel del enemigo, descubren así aquellas zonas técnicas que
deberán ser reforzadas para evitar el desastre.
Una de las tácticas más sencillas empleadas por el citado escuadrón es, simplemente,
buscar información en Internet, algo que está al alcance de cualquier país o grupo con
intenciones dudosas. La conclusión es que, en efecto, la red de redes contiene
innumerables datos sobre cómo paralizar este tipo de sistemas con total impunidad.
En Internet no sólo podemos hallar información sobre cómo construir y operar un
satélite, sino también cómo impedir su funcionamiento correcto. Basta con teclear las
palabras oportunas en cualquier buscador para ser perfectamente conscientes de ello.
Para comprobar que los resultados de una búsqueda sencilla son fiables, se ordenó a dos
ingenieros principiantes del US Air Force Research Laboratory la construcción de un
aparato para interferir satélites basado en las instrucciones recolectadas. Por 7.500
dólares, los ingenieros construyeron una fuente móvil de "ruido" de alta energía en UHF,
la cual podría ser usada para interferir las antenas de un satélite o los receptores militares
que operan en esta gama de frecuencias. Algo así como subir el volumen de tu radio más
que los demás.
Con diferentes componentes es posible interferir otras frecuencias, como las de los
satélites de navegación y posicionamiento global. De hecho, los GPS emiten una señal de
muy baja potencia, así que la tarea no es difícil.
Los militares encargan ya sus nuevos satélites de comunicaciones en UHF con amplias
capacidades para combatir las interferencias. Esto encarece mucho su precio, pero en
vista de la situación, la medida no admitirá relajación alguna. (New Scientist)
En ruta de colisión
Nuestra galaxia, la Vía Láctea, y la cercana galaxia de Andrómeda chocarán
catastróficamente dentro de 3.000 millones de años.
El amplio catálogo de alternativas que justifican la verosimilitud de un fin del mundo
prematuro se ha visto engrosado con un nuevo integrante. Afortunadamente, no hay que
805
El Hijo de El Cronopio No. 74
ponerse nerviosos todavía: según John Dubinski, astrofísico del Canadian Institute for
Theoretical Astrophysics, de la University of Toronto, el suceso no ocurrirá antes de
dentro de 3.000 millones de años.
Recientes observaciones astronómicas indican que la galaxia de Andrómeda se acerca a
nuestro propio barrio galáctico a una velocidad de 500.000 km/h. En la actualidad, se
encuentra a 2,2 millones de años luz de distancia, siendo la galaxia independiente más
cercana a nosotros. Su tamaño es más grande que el de nuestra Vía Láctea, de modo que
cuando ambas se encuentren, la primera absorberá a la segunda completamente. La
velocidad de aproximación, por otro lado, aumentará debido a la creciente atracción
gravitatoria en cuanto la distancia que las separa vaya menguando.
La fusión de dos galaxias no es un fenómeno infrecuente en el Universo y de hecho estos
fenómenos explican en parte el por qué de la existencia de algunas grandes estructuras
cósmicas. Hoy en día las fusiones son menos abundantes que en épocas más pretéritas,
pero a pesar de todo aún ocurren, como bien atestiguan imágenes captadas por los
grandes telescopios terrestres y espaciales.
Tras llegar a esta conclusión, Dubinski ha simulado mediante un ordenador las
interacciones de Andrómeda y la Vía Láctea, tomando como punto de partida los
movimientos de unos 100 millones de estrellas y de múltiples partículas de materia
oscura. La simulación empleó un ordenador IBM SP3 "Blue Horizon" de 1.152
procesadores durante cuatro días. Este sistema puede realizar 1 billón de operaciones
aritméticas en un segundo. El resultado ha sido una animación en alta resolución que
muestra la colisión y la fusión de las dos galaxias desde el principio hasta el final.
Cuando ello ocurra, no es todavía seguro que implique el fin inmediato de la vida en la
Tierra. A pesar de la interacción entre las estrellas, es relativamente difícil que haya
choques físicos entre cuerpos estelares y planetarios. Sin embargo, sí puede haber
distorsiones por efectos gravitatorios debido al paso cercano de estrellas, etc. Esto podría
provocar la perturbación de la nube de cometas de Oort y que algunos de ellos caigan
sobre la Tierra provocando su destrucción. También podría ocurrir que el Sol y sus
planetas salgan despedidos fuera de la galaxia que los vio nacer, o por el contrario, que
se vean arrojados al centro galáctico resultante, donde servirán como materia prima para
la creación de nuevas estrellas.
Lo que sí es seguro es que dentro de 3.000 millones de años, quienes se encuentren
todavía sobre este planeta contemplarán la galaxia de Andrómeda desde una perspectiva
muy diferente, ya que ésta cubrirá totalmente el cielo nocturno. Durante la fusión,
presenciarán además un espectacular despliegue de fuegos artificiales. Las estrellas más
masivas empezarán a explotar como supernovas a un ritmo tal que durante la noche será
posible leer un periódico sin luz artificial. La radiación de tales explosiones podría ser
asimismo el origen de la esterilización de nuestro planeta y, por consiguiente, de la
desaparición de la vida.
Animación:
ftp://holstein.cita.utoronto.ca/pub/tflops/tflops.mpg
(Animación de las interacciones entre las dos galaxias.) (Cortesía: U. of Toronto)
Naranjas exprimidas
806
El Hijo de El Cronopio No. 74
Un nuevo procedimiento permitirá que el zumo de naranja envasado tenga el mismo
sabor que si éstas hubieran acabado de ser exprimidas.
Los consumidores lo saben bien. No hay rival, en cuanto a sabor, para un buen zumo de
naranja recién exprimido. Las necesidades de almacenaje, transporte y conservación
impiden que el zumo envasado que podemos comprar en los supermercados tenga un
sabor tan fresco y agradable.
Sin embargo, esto podría resolverse en breve, ya que una nueva técnica perfeccionada
por Murat Balaban, profesor del Institute of Food and Agricultural Sciences de la
University of Florida, promete lo que hasta ahora parecía imposible.
El procedimiento implica el uso de dióxido de carbono a alta presión y garantiza un
sabor original y un consumo tan seguro como el de la variedad pasteurizada. Las pruebas
realizadas hasta el momento indican que las personas no son capaces de distinguir entre
un zumo "viejo" elaborado de esta forma y otro recién hecho.
El zumo de naranja, una vez extraído de la fruta, es mezclado con CO2 presurizado y
pasado a través de un tubo. Al final del proceso, el zumo es despresurizado y separado
del gas, lo que mata a los microorganismos peligrosos. Evitada la pasteurización a alta
temperatura, el sabor no resulta afectado.
Se han hecho pruebas con E-coli, salmonella y otros microorganismos. La reducción de
su número basta para superar las limitaciones impuestas por la reglamentación vigente.
Además de acabar con los microbios, el proceso inactiva un enzima que causa que el
zumo de naranja se separe durante su permanencia en la estantería. Normalmente,
cuando la espera se prolonga demasiado tiempo, el zumo envasado adopta una forma
acuosa semitransparente, con una masa amarillenta y más sólida en el fondo. Para
recuperar la mezcla, se puede sacudir el envase, pero esto no evita que vuelva a ocurrir,
dado que el enzima sigue presente.
El nuevo procedimiento es asimismo más respetuoso con las vitaminas, especialmente la
vitamina C, y otorga una fecha de caducidad al producto similar al actual (unos dos
meses, frente a los 14 días del zumo natural).
Por supuesto, se espera que el sistema pueda aplicarse en otro tipo de zumos, como el de
manzana o el de piña. Las primeras pruebas al respecto parecen satisfactorias.
Información adicional en:
http://news.ifas.ufl.edu/print/2000/00_0421.html
Imagen:
http://news.ifas.ufl.edu/print/2000/pics/juice.JPG
(El zumo de naranja envasado mejorará su sabor.) (Foto: Eric Zamora UF/IFAS)
La Ciencia desde el Macuiltépetl/ Arthur Eddington
Por Manuel Martínez Morales
Cuando se produce una gran revolución científica suele asociarse el nombre del hombre
de ciencia a quien se considera su creador. Así, al hablar de la teoría de la relatividad nos
viene a la mente el nombre de Albert Einstein. Pero, si bien lo fundamental de una teoría
puede ser enunciado por una sola persona, siempre habrá otros científicos talentosos que,
807
El Hijo de El Cronopio No. 74
desde sus propias especialidades, contribuyan a que la nueva teoría avance y se
consolide. Y se da el caso de que los nombres de estos brillante hombres de ciencia no
luzcan tanto como el del genio creador de la teoría, tal es el caso de Arthur Stanley
Eddington.
Astrónomo, físico, matemático, Arthur Eddington, nacido el 28 de diciembre de 1882 en
un pueblo del norte de Inglaterra, fue un pionero en el estudio de la teoría de la
relatividad, la cosmología y la estructura de las estrellas; fue también un notable
divulgador de las ideas científicas y de las implicaciones filosóficas de las mismas.
Eddington fue el primero en exponer en inglés la teoría de la relatividad, pues el trabajo
original de Einstein había sido escrito en alemán. Durante cierto tiempo se decía que
únicamente dos hombres entendían la teoría de la relatividad, Einstein y Eddington.
En 1918, publicó el Reporte sobre la teoría relativista de la gravitación, presentado a la
Sociedad Física; poco después, en 1920, escribió Espacio, tiempo y gravitación, y en
1923 su gran tratado sobre la Teoría matemática de la relatividad, considerado por el
mismo Einstein como la mejor exposición de su teoría.
Sir Arthur no fue sólo un divulgador de la relatividad; es famoso también por haber
dirigido en 1919 una expedición a la isla del Príncipe, en África Occidental, para
confirmar un aspecto de la teoría de Einstein. Ésta predecía que los rayos de la luz se
curvarían por efecto de la gravedad. Esto es, que al pasar un rayo de luz cerca de un gran
cuerpo celeste, una estrella por ejemplo, su trayectoria cambiaría en una magnitud dada.
En ese año hubo un eclipse total de sol que pudo observarse en la isla mencionada y que
permitió ver el desplazamiento aparente de la posición de las estrellas, tal como la teoría
lo predecía. Además, Eddington contribuyó a modificar la geometría no-euclideana
usada por Einstein, y la utilizó para producir su propia teoría del universo, plasmada en
El universo en expansión (1933). Otra de sus obras se titula Teoría relativista de
protones y electrones, en la cual intentó unificar la teoría de la relatividad y la teoría
cuántica. Se le considera también fundador de la dinámica estelar; a los 34 años (1914)
publicó Movimientos estelares y la estructura del universo.
En lo que se refiere a otros aspectos de su vida, Sir Arthur era pacifista y profundamente
inclinado a la religión. En su libro La ciencia y el mundo inobservable. Eddington
declara que el sentido del universo no puede alcanzarse por medio de la ciencia, sino por
la “aprehensión espiritual de la realidad”. Su teoría de la ciencia lo condujo a elaborar el
concepto de “subjetivismo selectivo”, según el cual gran parte de la física refleja
simplemente las suposiciones que el físico hace sobre los datos con los que trabaja.
Eddington recibió en vida diversos honores, entre otros, títulos honoríficos de diversas
universidades. Fue presidente de la Real Sociedad Astronómica (1921-1923), de la
Sociedad Física (1930-1932) y de la Asociación Astronómica Internacional (1938-1944).
Uno de los grandes anhelos era elaborar una gran teoría unificadora de cuanto se conoce
sobre la estructura física del universo; aunque inacabado, este esfuerzo se plasmó en la
obra Teoría fundamental publicada póstumamente, en 1946, obra que para muchos es
incomprensible y para otros una señal del deterioro mental de Eddington en los últimos
años de su vida.
En este año se cumplirán 40 años de la muerte de Sir Arthur Eddington. Al recordar este
talentoso hombre de ciencia, recordemos también que los logros científicos son posibles
en la medida que muchos hombres contribuyan, algunos más otros menos, con su propia
y original capacidad e inteligencia.
808
El Hijo de El Cronopio No. 74
El Cabuche (crónicas de la Facultad de Ciencias)/ El boilercito
En estas épocas en que la radiación solar causa estragos en el ánimo y agobia la
respiración el aire enrarecido por las altas temperatura, la pérdida de líquidos es
inevitable; necesario es recuperarlos a fin de estabilizar la temperatura corporal. Por
supuesto que hay de líquidos a líquidos, quienes se conformen con recuperarlos con vil y
vulgar agua, muy su gusto; quienes consideren, como yo, que el agua es pa`bañarse y
pa`las ranas que nadan bien, pues, una o dos cervezas es la solución, más sano además.
Por esa y otras razones, más por las otras razones, no faltaba entre la raza en nuestra
época de estudiantes, no hace mucho 22 o 23 años, quien empezara a hacer la coperacha
para poder mercar algunas, de perdis una, caguamas y mitigar esa incontrolable sed de
primavera y verano (algunas veces también de otoño e invierno). No siempre traíamos
lana, pero la lucha se hacía. Como en la mayoría de los oficios, se requiere vocación para
emprender tan imprescindible faena de colectar morralla, el mentado marcianito alias
Gerardo Moreno quien ahora chambea en el Instituto de Física de la Universidad de
Guanajuato, agandalló el puesto y periódicamente organizaba la colecta; poniendo una o
dos monedas en sus manos haciendo covachita con ambas, las comenzaba a agitar cual
maracas y ante el tintineo de las monedas de Morelos y Cuauhtémoc como efigie,
empezaba a aumentar el alegre sonido al agregarse algunas Josefas. Cuando la cantidad
era suficiente (nunca) o el tintineo llegaba a los decibeles adecuados, una honorable
comisión partía a adquirir la preciada mercancía. Así pasaba el verano; aunque el
problema fue que se empezó a jugar con nuestros sentimientos. El marcianito salía de la
escuela por el ancho acceso que daba al jardín a la avenida Manuel Nava, con el
característico juego de manos de provocaba el celestial tintineo, pregonando
809
Boletín
El Hijo de El Cronopio
Facultad de Ciencias
Universidad Autónoma de San Luis Potosí
No.75, 8 de mayo de 2000
Boletín de información científica y
tecnológica de la Facultad de Ciencias
Publicación semanal
Edición y textos
Fís. J. Refugio Martínez Mendoza
Cualquier información, artículo o
anuncio deberá enviarse al editor
e-mail: flash@galia.fc.uaslp.mx
Este boletín y números anteriores,
pueden consultarse por Internet en la
página de la UASLP:
http://phobos.dtc.uaslp.mx/publi.html
Noticias del Espacio
♦ Las autoridades sudafricanas han informado
del hallazgo de dos objetos metálicos de
considerable tamaño, uno con más de 100 kg de
peso, que al parecer cayeron de la órbita. Aunque
es preciso un análisis, podrían pertenecer a los
restos de una misión Delta lanzada en 1986 para
colocar en el espacio a un satélite estadounidense
Navstar GPS.
♦ Tal como estaba previsto, la primera campaña
de recolección de partículas interestelares llevada
a cabo por la sonda Stardust finalizó el 1 de
mayo. La trampa de aerogel fue cerrada con
éxito y así permanecerá durante algún tiempo.
Las próximas actividades a bordo de la nave
estarán protagonizadas por una pequeña
corrección de trayectoria (TCM-3) el 24 de
mayo. Se abrirá en esta oportunidad la cubierta
de la cápsula de retorno de muestras, para
demostrar que podrá permanecer en esta posición
en 2004, cuando se efectúen las dos últimas
correcciones en dirección al cometa Wild-2. Más
información en:
http://stardust.jpl.nasa.gov
♦ Aprovechando
la rara alineación planetaria
que se está produciendo durante este mes de
mayo, el observatorio solar SOHO realizará el
día 15 una serie de tomas fotográficas inéditas.
Mercurio, Venus, Júpiter y Saturno se
encontrarán en ese instante simultáneamente en
el campo de visión del coronógrafo LASCO, el
cual se encuentra siempre dirigido hacia el Sol.
La alineación planetaria es difícil de observar
desde la Tierra debido a la proximidad del
fenómeno con respecto a la deslumbrante figura
del Sol, pero esto no es un problema para el
SOHO, que ha sido diseñado para ello. El
instrumento LASCO tiene un campo de visión de
unos 15 grados, suficiente para acomodar en él a
los citados cuatro
planetas. Más información en:
http://sohowww.nascom.nasa.gov/hotshots/
http://sohowww.estec.esa.nl/hotshots/
El Hijo de El Cronopio No. 75
Noticias de la Ciencia y la Tecnología
Apunta el telescopio
El Instituto Científico del Telescopio Espacial celebra los diez años de funcionamiento
del observatorio Hubble invitando al público a elegir y votar el lugar del cielo que
desearían fotografiar.
Si algo caracteriza al telescopio espacial Hubble, además de su potencia y
descubrimientos, es su fantásticamente repleta agenda. Cada año, astrónomos de todo el
mundo realizan centenares de propuestas de observación, algunas de ellas muy
meritorias, pero sólo una pequeña parte pueden ser puestas en práctica debido al limitado
tiempo disponible.
Sin embargo, la dirección del Space Telescope Science Institute (STScI), el órgano que
controla y gestiona el día a día del telescopio Hubble, ha decidido hacer un hueco muy
especial en sus compromisos. La ocasión lo merece, ya que se trata de compartir con el
público la celebración de la primera década de operación del observatorio.
Hasta el 6 de junio, el Hubble Heritage Project, un grupo de astrónomos que trabajan
con él y que edita una nueva y espectacular imagen cada mes, está dispuesto a escuchar
tus sugerencias. Si quisieras utilizar el Hubble para observar el cielo, ¿qué punto de la
bóveda celeste elegirías?
No es posible complacer a todas las peticiones, pero sí que se puede hacer una votación
sobre los objetivos más solicitados. Christian Luginbuhl, Keith Noll y Forrest Hamilton
elegirán finalmente al ganador.
Los tres astrónomos fundamentarán su elección en base a las posibilidades de llevar a la
práctica tal observación, su interés científico y su potencial para dar lugar a una nueva
imagen espectacular, atractiva para todos. La única condición es que el astro o estructura
a contemplar no debe haber sido hasta ahora objeto de atención por parte del Hubble.
Información adicional en: http://heritage.stsci.edu
http://heritage.stsci.edu/public/observations2000/toplevel_mar00.html
Imagen: http://oposite.stsci.edu/pubinfo/pr/2000/04/content/0004w.jpg
(La nebulosa NGC 7635, vista por el Hubble.) (Foto: STScI)
Insectos y evolución
Los científicos han encontrado la explicación de por qué los insectos perdieron la mayor
parte de su extremidades abdominales.
A principios del siglo pasado, los científicos que estudiaban la evolución habían
avanzado más bien poco. Sólo Rudyard Kipling se había atrevido, en sus historias de
ficción, a dar explicaciones de por qué el leopardo poseía manchas, o dónde habían
conseguido los camellos sus jorobas.
Ha sido en tiempos más recientes que los biólogos, utilizando técnicas de genética
molecular, han conseguido explicar las razones por las que la mariposa muestra el dibujo
de un "ojo" en sus alas, o los motivos de que las serpientes perdieran sus patas.
Hablando de patas, Randy Bennett, un investigador de la Brigham Young University, ha
añadido una nueva historia a la cadena, en esta ocasión referida a los insectos.
826
El Hijo de El Cronopio No. 75
Como sabemos, los insectos, incluyendo moscas, abejas, escarabajos, etc., poseen seis
patas en la región intermedia de sus cuerpos. Sin embargo, los fósiles encontrados
delatan que los insectos actuales descienden de animales que se parecían mucho más a
los modernos ciempiés, es decir, dotados de muchas patas a lo largo de todo su cuerpo.
Con el transcurso de millones de años, dichos animales se especializaron. Algunos
segmentos de sus cuerpos aprendieron a hacer ciertas cosas mejor, y todas las patas,
menos seis, desaparecieron. Descubriendo los procesos que se encuentran detrás de esta
desaparición, Bennet ha conseguido atrasar el reloj biológico y modificar un escarabajo
en desarrollo para que de nuevo vuelva a presentar tantas patas como un ciempiés.
Bennet y sus colegas estudian diferencias y similitudes en la forma en que los
organismos se desarrollan desde la fase de embriones a la etapa de adultos. Con el
tiempo, las diferencias son las que se suman para determinar la evolución.
Los científicos han descubierto una serie de genes importantes para el desarrollo de las
moscas pero que también lo son para humanos, ratones, e incluso gusanos parásitos.
Dichos genes sirven de panel de control principal, activando o desactivando otros genes,
y están implicados en muchas de las divisiones celulares en las regiones que controlan.
Cambiar estos genes fundamentales durante el desarrollo puede causar transformaciones
dramáticas en la estructura final de un animal.
La cuestión es: ¿qué pasó en términos evolutivos para que los insectos dejaran de tener
tantas patas y pasaran a poseer sólo seis? Esto y la aparición de alas son probablemente
dos de los acontecimientos que han hecho de los insectos organismos tan exitosos y sin
los cuales quizá no estarían hoy aquí.
En cuanto levantamos una piedra, podemos encontrar bajo ella ciempiés u otros animales
dotados con aún un mayor número de patas. Sin embargo, no los vemos por todas partes,
como ocurre con los insectos, así que parece que existe una clara ventaja en el hecho de
poseer sólo seis patas y alas.
Bennet ha usado un embrión de escarabajo para sus trabajos de investigación. Inyectó en
él una sección de ARN que lo invadió, neutralizando dos genes llamados Abd-A y Ubx,
que se sabe que están relacionados con el desarrollo de las extremidades en el abdomen
de los insectos. El efecto inmediato fue la aparición de múltiples patas donde de otro
modo no habrían existido.
Por tanto, los "planos" originales para la aparición de muchas patas se encuentran todavía
presentes y grabados en los genes de los insectos actuales, pero el gen Abd-A ha
evolucionado para desactivar estas instrucciones. Al mismo tiempo, el gen Ubx ha hecho
lo propio para modificar las extremidades abdominales en otras cosas (como las alas).
Los científicos aún desconocen lo que realmente causa los cambios morfológicos.
Sabemos que son determinados genes los responsables de la ausencia de las patas, pero
no qué ha modificado estos genes para que realicen esta tarea. Este es el objetivo de
Bennet ahora.
Dado que el Hombre posee genes similares, los descubrimientos podrían tener una
influencia clara en la determinación de las funciones de sus equivalentes humanos. La
terapia genética permitirá bloquear un gen productor de una enfermedad, de la misma
manera que es posible bloquear a los genes que impiden la aparición de múltiples patas
en el escarabajo. El principal problema, sin embargo, es que las funciones de la vida no
dependen a menudo de genes individuales, sino de muchos de ellos actuando al unísono,
lo que complica increíblemente la tarea.
827
El Hijo de El Cronopio No. 75
Información adicional: http://www.byu.edu/news/releases/Apr/beetle.htm
Imagen: http://www.byu.edu/news/releases/Apr/beetles/mutantandwildtype.jpg
(Arriba, una larva de escarabajo; abajo, con más patas de lo que es habitual.) (Foto: Randy Bennett)
Computación óptica
Para conseguir que los ordenadores funcionen más rápidamente, los investigadores se
verán obligados a buscar alternativas, como el uso de la luz.
Los relojes avanzan segundo a segundo. Los partidos de baloncesto se cronometran en
décimas de segundo, y los participantes en carreras, en centésimas. Lo ordenadores
solían trabajar en milésimas de segundo, avanzaron después hasta los microsegundos
(millonésimas) y ahora se aproximan a los nanosegundos (milmillonésimas) para las
operaciones lógicas y a los picosegundos (billonésimas) para los interruptores y puertas
lógicas de los chips.
Es obvio que la velocidad de los dispositivos informáticos ha mejorado mucho. Sin
embargo, todo tiene un límite. Las señales electrónicas, incluso con máxima
miniaturización e integración a muy gran escala (VLSI), se ven perjudicadas por muchos
aspectos de los materiales sólidos que deben atravesar.
La solución pasa por encontrar un medio más rápido, y la respuesta parece residir en algo
de lo que disponemos en abundancia: la propia luz. Esta se desplaza en el vacío a unos
300.000 km/s. En un nanosegundo, los fotones avanzarían unos 30 cm, sin considerar la
resistencia del aire o la de una hebra de fibra óptica.
Los ordenadores totalmente ópticos no estarán disponibles hasta dentro de bastantes
años, pero los híbridos electro-ópticos ya son posibles desde 1978. Nuevos avances han
producido películas delgadas y fibras ópticas que hacen de las interconexiones y los
dispositivos ópticos algo viable. Los científicos se están centrando en el desarrollo de
películas hechas con moléculas orgánicas, que son más sensibles a la luz que las
inorgánicas. Las primeras pueden realizar funciones como el procesado de señales,
interrupción, duplicación de frecuencias, etc., gastando menos energía. El uso de
materiales orgánicos junto a inorgánicos, como el silicio, nos permitirá usar tanto fotones
como electrones en sistemas híbridos.
El rápido crecimiento de Internet, un 15 por ciento mensual, exige una mayor
disponibilidad de ancho de banda y de velocidad de lo que los circuitos electrónicos
ofrecen. Los límites electrónicos de la red sitúan la velocidad máxima sobre los 50
Gigabits por segundo, mientras que las necesidades reales alcanzarán muy pronto el
Terabit por segundo (1 billón de bits/s). Es por eso que debemos buscar alternativas con
relativa celeridad.
El procesamiento óptico de datos puede realizar diversas operaciones simultáneamente
(en paralelo) de forma mucho más rápida que el electrónico. Por ejemplo, un cálculo que
implicaría 11 años de procesamiento en un ordenador electrónico podría resolverse en
una sola hora en un ordenador óptico.
Científicos como Hossin Abdeldayem han desarrollado ya prototipos de circuitos de
puertas lógicas totalmente ópticas que posibilitarán el procesamiento de señales a
velocidades de 1 Gigabit a 1 Terabit. Se han probado también interruptores ópticos que
actúan en menos de un nanosegundo.
828
El Hijo de El Cronopio No. 75
Las puertas lógicas son los ladrillos básicos de cualquier sistema digital. Una puerta
lógica óptica es un interruptor que controla un rayo de luz con otro. Estará en posición
"on" cuando el dispositivo transmite luz, y en "off" cuando bloquee el rayo.
Los ordenadores ópticos del futuro serán una realidad cuando sus componentes
individuales hayan sido suficientemente probados. De lo que no hay duda es que serán la
base de la transmisión y manipulación de la información y las comunicaciones terrestres
y espaciales de las próximas décadas.
Información adicional en:
http://science.nasa.gov/headlines/images/nanosecond/thepaper.PDF
http://science.nasa.gov/headlines/y2000/ast28apr_1m.htm
Imagen: http://science.nasa.gov/headlines/images/nanosecond/frazier4.jpg
(Donald Frazier controla la luz azul de un láser empleada junto a materiales electro -ópticos.) (Foto: Marshall SFC)
No enfermen en el Shuttle
Sufrir un accidente o enfermar en la lanzadera espacial implicaría un riesgo superior al
considerado hasta ahora.
Los viajes del transbordador espacial estadounidense son usualmente cortos, de manera
que no existe un peligro excesivo de que alguno de los miembros de la tripulación
enferme y deba ser devuelto precipitadamente a la Tierra para ser atendido, ya que todos
los astronautas son sometidos a duras pruebas médicas antes de volar al espacio. Sin
embargo, siempre existe la posibilidad de que se produzca un accidente o un episodio
médico inesperado, como un ataque de apendicitis.
La nave transporta un completo botiquín e incluso algunos utensilios para practicar
operaciones quirúrgicas de emergencia, pero los científicos se cuestionan ahora si ello no
haría colocar al paciente en un riesgo todavía más grande.
Un estudio realizado sobre monos sugiere que un astronauta que sufriera una operación
de cirugía poco antes del regreso a la Tierra podría llegar a morir. Por otro lado, un grupo
internacional de anestesistas manifiesta que el equipo médico instalado en la lanzadera
para facilitar la respiración de los astronautas accidentados es inadecuado.
El problema podrá entreverse en toda su magnitud cuando la estación espacial ISS entre
en funcionamiento. Las estancias de los astronautas se prolongarán durante mucho más
tiempo, hasta seis meses, y entonces existirá una mayor probabilidad de que se puedan
sufrir enfermedades o accidentes. Astronautas de edad avanzada, como John Glenn,
verían aumentadas exponencialmente las posibilidades de padecer un ataque al corazón
en órbita, lo que podría resultar fatal.
Durante la misión Bion-11, realizada en 1997, una cápsula rusa con algunos
experimentos americanos fue enviada al espacio. Unos días después, la nave y sus
diversos inquilinos, incluidos dos monos, fue recuperada. Durante su primer día de
estancia en la Tierra después de su viaje, los monos recibieron una dosis de anestesia
general no probada con anterioridad, para comprobar si sería posible atender
inmediatamente a un enfermo después de un viaje orbital. Uno de ellos murió y el otro
sufrió diversas complicaciones graves.
Parece que el problema se centra en una alteración del flujo sanguíneo tras experimentar
un largo período en ingravidez. Dicho flujo se restablece aproximadamente un día
después del regreso, pero si un astronauta seriamente enfermo debe ser tratado con
urgencia, podría padecer las mismas complicaciones anestésicas y llegar a morir.
829
El Hijo de El Cronopio No. 75
Definitivamente, existe la necesidad de iniciar una investigación en este sentido, una vía
que garantice la supervivencia de los astronautas en casos de emergencia, o de lo
contrario el inicio de períodos de estancia muy prolongados podría ser la antesala a una
problemática de difícil solución. (New Scientist)
Lo que pesa la Tierra
Los físicos han aumentado la precisión con la que conocemos la masa terrestre.
Trabajos recientes de varios científicos de la University of Washington confirman que
nuestro mundo, después de todo, es algo más pequeño de lo que pensábamos en términos
de masa. El cálculo ha sido posible gracias a una determinación más precisa de la famosa
constante de gravitación de Newton.
Según Jens Gundlach y Stephen Merkowitz, dos físicos especialistas, la Tierra tiene una
masa de: 5.972.000.000.000.000.000.000 toneladas métricas, algo menos de lo esperado.
Según esto, existen aproximadamente 1 billón de toneladas por cada persona que habita
la Tierra, lo cual no es poco, si tenemos en cuenta que el peso de toda la vida animal y
vegetal situada sobre la superficie terrestre es precisamente 1 billón de toneladas.
La gravedad es la interacción a gran escala más importante del universo. De ella depende
su destino final. A pesar de su carácter fundamental, es fácil de comprender. Si cogemos
al Sol y la Tierra como modelos, y quisiésemos sustituir la fuerza gravitatoria que
mantiene a nuestro mundo en órbita solar con un cable de acero (sin masa), este último
debería tener un grosor dos tercios el diámetro de la Tierra para realizar el mismo trabajo
que la gravedad.
La constante gravitatoria de Newton nos dice cuánta fuerza existe entre dos masas
separadas por una distancia conocida. Esta constante, junto a la de la velocidad de la luz
y la constante de Planck (esencial en mecánica cuántica), están consideradas como las
tres más importantes de la naturaleza. La medición de las dos últimas ha crecido en
precisión de manera continua con el transcurso de los años, pero esto no había ocurrido
con la primera. Curiosamente, cálculos recientes aportaban mayor incertidumbre.
Los trabajos de Gundlach y Merkowitz, si son aceptados por la comunidad internacional,
reducirán dicha incertidumbre casi en un factor de 100.
Información adicional en: http://www.aps.org/meet/APR00/baps/vpr/layp11-03.html
http://www.washington.edu/newsroom/news/2000archive/04-00archive/k042900.html
http://www.npl.washington.edu/eotwash/gconst.html
Imagen: http://www.aps.org/meet/APR00/baps/vpr/images/photo.jpg
(El instrumento usado para la medición.) (Foto: U. of Washington)
Células de combustible en miniatura
La aparición de células de combustible realmente diminutas abrirá las puertas a su uso a
gran escala en multitud de campos como el de la electrónica de consumo.
Una célula de combustible es un ingenio que explota el proceso contrario al de la
electrólisis. Son capaces de generar directamente electricidad a partir de la energía
química de un combustible, como el hidrógeno o el metanol. La lanzadera espacial usa
tres de estos dispositivos para producir la energía eléctrica necesaria para operar los
diversos sistemas de a bordo. Para ello utiliza hidrógeno y oxígeno líquidos,
almacenados en tanques.
830
El Hijo de El Cronopio No. 75
El tamaño y complejidad de las células de la lanzadera es considerable, lo que limita su
aplicación en otros sectores. Sin embargo, investigadores de la Case Western Reserve
University han conseguido desarrollar un modelo miniaturizado cuyo volumen no supera
los 5 milímetros cúbicos, aproximadamente el tamaño de una goma de borrar
incorporada al extremo de un lápiz.
Las células de combustible pueden proporcionar más energía por volumen y peso que las
baterías. Los futuros automóviles eléctricos seguramente usarán estos dispositivos en vez
de baterías, o quizás emplearán las primeras para largas distancias y las segundas para
acelerar rápidamente. Además de eficientes, las células son amistosas con el medio
ambiente ya que el resultado de la unión de oxígeno e hidrógeno, además de electricidad,
es agua pura.
Robert Savinell y sus colegas han conseguido tan alto nivel de miniaturización a base de
imprimir múltiples capas de componentes de la célula de combustible sobre un sustrato.
Su producción será similar al de los circuitos integrados.
Su primera aplicación será militar, ya que serán unidas a sensores que precisan de un
sistema de alimentación eléctrico muy pequeño y eficiente. Por ejemplo, para detectar
agentes químicos y bacteriológicos.
En el mercado de consumo, podrán ser aplicadas en cualquier sitio, desde automóviles a
teléfonos móviles y ordenadores. Dado que la mayor proporción de volumen y peso en
un teléfono móvil corresponde a las baterías, su sustitución por células de combustible
promete una revolución en cuanto a tamaño y masa en estos aparatos.
Información adicional en: http://www.case.cwru.edu/
Mapas para daltónicos
Las personas que tienen dificultades oculares o simplemente no pueden apreciar los
colores de forma correcta, pueden ser incapaces de interpretar algo tan normal como un
mapa de carreteras.
Un 8 por ciento de la población sufre de una enfermedad que llamamos daltonismo y que
impide que los afectados puedan identificar correctamente los colores. No estamos sólo
ante un problema estético, sino que estas personas pueden encontrarse en serias
dificultades cuando se ven abocados a interpretar un simple mapa callejero o de
carreteras. Una geógrafo de la Penn State University ha desarrollado una nueva guía de
color que debería permitir a la mayoría de los daltónicos superar este obstáculo.
Los mapas actuales usan colores basados en la gama proporcionada por el arco iris, ya
que son más fácilmente distinguibles y atractivos. Pero según Cynthia A. Brewer, no son
necesariamente el mejor modo de representar información para las personas daltónicas.
El daltonismo no es un único problema sino una reunión de problemas que afectan a la
visión de los colores. Sólo una muy pequeña parte de la población se ve impedida de
observar todos los colores y ve la realidad en tonos de grises. La mayoría de los
daltónicos carece de sensibilidad hacia determinados colores. El daltonismo más común
es el relacionado con el rojo y el verde. Algunas personas carecen de conos receptores de
un color y otras del otro. También hay daltónicos de azul/amarillo.
Un 8 por ciento no es número grande, pero referido a la población mundial, estamos
hablando de muchos millones de habitantes. Brewer está tratando de dirigir sus trabajos
hacia los que no ven el rojo y el verde, que es la forma de daltonismo más común.
831
El Hijo de El Cronopio No. 75
A pesar de todo, el problema es más complejo que confundir estos dos colores. También
se pueden tener dificultades a la hora de distinguir entre el azul/verde y el rosa o el
azul/verde y el púrpura.
Una forma de evitar confusiones es alterar el "brillo" o la "oscuridad" de los colores. El
daltónico aún verá el mismo color pero podrá decirnos que las áreas coloreadas con
dichos colores son diferentes.
Una de las grandes dificultades es que nadie sabe a ciencia cierta qué colores ve otra
persona, ya que se trata de una impresión muy subjetiva. Sin embargo, si un mapa
contiene zonas adyacentes que alguien llega a ver del mismo color, la información
almacenada en ellas sería inaccesible para él.
Una forma de combatir el daltonismo del rojo/azul es usar el patrón del arco iris evitando
emplear el color afectado. Pero Brewer ha localizado otras combinaciones de colores
(azules/amarillos, magentas/violetas, etc.) que ayudarán también a los daltónicos a no
perderse ningún dato proporcionado por un mapa.
Información adicional en: http://www.psu.edu/ur/2000/colorblindness.html
La clonación puede rejuvenecer
Seis saludables clones de vaca no muestran los mismos síntomas de envejecimiento
prematuro que sufre la famosa oveja Dolly, sino todo lo contrario.
La clonación de la oveja Dolly fue un gigantesco paso adelante en esta fantástica
aventura biológica. Obtener un nuevo ser vivo de una célula adulta abre perspectivas
desconocidas. Sin embargo, los autores del experimento pudieron comprobar muy pronto
que Dolly parecía sufrir de un envejecimiento prematuro, como si su desarrollo estuviese
respetando la edad y el desgaste de la célula original. Si los seres clónicos deben heredar
la edad de ésta como punto de partida, su esperanza de vida será muy inferior a la
normal.
Afortunadamente, los trabajos de Robert P. Lanza, de Advanced Cell Technologies,
parecen negar esta posibilidad. Seis clones de vaca recientemente obtenidos no
solamente no muestran signos de vejez prematura sino que además sus células se
presentan más jóvenes que las de las otras vacas de su misma edad.
Los científicos aún no saben si la clonación es la responsable de este fenómeno o si esto
se traducirá en una vida más larga para los animales. Al menos, lo ocurrido elimina el
temor de que la clonación fuese por sí misma un proceso perjudicial, en términos de
duración de la vida.
Las células poseen un número finito de ciclos de división. Su final llega cuando dejan de
dividirse. Para crear los clones de vaca, los investigadores usaron células adultas
próximas al final de sus días. Sorprendentemente, la clonación parece haber devuelto a
dichas células a su estado original, disponiendo de nuevo de unos 90 ciclos de división.
También los telómeros, las regiones situadas al final de cada cromosoma y que protegen
su integridad durante cada división, haciéndose cada vez más cortos tras cada una de
ellas, han vuelto a su longitud inicial. De hecho, son más largos que los de los
cromosomas de las vacas normales de su misma edad.
Los científicos se preguntan por qué los clones de vaca y Dolly son tan diferentes en
estos aspectos. Una posible respuesta radicaría en los diferentes métodos de clonación
empleados. Las células adultas usadas para crear a Dolly se encontraban en un estado
latente mientras que las de vaca estaban activas. La procedencia también es distinta. Las
832
El Hijo de El Cronopio No. 75
de vaca eran fibroblastos (tejido conectivo) mientras que las de Dolly eran células
mamarias.
En todo caso, las perspectivas de obtener órganos clónicos para transplantes mejoran
sustancialmente con este descubrimiento. También se podrán combatir mejor los efectos
del envejecimiento natural en las personas.
Información adicional en: http://www.noonanrusso.com/
Prediciendo tornados
Un cuidadoso estudio de los patrones que rigen la caída de los relámpagos en una gran
tormenta puede aportar pistas sobre cuándo se desatará un destructivo tornado.
Estados Unidos, el país más afectado por la aparición de tornados, tiene una verdadera
obsesión respecto al estudio e investigación de este fenómeno meteorológico.
El 3 de mayo de 1999, más de 50 de estos vórtices cruzaron las Great Plains de Kansas y
Oklahoma, dejando un rastro de 40 muertos y daños por un valor de 1.200 millones de
dólares. Si se hubiesen predicho con tiempo suficiente, al menos se hubieran podido
salvar las vidas humanas.
Steve Goodman y otros científicos del Global Hydrology and Climate Center, intentando
evitar otro 3 de mayo, apuestan fuerte por el hallazgo de nuevos métodos de predicción,
y creen que uno de los elementos más peligrosos de las tormentas, los rayos, podrían ser
la clave.
Goodman y sus colegas, utilizando diverso equipo de vigilancia situado en tierra y en el
espacio, han documentado casi una docena de casos en los que el ritmo de aparición de
los relámpagos se incrementó dramáticamente durante el desarrollo de una tormenta y la
posterior aparición del tornado.
Dicho pico puede ser una buena pista para que los científicos dirijan su radar hacia la
tormenta afectada, proporcionando una visión más detallada que después utilizarán los
meteorólogos para la predicción.
Observar los relámpagos de luz no es tan fácil como observar el cielo durante la
tormenta. El tipo de luminosidades que se busca se encuentra dentro de las nubes,
invisible al ojo humano durante el día. Para una observación apropiada es necesario un
instrumento especial, como el que transporta a bordo el satélite Tropical Rainfall
Measuring Mission (TRMM), en órbita desde 1997. El sensor sigue la aparición de
relámpagos a escala global y su relación con los centros tormentosos.
Aún no se tienen suficientes datos para confirmar la relación entre el número de
relámpagos y la aparición de los tornados, pero al menos su seguimiento permitirá
mostrar los puntos de origen más probables, y esto ya puede constituir una gran
diferencia en términos de predicción y seguridad.
En la actualidad, el tiempo de adelanto con que se advierte a la población de la
formación de tornados es de entre 8 y 12 minutos, pero también se producen un 30 por
ciento de falsas alarmas. Esto hace que muchas personas ignoren el peligro y sufran las
consecuencias.
El universo podría ser plano
El experimento BOOMERANG ha sido el detonante de la producción de una gran
cantidad de nuevos datos de gran importancia cosmológica.
833
El Hijo de El Cronopio No. 75
Científicos británicos, estadounidenses, canadienses e italianos podrían haber propiciado
un considerable avance en nuestra visión del universo y su historia pasada.
El experimento BOOMERANG, realizado sobre la Antártida, ha permitido obtener
imágenes detalladas que muestran la estructura del Universo cuando éste tenía sólo
300.000 años de edad, después del Big Bang. El análisis de dichas imágenes sugiere que
el Universo en realidad es plano (en una proporción del 10 por ciento), lo cual significa
que dos rayos láser enfocados hacia el espacio avanzarían de forma paralela para
siempre, sin que sus caminos se cruzasen ni divergiesen nunca.
Todo ello apoya la teoría "inflacionaria", por la cual el Universo se expandió de una
forma masiva, desde el tamaño de una partícula subatómica al de una pelota de
baloncesto, en una mera fracción de segundo. Las imágenes muestran que después el
Universo frenó gradualmente hasta llegar a un nivel de estabilidad, un estado "plano".
Los mapas se obtuvieron mediante un telescopio robótico, el cual, equipado con
detectores ultrasensibles, fue lanzado a bordo de un globo cuya capacidad era de 1 millón
de litros de gas. El telescopio vagó durante 11 días sobre la Antártida, tomando imágenes
de un pequeño porcentaje de la bóveda celeste entre diciembre de 1998 y enero de 1999.
Durante el Big Bang, el Universo era una sopa primordial de plasma brillante y radiación
casi tan caliente como el Sol. La expansión inmediata convirtió la intensa luz en una casi
uniforme radiación de microondas, conocida como el Fondo Cósmico de Microondas,
detectable aún hoy en día. El telescopio BOOMERANG ha medido esta radiación con
una sensibilidad sin precedentes, mostrando mapas del Universo en los que se aprecia
una distribución de puntos calientes y fríos que colapsaron para formar cúmulos y
supercúmulos de galaxias o para formar enormes espacios vacíos. Estos son, sin duda,
los más distantes objetos vistos por el Hombre.
El experimento BOOMERANG (Balloon Observations Of Millimetric Extragalactic
Radiation ANd Geomagnetics) es un aperitivo de lo que les espera a los cosmólogos
cuando misiones espaciales como el MAP (2000) o el Planck (2007) debuten dentro de
algún tiempo. A pesar de todo, se trata de un instrumento de segunda generación, mejor
que el satélite COBE utilizado hace algunos años.
Para derivar el espectro obtenido con el telescopio BOOMERANG ha sido necesario el
uso durante 50.000 horas de un supercomputador Cray T3E de 696 nodos. Como
resultado, ahora sabemos que el Universo no está curvado sino que es bastante plano, de
acuerdo con un modelo que dice que se encuentra lleno de "energía oscura", la cual
podría corresponder a la constante cosmológica propuesta por primera vez en 1917 por
Albert Einstein. Combinado todo ello con otros resultados, se puede decir que, además,
el Universo se expandirá para siempre y tenderá a enfriarse.
Los datos coinciden con diversas investigaciones del Instituto de Astrofísica de Canarias
lideradas por Rafael Rebolo, que están ya disponibles en la revista electrónica Astro-ph.
Este investigador es también uno de los impulsores del "Experimento VSA", instalado en
el Observatorio del Teide, que conseguirá imágenes de mejor calidad que el
BOOMERANG. Para Rebolo (Cartagena, 1961), recientemente galardonado con el
Premio Iberdrola de Ciencia y Tecnología, "BOOMERANG ha establecido que la
densidad de la materia del Universo no es lo suficientemente grande para provocar que
llegara a colapsar por la gravedad", lo que se conoce como "gran colapso" o Big Crunch.
Estos resultados dan la razón a la mayoría de las interpretaciones sobre el origen y el
destino del Universo de los últimos veinte años y auguran un futuro no muy halagüeño
834
El Hijo de El Cronopio No. 75
para el cosmos: "El Universo tendrá, dentro de decenas de miles de millones de años, una
vida muy triste, oscura y fría -señala el astrofísico- con temperaturas cada vez más
próximas al cero absoluto (273 grados bajo cero)". En medio de un panorama tan
desolador, las estrellas actuarán como unos oasis térmicos hasta que agoten su
combustible y, como el resto del espacio, se enfríen.
Información adicional en: http://spacescience.com/headlines/y2000/ast27apr_1.htm
http://sci.esa.int/planck; http://www.nersc.gov/; http://oberon.roma1.infn.it/boomerang/
http://www.nature.com/cgitaf/DynaPage.taf?file=/nature/journal/v404/n6781/full/404955a0_fs.html
http://www.physics.ucsb.edu/~boomerang/; http://www.arxiv.org/abs/astro-ph/0004357
http://cfpa.berkeley.edu/~borrill/cmb/madcap.html
taf/DynaPage.taf?file=/nature/journal/v404/n6781/full/404955a0_fs.html
http://www.iac.es/gabinete/noticias/2000/28abr.htm
Imagen:
http://www.physics.ucsb.edu/~boomerang/press_images/raw_images/cmb_sky.jpg
(El experimento BOOMERANG.) (Foto: UCSB)
La Ciencia desde el Macuiltépetl/ Robert Oppenheimer
Por Manuel Martínez Morales
Ahora que está tan de moda hablar en grande sobre ciencia y tecnología vale la pena
recordar a un hombre de ciencia que poseía una gran conciencia social, J. Robert
Oppenheimer. Descendiente de alemanes, nació, en abril de 1904, en Nueva York; su
biografía consigna que obtuvo su licenciatura, en 1925, en Harvard; luego pasó por el
distinguido Laboratorio de Cavendish, el cual dejó para dirigirse a la Universidad de
Göttingen, invitado por Marx Born, ahí conoció a otros prominentes físicos como Niels
Bohr y Paul Dirac, y fue en esa universidad donde recibió el grado de doctor.
Las primeras investigaciones de Oppenheimer estuvieron dirigidas al estudio de los
procesos energéticos que se dan en las partículas subatómicas. Al estallar la Segunda
Guerra Mundial se unió al grupo de científicos que trabajaron en la construcción de la
primera bomba atómica.
Oppenheimer siempre sintió que sobre sus hombros pesaba una grave responsabilidad
social. Ya anteriormente había manifestado un profundo interés por la política. En 1936,
había respaldado a los republicanos en España y se asoció al Partido Comunista. Fue
nombrado jefe del célebre Proyecto Manhattan, en 1942, cuyo objetivo primordial era
construir armas nucleares. Dado que la filiación e ideas políticas de Oppenheimer eran
bien conocidas, los militares no tardaron en acusarlo de espionaje y de ser un peligro
para la seguridad de los Estados Unidos de Norteamérica.
Como se sabe, el Proyecto Manhattan alcanzó el éxito deseado y el 16 de julio de 1945,
el Álamo Gordo, estalló la primera bomba atómica. En octubre de ese mismo año,
Oppenheimer renunció a su puesto para ir a dirigir el Instituto de Estudios Avanzados de
la Universidad de Princeton. Fue presidente del Consejo Consultivo de la Comisión de
Energía Atómica a partir de 1947; debe decirse que este Consejo siempre estuvo en
contra del ulterior desarrollo de las armas atómicas.
835
El Hijo de El Cronopio No. 75
Sin embargo, los militares no cejaron en su esfuerzo por retirar a Oppenheimer de
puestos clave. Por ello, en diciembre de 1953, en un reporte de seguridad militar, se le
acusaba de ser comunista, de tener tratos con agentes soviéticos y de oponerse a la
fabricación de la bomba de hidrógeno; aunque Oppenheimer siempre negó dichas
acusaciones, éstas bastaron para que fuera despedido de su puesto en la Comisión de
Energía Atómica. A pesar de ello, Oppenheimer no renunció a sus principios ni a sus
ideas, por esta razón, mundialmente se le considera como símbolo del científico que
asume su responsabilidad hacia la sociedad.
Dedicó los últimos años de su vida a desarrollar sus ideas sobre la relación entre ciencia
y sociedad.
Fue precisamente J. Robert Oppenheimer quien, en 1949, dijo, con una razón hoy
olvidada:
En cierto sentido brutal, que ni la vulgaridad, ni el humor, ni la
exageración pueden borrar, los físicos hemos conocido el pecado; y
éste es un conocimiento del que no nos será fácil librarnos.
El Cabuche (crónicas de la Facultad de Ciencias)/ El efecto Mora
A lo largo de los cursos de física o electrónica que han tenido y/o tendrán que cursar, se
han familiarizado con toda una serie de fenómenos físicos y sus explicaciones; así han
tenido que estudiar fenómenos que llevan asociados el nombre de efectos algo, efecto
fotoeléctrico, doppler, joshepson, etc., que dan explicación a cierto comportamiento de
regularidad de los sistemas físicos cuando se sujetan a ciertas condiciones. En esta
categoría podemos poner la siguiente situación: un individuo se lastima sin explicación
coherente alguna, un dedo del pie. Posteriormente al ir caminando se tropieza con
cualquier objeto lastimándose la parte afectada, gritando y brincando como gallina en
pavimento caliente, una hora después al ir a un supermercado es arrollado por un carrito
cargado con senda despensa, no sólo eso sino que el carrito le pasa justo por encima del
pie lastimado, propiciando hacer la misma rutina de la gallina pero además mostrando
una exagerada mancha de sangre como producto del atropello, del cual lo más seguro él
tuvo la culpa. El conductor del carrito prefiere huir despavorido ante tremendo teatro,
evitando le cobren al sujeto como si fuera nuevo. Si a eso le añadimos el dato de que el
sujeto es el Mora, no es extraño aceptar tal situación. Para quienes conocen a tipos con
tamaña suerte, como el Mora, que están sujetos constantemente a ese tipo de situaciones,
las situaciones se vuelven regulares y lo pueden asociar a una clase de ley, que en la
mayoría de los casos se le llama de otro modo. Pero seamos benévolos y considerémoslo
como un simple accidente más y démosle la categoría de efecto. Al Mora siempre le
pasan cosas, ejemplos hay en forma abundante, pero no sólo le pasan cosas sino causa
situaciones anómalas a su alrededor. Cuando en aquellas épocas de felices estudiantes
nos encontrábamos realizando alguna práctica de laboratorio, era suficiente que el Mora
se encontrara cerca para que no nos saliera, y no es que le echáramos la culpa al más
menso. A fuerza de experimentar con sistemas físicos nos dimos cuenta que el Mora era
una más de las variables que teníamos que considerar, a tal grado que había dos clases de
experimentos: los que salían y en los que estaba el Mora. En cierta ocasión, recién
regresé de Puebla como profesor, nos encontrábamos en el antiguo almacén del
836
El Hijo de El Cronopio No. 75
laboratorio de física (que estaba en lo que fuera el salón de posgrado del instituto de
física, cuando la escuela se encontraba frente a la avenida Manuel Nava) probando un
equipo de medición recién adquirido; montamos un galvanómetro de D`ansorval para
medir corrientes pequeñas y al estar efectuando las mediciones de repente dejó de
registrar lecturas, revisamos el arreglo experimental y todo estaba en orden, de repente
regresaba la señal para luego desaparecer, después de mucho batallar con el
galvanómetro me acorde de ese otra variable que tiempo atrás utilizábamos en nuestro
análisis: el Mora, abrimos la puerta y lo primero que vamos viendo es al Mora que
tranquilamente vacilaba con la raza de la escuela. Era por demás se había manifestado
una vez más el llamado Efecto Mora, como años atrás fue bautizada tremenda anomalía.
Y Silvio vuelve a cantar
Hay locuras para la esperanza;/hay locuras también del
dolor/Y hay locuras de allá donde el cuerpo no
alcanza,/locuras de otro color/Hay locuras que son
poesía/Hay locuras de un raro lugar/Hay locuras sin
nombre, sin fecha, sin cura/que no valen la pena curar.
Hay locuras de ley pero no de buscar
A LA COMUNIDAD DE LA FACULTAD DE CIENCIAS
A MANERA DE EXHORTACIÓN
Se hace un llamado a toda la comunidad de la Facultad de Ciencias a
conservar los servicios de que disponemos, principalmente utilizar de forma
adecuada los baños. Ciertos servicios, que no se prestan en otras escuelas de
la universidad, se ofrecen para nuestra mayor comodidad. No los
desperdiciemos con hábitos inadecuados.
FORO INTERNACIONAL SOBRE LA ENSEÑANZA DE
LA FÍSICA
(NIVEL MEDIO SUPERIOR)
17-23 JUNIO 2000
UNIVERSIDAD NACIONAL AUTÓNOMA DE MÉXICO
837
El Hijo de El Cronopio No. 75
CONVOCA
A Instituciones y Profesores del nivel medio superior a participar en el FORO que se
realizará en las instalaciones de Ciudad Universitaria de la UNAM
Este foro tiene cuatro metas:
1ª Ofrecer medios de actualización y motivación para profesores en ejercicio.
2ª Desarrollar destrezas y recursos didácticos transferibles al aula.
3ª Analizar problemas curriculares medulares para la modernización del bachillerato,
que enriquezca la visión para la toma de decisiones.
4ª Promover la reflexión y el intercambio de experiencias sobre los mejores
procedimientos para evaluar la calidad de los cursos de física general, especialmente
los de enseñanza media superior.
La temática priorizará dos ramas de la física cuya enseñanza requiere esfuerzo: el
electro-magnetismo y la física moderna, el foro esta constituido por Cursos, Talleres,
Mesas de Debate, Charlas de Intercambio y conferencias sobre experiencias de
superación en 5 países. Los expositores son científicos, nacionales y extranjeros,
todos de talla internacional, con especialidades diversas y todos con reflexión,
experiencia y contribuciones útiles para la enseñanza de la Física.
Las inscripciones se abren con esta fecha y se notificará a las instituciones
interesadas el agotamiento de los lugares previstos para el segmento al que
pertenezcan. La inscripción general cuesta $100.00, pero será necesario que el
interesado se inscriba, al menos, a un curso o a un taller, los que costarán $600.00
y $200.00 respectivamente. El derecho a participar en la mesa de Debate, Charlas
de Intercambio y Conferencias, así como la carpeta, constancia de participación y
servicio de cafetería se adquiere con la inscripción general. Hay costos especiales
para paquetes de diversos cursos o talleres y para la inscripción de grupos de
asistentes
CONTENIDO
CURSOS MATUTINOS DE 20 HORAS
Paul Hewitt (EU); Electricidad y Magnetismo. Un enfoque conceptual.
Pilar Segarra (Mex) Didáctica de la Física.
Hans Joachim Prince y Günter Gauff (Alem) Física Nuclear en el Bachillerato.
Eugenio Ley Koo (Mex) Interacción radiación - materia.
Sergio Aburto (Chile) Temas selectos de Física Contemporánea.
Mayo Villagrán (Urug) Óptica Física.
Bob Friedhoffer (EU) Aprenda magia para enseñar Física
Marie Rose Lecauchois ( Fr.) Las computadores en la enseñanza de la física.
838
El Hijo de El Cronopio No. 75
Rafael Moreno (Mex) Cristalografía
Raúl Enriquez (Mex) Resonancia Magnética
TALLERES VESPERTINOS DE 6 HORAS SOBRE:
Dispositivos y prototipos para la enseñanza de electromagnetismo. Escárcega y
Montuy.
Prototipos de bajo costo para la enseñanza de mecánica. León Díaz Chanona
Una experiencia didáctica sobre teoría cinética. Movimiento Browniano. Fernando
Reyes Leyva
Laboratorio de Física asistido por computadora. Javier Ramos y Virginia Astudillo
Simulaciones con el programa Interactive Physics. Arturo Freire
Física en la Contaminación Atmosférica. Héctor Riveros.
Metodología, elaboración y uso de videos para la enseñanza de la física. Alejandro
González y Pedro Mcumber
Microscopía electrónica en el estudio de la materia.
Gonzalo González Reyes
Física Moderna para el Bachillerato. Beatriz Fuentes
Cristalografía, Rayos-X, estructura de la materia. Adolfo Ángel Herrera
Enseñanza de la física con ejemplos de astronomía. Miguel Ángel Herrera
Sensores de Presión y Temperatura. Claude Rouleau
Laboratorio asistido por computadora, Dispositivos termodinámicos recreativos.
CONFERENCIAS:
Paul Hewitt
Günter
Gauff
Eugenio Ley Koo
Pilar Segarra Alberú
Marie Rose Lecauchois: Uso de las nuevas tecnologías en la
enseñanza de la Física en francia,
INFORMACIÓN:
Telefónica. 56 16 27 87 ( FAX) 56 16 21 65 ( FAX) 56 22 23 78 con Mireya Martínez
o Alejandra Cachuz.
Correo electrónico
zoilor@dgcch.unam.mx
839
El Hijo de El Cronopio No. 75
chiu@servidor.unam.mx
xxmas@yahoo.com.mx
Página web www.geocities.com/apfac
II Verano de la Ciencia de la Región Centro
y
VI Verano de la Ciencia de la UASLP
del 5 de junio al 18 de agosto
Alumnos interesados en participar en los veranos de la ciencia, mediante
una estancia con un investigador de instituciones y centros de investigación
de los estados de San Luis Potosí, Zacatecas, Aguascalientes, Guanajuato,
Querétaro, Coahuila, pueden pasar por información, solicitudes y consulta
del directorio de investigadores anfitriones al Laboratorio de Materiales de
la Facultad (segundo piso del edificio 1)
XVIII FIS-MAT
Gustavo Del Castillo y Gama
A LOS ALUMNOS INTERESADOS EN COLABORAR EN LAS DIVERSAS
ACTIVIDADES DEL XVIII FIS-MAT FAVOR DE REPORTARSE CON LA SRA.
LUCHA EN LA SECCIÓN DE CUBÍCULOS DEL EDIFICIO 2.
SE INVITA A LOS ALUMNOS QUE DESEEN PROPONER PROBLEMAS Y
PREGUNTAS DE FÍSICA Y MATEMÁTICAS EN LOS NIVELES DE PRIMARIA,
SECUNDARIA Y PREPARATORIA PARA SER CONSIDERADOS EN EL XVIII
FIS-MAT, HACERLOS LLEGAR A LA SRA. LUCHA O AL LABORATORIO DE
MATERIALES CON GERARDO ORTEGA O EL FLASH.
A LAS PROPUESTAS SELECCIONADAS SE LES ENTREGARÁ UN PEQUEÑO
RECONOCIMIENTO Y A TODOS LOS PARTICIPANTES CONSTANCIA DE
PARTICIPACIÓN.
840
Boletín
El Hijo de El Cronopio
Facultad de Ciencias
Universidad Autónoma de San Luis Potosí
No.76, 15 de mayo de 2000
DERECHO A LA
INFORMACIÓN
Boletín de información científica y
tecnológica de la Facultad de Ciencias
Publicación semanal
Edición y textos
Fís. J. Refugio Martínez Mendoza
Cualquier información, artículo o
anuncio deberá enviarse al editor
e-mail: flash@galia.fc.uaslp.mx
Este boletín y números anteriores,
pueden consultarse por Internet en la
página de la UASLP:
http://phobos.dtc.uaslp.mx/publi.html
El Jet Propulsion Laboratory pone a
disposición de cualquiera que lo desee los
planos y las instrucciones para la
construcción de un pequeño modelo (escala
1/24) de la sonda Mars Polar Lander.
Informació n en:
http://mars.jpl.nasa.gov/msp98/mplmodel1.html
http://mars.jpl.nasa.gov/msp98/misc/m98lbins.pdf
http://mars.jpl.nasa.gov/msp98/misc/m98lbpar.pdf
Sabido es el poco espacio destinado a la ciencia
y la tecnología en los medios de difusión. A
pesar de que en los medios escritos a aumentado
considerablemente, en los electrónicos, donde los
intereses económicos son notables, su presencia
es casi nula. Sin embargo, es común escuchar,
sobre todo en fechas recientes, el tan llevado y
traído derecho a informar a la población, por los
consorcios televisivos. Por supuesto que desde
su óptica, pues en realidad pugnan por su
derecho a desinformar, que es lo mismo que
manipular a su antojo la información abusando
del micrófono y utilizando a éste como arma de
intimidación y ataque usando los espacios para
canalizar sus desprecios y propósitos de
desprestigio a ciudadanos seleccionados.
Ejemplos de todos los niveles sobran; el
micrófono y la cámara convertidas en armas
modernas sobre gente pública y no pública.
Basta recordar el caso de Lilly Téllez con todo
un arsenal (micrófono, cámaras y pistolas), en
aras de hacer valer su supuesto derecho a extraer
información para darla a conocer “a su manera”
(que de hechos no tiene nada). Convirtiendo en
escándalo y forzando a la población a participar
en sus desmadres. Mientras se destinan horas y
horas de sus espacios en chismes y desgarraduras
de camiseta, la cultura y la ciencia no tienen
cabida.
La opción que representaba TV Azteca al
privatizarse y competir con Televisa, de
propiciar la calidad de la televisión comercial
mexicana, con Hechos a demostrado que
mientras no se revise lo que entendemos por
libertad de expresión y derecho a la información
(de la ciudadanía) es difícil avanzar en este
propósito
El Hijo de El Cronopio No. 76
Noticias de la Ciencia y la Tecnología
Una vacuna barata
El descubrimiento de una vacuna contra la neumonía y la meningitis más económica que
las convencionales da lugar a la primera patente compartida por Cuba y Canadá.
El arsenal médico mundial pronto se verá enriquecido con una vacuna contra la
meningitis y la neumonía. Este descubrimiento, que es el fruto de diez años de labor en
los que aunaron sus esfuerzos investigadores de las universidades de Ottawa y de La
Habana, debería ayudar a salvar la vida de miles de niños en los países en desarrollo.
La nueva vacuna actúa contra la bacteria Haemophilius influenza de tipo b, comúnmente
denominada "bacteria Hib". Según René Roy, especialista en química medicinal de la
Universidad de Ottawa y coinventor de la vacuna, ya existen vacunas eficaces contra esta
bacteria pero resultan demasiado costosas para ser utilizadas a gran escala en los países
en desarrollo. La Organización Mundial para la Salud (OMS) hace constar que estas
vacunas, cuyo precio unitario se eleva a 3 dólares USA, son tres veces más caras que las
demás, que se usan contra otros tipos de enfermedades.
La OMS calcula que la bacteria Hib afecta a unos 3 millones de personas al año,
resultando mortal para 400.000 a 700.000 niños de entre 4 y 18 meses de edad; es la
causa primordial de la neumonía y de la meningitis bacteriana no epidémica en la
temprana infancia. Incluso cuando se consigue emprender un tratamiento
antibioterapéutico a tiempo, la infección provocada por la bacteria suele tener graves
secuelas de carácter neurológico.
Cuba invierte cada año más de dos millones de dólares americanos en la compra de
vacunas anti Hib. En 1989, buscando una solución más económica, el gobierno cubano
encargó el descubrimiento de una nueva vacuna a Vicente Verez Bencomo, director del
laboratorio de antigén sintético de la Facultad de química de la Universidad de La
Habana. "La solución estribaba en concebir una vacuna "conjugada", es decir una vacuna
unida a una proteína portadora con propiedades inmunogénicas concretas. La solución la
teníamos muy clara, pero carecíamos de los recursos técnicos por aquel entonces",
explica el profesor Bencomo.
El equipo del profesor Bencomo trabaja en colaboración con el de René Roy desde 1994
y, en 1995, la OMS les concedió fondos para un proyecto de investigación común. En
base a la labor que ya había sido emprendida en Cuba, el equipo canadiense consiguió
desarrollar un concepto cuya producción resultará menos costosa, mientras que el equipo
cubano seguía perfeccionando determinadas técnicas, especialmente la que permitía unir
la vacuna con la proteína portadora. Hoy por hoy, ambos equipos han alcanzado sus
objetivos. "Como no utilizamos los componentes de la bacteria para crear la vacuna,
resulta menos peligrosa y es fácil controlar su calidad", señala René Roy.
La propiedad intelectual de la vacuna es compartida por igual entre la Universidad de
Ottawa y la Universidad de La Habana; se trata del primer ejemplo de patente de
biotecnología que comparte la República de Cuba con otro país. En Cuba, ya se ha
depositado la patente y se están llevando a cabo las gestiones oportunas para obtener una
patente válida en Canadá y en el resto del mundo. Por motivos estratégicos, la
Universidad de Ottawa ha cedido a sus colegas cubanos el derecho de buscar una
empresa interesada en fabricar la vacuna. Por otra parte, ambas universidades se han
842
El Hijo de El Cronopio No. 76
puesto de acuerdo para renunciar a cobrar sus derechos de autor cuando el producto se
venda a clientes que pretenden utilizar la vacuna con fines humanitarios, como por
ejemplo en el caso de una epidemia en el Tercer Mundo.
Información adicional en:
http://www.uottawa.ca/services/markcom/public_html/english/news/mar23_00-s.html
Imagen: http://www.uottawa.ca/services/markcom/gazette/images/000310/art03.jpg
(Dos de los investigadores de la nueva vacuna.) (Foto: U. Of Ottawa)
Fuente de luz avanzada
Se han producido por primera vez destellos de luz de una duración de tan sólo 300
femtosegundos.
Ciertos fenómenos de la naturaleza, para ser observados, necesitan de una iluminación
altamente sofisticada. Ingenieros del Berkeley Lab han desarrollado una fuente de luz
procedente de un sincrotrón que produce destellos (como una lámpara estroboscópica) de
una duración inferior a 300 femtosegundos (un femtosegundo es a un segundo lo que
éste a 30 millones de años), los cuales podrían ser empleados para estudiar con detalle
los cambios de estado de la materia.
El rango espectral de estos pulsos va desde los infrarrojos a los rayos-X, y se espera que
la misma técnica permita obtener destellos de tan sólo 100 femtosegundos en esta última
longitud de onda. Se podrán así fabricar cámaras que muestren el movimiento de los
átomos durante reacciones físicas, químicas y biológicas en una escala de tiempo
increíblemente corta.
La técnica es compleja. Se parte de un sincrotrón de electrones (ALS), el cual ha sido
diseñado para acelerar estas partículas hasta una energía de 1,9 GeV. Los electrones son
mantenidos durante horas en un rayo que evoluciona alrededor de un anillo de
almacenamiento de unos 200 metros de circunferencia. Entonces, los científicos utilizan
mecanismos magnéticos y de otro tipo para extraer de él rayos ultravioleta y rayos-X de
baja energía. Dicha luz es 100 millones de veces más brillante que la producida por el
más poderoso de los tubos de rayos-X.
El rayo de electrones que circula dentro del anillo no está formado por una corriente
continua de partículas, sino por grupos discretos de electrones, lo cual hace que la luz
resultante pulse. Cada pulso dura entre 30 y 40 picosegundos (billonésimas de segundo)
en un ritmo de repetición óptimo de 500 millones de pulsos. Esto no es suficiente para
nuestros objetivos, pero los científicos del Berkeley Lab han conseguido pulsos más
rápidos gracias a la intervención en el proceso de un láser óptico.
La luz que resulta de este procedimiento puede servir para observar eventos ultra-rápidos
como la aparición o rotura de enlaces electrónicos durante reacciones químicas, o el
movimiento de átomos durante una transición de fase (de sólido a líquido, y de líquido a
gas). Los rayos-X son ideales para investigar la estructura atómica de la materia porque
interaccionan directamente con los núcleos y los electrones.
Información adicional en:
http://www.lbl.gov/Science-Articles/Archive/femto-xrays.html
http://www-als.lbl.gov/
Imagen:
http://www.lbl.gov/Science-Articles/Archive/images1/femto-pulse-team.jpg
(El equipo de investigadores del programa.) (Foto: Berkeley Lab.)
843
El Hijo de El Cronopio No. 76
Nuevo tipo de objeto gamma
Gracias a los instrumentos más modernos, la astronomía de rayos gamma no cesa de
depararnos sorpresas.
Los astrónomos creen haber descubierto un nuevo tipo de objeto en el Universo. No
sabemos aún qué son ni sus características, pero sí que son una fuente de rayos gamma
distinta a lo que conocíamos hasta ahora (los conocidos y no menos misteriosos
productores de estallidos gamma). A diferencia de estos últimos, su producción de rayos
gamma es constante.
El trabajo, publicado en la revista Nature por los doctores Daryl Macomb, David
Bertsch, David Thompson y Robert Hartman, del Goddard Space Flight Center, explica
que los rayos gamma, invisibles al ojo humano, son de hecho la más poderosa forma de
luz que existe. Los objetos que los generan "brillan" con una intensidad cientos de
millones de veces superior a los que emiten luz visible.
El catálogo de fuentes gamma obtenido por uno de los instrumentos instalados en el
observatorio espacial Compton GRO lista 271 pertenecientes a nuestra galaxia, de las
cuales 170 aún no han sido identificadas. De estas últimas, la mitad se encuentran
situadas en una banda estrecha a lo largo del plano de la Vía Láctea. Podría tratarse,
pues, de objetos de una clase conocida pero que brillan demasiado débilmente en otras
frecuencias como para localizarlos. También es posible que las emisiones en otras
longitudes de onda se vean oscurecidas por una especie de "niebla" cósmica, que no
afectaría a los rayos gamma.
El resto de las fuentes desconocidas se encuentra más cerca de la Tierra, siguiendo el
llamado cinturón estelar de Gould, y pertenece a la nueva clase de objeto mencionada. Su
verdadera naturaleza nos ofrece diversas posibilidades. Podría tratarse de agujeros negros
actuando como aceleradores de partículas, cúmulos de púlsares, e incluso estrellas tan
masivas (10 a 20 veces la masa solar) que generarían vientos estelares capaces de arrojar
y hacer chocar partículas de alta velocidad contra átomos de gas, produciendo rayos
gamma.
Información adicional: http://pao.gsfc.nasa.gov/gsfc/spacesci/structure/cgro.htm
http://science.nasa.gov/headlines/y2000/ast23mar_1.htm
Imagen: http://antwrp.gsfc.nasa.gov/apod/image/9811/anticenter_glastsim_big.gif
(Simulación del cielo visto a través del espectro gamma.) (Foto: Goddard SFC)
El petróleo que tenemos
Las estimaciones del U.S. Geological Survey corrigen al alza la cantidad de petróleo no
descubierto aún que podría estar disponible para su explotación.
En un mundo altamente dependiente del consumo continuado de combustibles fósiles, es
tan importante conocer cuánto petróleo, gas, etc., disponemos en la actualidad como
cuántos yacimientos quedan aún por descubrir. Las estimaciones varían, pero las últimas
realizadas por el U.S. Geological Survey indican una corrección al alza (un 20 por ciento)
en relación a la cantidad de reservas de petróleo disponibles, frente a un ligero descenso
de los recursos de gas en todo el mundo.
Parece haber más petróleo y gas en el Oriente Medio y frente a las costas de África
Occidental y Sudamérica Oriental de lo que se suponía con anterioridad. En cambio, hay
844
El Hijo de El Cronopio No. 76
menos petróleo y gas en Canadá y México, y mucho menos gas natural en la antigua
Unión Soviética.
Con la evolución de la tecnología y la mejor comprensión de los sistemas petrolíferos,
los yacimientos conocidos se pueden aprovechar mejor, mientras que los desconocidos
pueden ser valorados de forma más exacta. Tales predicciones tienen un importante
papel en la determinación de precios, en la seguridad mundial y en la elaboración de
políticas energéticas.
El informe del USGS (World Petroleum Assessment 2000) divide el mundo en unas mil
provincias petrolíferas, basándose principalmente en factores geológicos, para agruparlas
después en ocho regiones comparables a las también ocho regiones económicas definidas
por el Departamento de Estado estadounidense. De entre este millar de provincias, 406
poseen reservas de petróleo considerables.
La extracción y producción de petróleo dentro de campos ya descubiertos permite hallar
nuevos depósitos y reservorios desconocidos. Por eso, avances en la tecnología de
exploración y sondeo posibilita identificar nuevos objetivos dentro de los campos
actuales.
La tecnología de perforación permite también aprovechar petróleo y gas que antes no era
contabilizado por considerarse que estaba fuera de su explotación económica.
Información adicional en: http://www.usgs.gov/; http://energy.usgs.gov/
http://www.usgs.gov/public/press/public_affairs/press_releases/oiltext.html
El gran iceberg
La Antártida ha dado lugar a un nuevo y gigantesco iceberg que en los próximos días
podría evolucionar hacia el mar.
Como si quisiera recordarnos que el fenómeno del calentamiento global es una
posibilidad más que real, la Antártida permite el periódico desprendimiento de enormes
masas de hielo que después evolucionan en el océano hasta fundirse en aguas más
templadas.
El iceberg que acaba de desprenderse de la plataforma helada de Ross mide nada menos
que 272 km de largo por 40 km de ancho. Se trata, por supuesto, de uno de los más
grandes conocidos, claramente visible a través de las imágenes transmitidas por los
satélites meteorológicos.
El hielo perdido por la costa antártica en este episodio podría tardar entre 50 y 100 años
en volver a generarse. De hecho, los científicos habían observado la presencia de grietas
en la región desde hace tiempo, y parece que la rotura forma parte del proceso normal
por el cual se mantiene un equilibrio entre el crecimiento constante de la capa helada y
las pérdidas periódicas. El calentamiento global puede acelerar estas últimas, con lo que
el equilibrio se rompería, con graves consecuencias para la zona.
Antes de avanzar hacia el mar, el iceberg podría chocar varias veces contra la costa.
Existe la posibilidad de que ello ocasione su fragmentación. Algunos científicos ya están
modelando la trayectoria que podrían adoptar los restos después ya que podrían llegar a
adentrarse en una zona utilizada por los científicos para proveer de todo lo necesario a la
estación de McMurdo, lo cual dificultaría las operaciones. Las mareas y las corrientes
serán las responsables del destino final del iceberg.
Información adicional en:
http://uwamrc.ssec.wisc.edu/amrc/iceberg.html
845
El Hijo de El Cronopio No. 76
http://www.news.wisc.edu/newsphotos/iceberg.html
Imagen: http://www.nsf.gov/od/lpa/news/press/images/newiceberg3.gif
(Visión infrarroja desde el espacio del iceberg, tomada el 21 de marzo.)
(Foto: NOAA/Space Science and Engineering Center, University of Wisconsin-Madison)
Materiales "zurdos"
Los físicos han empezado a producir materiales compuestos con un comportamiento muy
especial.
Físicos financiados por la National Science Foundation han iniciado la creación de
nuevos materiales compuestos cuyas propiedades son distintas a lo habitual. A tales
materiales se les puede llamar "zurdos" porque presentan invertidas muchas de las
características físicas de sus homólogos ordinarios, ante la acción de la radiación
electromagnética.
Por ejemplo, los materiales "zurdos" tienen la habilidad de invertir el efecto Doppler, el
principio que cambia la frecuencia de las ondas cuando la fuente se mueve. Recordemos,
por ejemplo, el sonido de un tren, que podemos escuchar más agudo cuando se acerca, y
más grave cuanto se aleja del oyente.
Las ecuaciones de Maxwell, que describen la relación entre los campos magnético y
eléctrico, sugieren que la radiación de microondas o la luz mostrarán un efecto contrario
en esta nueva clase de materiales, cambiando hacia frecuencias más bajas cuando la
fuente se aproxime. Las ecuaciones de Maxwell también indican que una lente hecha con
estos materiales, en vez de dispersar la radiación electromagnética, la enfocará cuando
ésta pase por ella.
Los científicos Sheldon Schultz y David Smith de la University of California han
trabajado en todo ello utilizando un material compuesto producido a partir de una serie
de anillos de cobre delgados y de cables también de cobre entrelazados de forma paralela
a los anillos. Los resultados verifican que el material posee una permitividad eléctrica y
una permeabilidad magnética negativas, cualidades que en la naturaleza suelen ser
positivas.
Este metamaterial forma parte de una clase nueva en la que la forma en que dos o más
materiales son mezclados o distribuidos, a un nivel muy preciso, puede llegar a afectar a
las propiedades finales del compuesto.
Los científicos piensan que tendrá aplicaciones en áreas tales como las transmisiones de
microondas, diseño de antenas y compuestos ópticos.
Información adicional en: http://www.nsf.gov/
Planetas flotantes
Los astrónomos han descubierto la existencia de varios planetas que no evolucionan
alrededor de ninguna estrella.
La más completa observación llevada a cabo hasta ahora de una región particular de la
Nebulosa de Orión ha puesto de manifiesto la existencia de al menos una docena de
planetas "flotantes", situados lejos de la influencia de una estrella, así como de más de un
centenar de lo que llamamos enanas marrones. El descubrimiento se produjo mediante la
cámara del United Kingdom Infrared Telescope (UKIRT), en Hawai, gracias a los
846
El Hijo de El Cronopio No. 76
trabajos de Philip Lucas, de la University of Hertfordshire, y de Patrick Roche, de la
University of Oxford.
Las enanas marrones son objetos que iban a convertirse en estrellas pero que nunca
acumularon suficiente masa. Con menos del 8 por ciento de la masa de nuestro Sol, no
son capaces de producir suficiente calor interno como para desencadenar reacciones
termonucleares típicas (consumo de hidrógeno). A pesar de todo, pueden producir algo
de energía nuclear durante un corto espacio de tiempo, consumiendo deuterio, un isótopo
del hidrógeno, para lo cual sólo necesitan tener una masa de un 1,3 por ciento la del Sol
(13 masas jovianas). Más abajo de 13 masas como la de Júpiter el objeto se considerará
un planeta (principalmente gaseoso).
La exploración en el infrarrojo del cúmulo del Trapecio, en Orión, ha puesto de
manifiesto 13 de estos planetas. El más pequeño tiene 8 masas jovianas. Sólo emiten
calor residual y permanecen "flotando" libremente en una zona de creación de estrellas,
lejos de cualquier dependencia gravitatoria con respecto a ninguna de ellas.
Con anterioridad, astrónomos japoneses habían descubierto dos planetas más de este tipo
en la nebulosa del Camaleón, lo cual implica que la generación de estos objetos, como el
de las estrellas, es un fenómeno relativamente frecuente.
Tanto dichos planetas como las estrellas enanas marrones se enfrían muy rápidamente
después de su formación, de modo que para poderlos ver es preciso utilizar técnicas
infrarrojas, aprovechando que todavía son jóvenes y están emitiendo algo del calor
residual del proceso de creación. La edad de los objetos contemplados no supera el
millón de años, fácilmente comparable con los casi 5.000 millones que tiene la Tierra.
Los espectros obtenidos sugieren la presencia en su superficies gaseosas de vapor de
agua a una temperatura de 2.700 grados centígrados.
Imagen: http://www-astro.physics.ox.ac.uk/~pwl/trapl.jpg
(Una imagen infrarroja de la parte central de la nebulosa de Orión, a partir de tres
fotografías tomadas con la cámara UFTI.) (Foto: UKIRT)
Finalizado el genoma de la mosca Drosophila
Los científicos no sólo se preocupan del genoma del Hombre. El conocimiento del
código genético de la mosca de la fruta, mucho más simple, nos ayudará a resolver
enfermedades puramente humanas.
La secuenciación del genoma de la mosca de la fruta (Drosophila melanogaster) se ha
visto completada en un tiempo récord. Durante 90 años, este insecto ha servido para
realizar muchos descubrimientos genéticos, incluyendo, en 1916, que los genes se
encuentran localizados en los cromosomas. Ahora, además, los científicos conocen las
posiciones de los 13.601 genes individuales de la conocida mosca.
El genoma de la D. melanogaster se ha convertido en el más grande completamente
secuenciado disponible hasta la fecha. La tarea fue iniciada en 1998 por Gerald Rubin, de
la University of California y el Howard Hughes Medical Institute (HHMI), y por J. Craig
Venter, de Celera Genomics. En esa fecha, los mapas del genoma de la mosca eran
incompletos, con sólo un 20 por ciento de la secuenciación finalizada.
Los dos científicos emplearon una nueva técnica más rápida que había funcionado en
bacterias, obteniendo un rotundo éxito. La D. melanogaster posee 250 millones de bases
en su genoma, distribuidas en 5 cromosomas.
847
El Hijo de El Cronopio No. 76
Además de servir como entrenamiento para aplicar dichas técnicas en el genoma del
ratón y en el del propio Hombre, la secuenciación del genoma de la mosca Drosophila
tendrá aplicaciones inmediatas. En un grupo de 289 genes humanos implicados en
enfermedades podemos encontrar 177 muy similares a los genes de la mosca de la fruta,
incluyendo algunos que juegan un papel en diferentes tipos de cáncer, enfermedades en
la sangre, neurobiológicas, desórdenes del sistema inmunológico, etc. Dado que la
química de ambos sistemas es tan similar, la mosca puede aportar pistas para entender
cómo resolver los problemas que afectan a las personas. Por ejemplo, será más fácil
encontrar genes que eliminen tumores en la mosca que en un ratón o en el propio
Hombre. Además, con la mosca se pueden hacer experimentos genéticos impensables
sobre pacientes humanos.
En la actualidad, el proyecto del genoma humano pretende una resolución con un error
por cada 10.000 pares de bases. Sin embargo, los trabajos con la Drosophila sugieren
que será posible alcanzar la cota de tan sólo un error por cada 100.000.
Información adicional en: http://www.celera.com/; http://www.fruitfly.org/
http://www.lbl.gov/Science-Articles/Archive/drosophila-sequenced.html
http://www.hhmi.org/news/rubin3.htm
Imagen: http://www.lbl.gov/Science-Articles/Archive/images1/fruitfly-sequenced.jpg
(La Drosophila melanogaster) (Foto: Lawrence Berkeley National Lab.)
Ciclos oceánicos
Recientes investigaciones confirman el rápido desarrollo del calentamiento global en un
futuro inmediato, pero esta vez por causas naturales.
Científicos de la Scripps Institution of Oceanography han descubierto que los cambios
climáticos ocurridos en el pasado pueden ser seguidos con facilidad gracias a los ciclos
que han afectado a las condiciones oceánicas durante miles de años. Dichos ciclos
sugieren que la Tierra se encuentra en estos momentos en un período de crecimiento
natural de las temperaturas globales, lo cual, unido al efecto invernadero causado por las
actividades del Hombre, empujará al planeta hacia una era de rápido calentamiento
global.
Las mareas oceánicas son los motores que impulsan los mencionados ciclos, cuya
periodicidad es de unos 1.800 años. En la actualidad, nos hallamos en un proceso de
incremento de temperaturas que empezó hace varios cientos de años, que aumentó
especialmente durante los años setenta y que continuará durante los próximos cinco
siglos, momento a partir del cual debería volver a descender si el efecto invernadero no
lo impide.
Las mareas fuertes influyen en el clima debido a que éstas son capaces de mezclar
verticalmente más agua, transportando la que se encuentra más fría hasta la superficie.
Esto enfría a su vez la atmósfera y la tierra, bajando las temperaturas de forma global. El
ciclo de 1.800 años responde a los cambios graduales de la alineación astronómica entre
el Sol, la Luna y la Tierra.
La pequeña edad del hielo del 1400 al 1700 después de Cristo, las capas de polvo
depositadas con 1.800 años de diferencia en sedimentos de lagos en Minnesota, las
grandes inundaciones en la zona del Amazonas hacia el 2.200 antes de Cristo, etc., son
sólo algunos ejemplos de episodios climáticos que parecen respetar estos ciclos.
Información adicional en: http://www.nsf.gov/
848
El Hijo de El Cronopio No. 76
Gases del pasado extraterrestre
Los científicos podrán estudiar muestras de gases procedentes del espacio gracias a que
quedaron atrapados en estructuras huecas llegadas a la Tierra.
Los investigadores han encontrado en arcilla sedimentaria diversas moléculas que
encierran en su interior muestras de gases extraterrestres.
Las citadas moléculas se denominan coloquialmente bolas o esferas Bucky, en honor a
Buckminster Fuller, el diseñador de un domo geodésico que se parece a la estructura de
la molécula, también llamada fullereno. El fullereno tiene forma de jaula hueca formada
por 60 o más átomos de carbono.
El hallazgo de fullerenos en varios lugares del mundo ha permitido su análisis químico.
En su interior se han encontrado gases nobles extraterrestres atrapados, entre ellos helio.
Los fullerenos estudiados llegaron a la Tierra hace 65 millones de años, durante el
impacto del asteroide que se cree acabó con los dinosaurios. La capa de arcilla que se
formó del polvo arrojado por el impacto cubrió todo el planeta.
El helio procedente de la atmósfera o de las emisiones de los volcanes es muy distinto
del encontrado en un meteorito. El helio terrestre posee una pequeña proporción de helio
3 (un isótopo con dos protones y un neutrón) y sobre todo helio 4. En cambio, el helio
cósmico es casi todo helio 3. Se trata del helio que existía cuando se formó el sistema
solar, y por eso su análisis es tan interesante, ya que además sugiere un origen espacial
para los fullerenos. Si éstos se hubiesen formado durante el impacto, habrían contenido
helio terrestre.
La teoría también sugiere que los gases atmosféricos y los compuestos orgánicos
pudieron llegar a la Tierra durante el choque de asteroides y cometas, durante la fase
inicial de la historia de nuestro planeta.
La capa de arcilla investigada es la misma que contiene iridio, un material de claro
origen extraterrestre, así como materiales que han sufrido temperaturas de más de 2.000
grados centígrados y presiones de 400.000 atmósferas debido al impacto sufrido por el
objeto que vino del espacio.
Información adicional en: http://www.pnas.org; http://www.hawaii.edu/
http://george.arc.nasa.gov/dx/basket/pressrelease/00_20AR.html
Imagen: http://spacescience.com/headlines/images/buckyballs/bucky.jpg
(Representación gráfica de la estructura de un fullereno.) (Foto: Marshall SFC)
La Ciencia desde el Macuiltépetl/ Ramón Llull
Por Manuel Martínez Morales
En el grabado de Rembrandt, titulado El sabio inspirado, puede verse a un viejo
meditabundo que dirige su mirada hacia un círculo cuya superficie muestra ciertas
combinaciones de letras. En el centro figuran las letras INRI, monograma de Cristo. Este
tipo de rueda, muy popular en la Edad Media, tuvo su origen e inspiración en la tradición
judía mística conocida como la cábala. La idea fundamental que originó este artefacto es
que las letras representan ciertos elementos o atributos que, combinados de diversas
maneras, pueden conducir, a quien conozca el secreto significado de esto símbolos, a un
849
El Hijo de El Cronopio No. 76
estado superior de conocimiento. Se atribuye su invención al filósofo y místico catalán
Ramón Llull (1232-1316).
Este singular personaje aspiraba a reunir en una sola doctrina las religiones cristiana,
musulmana y judía partiendo de los principios comunes a las tres. Para Llull, el principio
aceptado en común por cristianos, musulmanes y judíos, sobre el cual basó su arte, fue la
teoría de los elementos. Según esta teoría, todas las cosas del mundo natural se
componían de cuatro elementos: tierra, agua, aire y fuego. Extendiendo este principio, y
siguiendo la tradición cabalística, también el mundo de la Divinidad puede conocerse
plenamente si se conocen los Divinos Nombres o Atributos. En una de las versiones más
antiguas de la cábala se explicaba la creación como un proceso derivado de diez
emanaciones divinas y de las 22 letras del alfabeto hebreo; combinadas, conducían a los
32 caminos divinos de la sabiduría secreta. Llull basó su arte en los atributos de Dios que
eran reconocidos al igual por judíos, cristianos y musulmanes. Estos atributos eran:
bonitas (bondad), magnitudo (grandeza),eternitas (eternidad), potestas (poder), sapientia
(sabiduría), voluntas (voluntad), virtus (virtud o fuerza), veritas (verdad) y gloria.
Pero la verdadera aportación de Llull consistió en que asignaba letras a conceptos tan
abstractos como lo son los nombres, atributos y dignidades ya mencionadas; en el arte de
Llull se convierten en las nueve letras BCDEFGHIK. Llull las coloca en ruedas
concéntricas que giran de manera que se obtengan todas las combinaciones posibles.
Para decirlo en términos modernos, Llull construyó un álgebra de la divinidad. Uno de
sus biógrafos, Frances A. Yates, nos cuenta:
Y como la bondad, grandeza, etc., de Dios se manifiesta en todos
los niveles de la creación, con las figuras de su arte Llull puede
ascender y descender por todo el universo, encontrando siempre de
la B a la K y sus relaciones. Las encuentra en la esfera superceleste,
a nivel de los ángeles; en la esfera celeste, a nivel de las estrellas; en
el hombre, nivel humano; y por debajo del hombre en los animales,
plantas y materia toda de la creación. La teoría elemental entra en
acción en estos niveles: si los cuatro elementos ABCD, estas letras
actúan conjuntamente con BCDEFGHIK, relación que asciende por
la escala de la creación hasta las estrellas, en las cuales existen
formas de los elementos.
Veamos ahora de dónde proviene el encanto y el entusiasmo despertados en Llull por su
invento. Para empezar, el número total de permutaciones diferentes que pueden formarse
a partir de las nueve letras de la Divinidad son 362 880; de tal manera que si el sabio
analizara diariamente digamos 100 de ellas, necesitaría cerca de 10 años de su vida para
subir y bajar del universo. Si a esto agregamos que Llull extendió su sistema para incluir
más de nueve divinidades y también tres figuras geométricas, nos daremos cuenta de
que, para todos los fines prácticos, el catalán obtenía un número infinito de
combinaciones. Y para lograr que este método fuera eficaz, era necesario mecanizarlo, lo
que Llull logró con su rueda de letras. Haber inventado combinaciones por simple
esfuerzo de la imaginación no lo hubiera llevado muy lejos.
Actualmente, uno de los aspectos fundamentales, no estrictamente esencial de las
matemáticas es la manipulación de símbolos abstractos, según las reglas bien
establecidas y, además, se da el caso de que existen programas de computadoras que
realizan estas operaciones. Claro que, al igual que las letras en la arcaica rueda de Llull,
850
El Hijo de El Cronopio No. 76
los símbolos de las matemáticas modernas pierden todo sentido si no tienen un referente
concreto.
Ramón Llull estaba animado por el noble ideal de unir a los seguidores de diferentes
religiones, en torno a una doctrina común. Su notable rueda se supeditaba a tal fin. De
Llull hemos heredado su ars magna, pero aún tenemos mucho que aprender de su arbor
scientiae (árbol del conocimiento) y de la Liber de ascensu et descensu intellectus (Libro
de ascenso y descenso del conocimiento).
El Cabuche (crónicas de la Facultad de Ciencias)/ Sólo para niños
El presente Cabuche realmente es un comercial. Comercial necesario cuando estamos a
punto de cumplir dos años de publicar El Hijo de El Cronopio; es oportuno recordar que
nace como una versión escrita de lo que era el noticiero radiofónico La Ciencia en San
Luis que semanalmente se transmitió durante cinco años en los que se elaboraron 260
guiones. Se transmitía por Radio Universidad AM y FM, los lunes y luego los viernes a
las 14:00 y 17:00 horas. Esto significa que ambas actividades suman siete años en los
que la Facultad cumple con una de las funciones universitarias que es la difusión. Ahora
llevamos publicados 76 números del boletín, como pueden comprobarlo si ven la
portada. Esta actividad forma parte de un programa de difusión de educación y cultura
científica que hace más de diez años se emprendió en nuestra Facultad y que se trató en
algún Cabuche. En este renglón somos, casi la única escuela de la universidad, que dirige
sistemáticamente actividades al público en general, incluyendo a los niños. Siguiendo
con esta línea a partir de esta semana iniciamos la versión infantil del Boletín que llevará
como nombre El Cronopio Infantil, en un formato de cuadernillo en donde se tratará
alguna de las notas del boletín adaptadas para su comprensión por los niños. Cada
número contendrá una noticia con su respectivo tema o temas desarrollados esperando
sean de utilidad en escuelas primarias. El boletín se editará quincenalmente y será
distribuido entre el público interesado en utilizarlo y leerlo, para lo cual se solicita lo
hagan saber apuntándose con la Sra. Lucha en su oficina del tercer piso del edificio 2 de
la Facultad de Ciencias o al teléfono 826 23 87. Esta de moda los espectáculos
exclusivos para un género (sólo para hombres, sólo para mujeres) así que este boletín
será sólo para niños y niñas (de todas las edades claro). Invitamos a todos los interesados
en participar en los boletines en la forma que deseen a fin de poder mantener este
esfuerzo de comunicación que ha emprendido la Facultad. Cualquier comentario,
sugerencia o contribución favor de hacerla llegar.
La canción es la amiga/que me arropa y
después me desabriga/La más clara y obscura,
la más verde y madura,/la más íntima, la más
indiscreta/La canción me da todo aunque no me
respeta/Se me entrega feliz cuando me viola/La
canción es la ola que me deja y me hunde/que
me fragua lo mismo que me funde/La canción
compañera virginal y ramera, la canción
851
El Hijo de El Cronopio No. 76
Benemérita Universidad Autónoma de Puebla
Facultad de Ciencias Físico Matemáticas
Grupo de Investigación Educativa (GrInvEd)
VIII Taller Internacional
"Nuevas Tendencias en la Enseñanza de Física"
25 a 28 de mayo de 2000, Puebla, Pue, México
Biblioteca Niels Bohr y Laboratorios Edificio 8, FCFM,
Ciudad Universitaria.
CURSOS (dos sesiones de 90 minutos)
Contenidos procedimentales y actividades de enseñanza
Antonio de Pro Bueno (España)
If we could see the free electrones
(Sí pudiéramos ver los electrones libres)
Atsushi Katsuki (Japón)
Enhanced PRISMS - Activities with a purpose
(Proyecto PRISMS enriquecido - Actividades con un propósito)
Roy Unruh (EUA)
Learning with and design of integrated simulation learning
environments
(Aprendizaje con y diseño de ambientes integrados de aprendizaje con simulación)
Ton de Jong (Holanda)
Innovations in Austrian physics texts books
(Innovaciones en libros de texto de física austriacos)
Leopold Materitch (Austria)
Powerful ideas in physical science
(Ideas poderosas en física)
Robert Poel (EUA)
FÍSICA NOCTURNA (dos sesiones de 90 minutos)
Teaching physical optics using household items: scattering, reflection and
refraction
(Enseñando óptica física con objetos caseros: dispersión, reflexión y refracción)
Eugene Hecht (EUA)
852
El Hijo de El Cronopio No. 76
CONFERENCIAS (una sesión de 50 minutos)
Aprendizaje de física en centros interactivos de ciencia
María Helena Caldeira (Portugal)
On the mythical rol of Edwin Hall: who says there are two kinds of charge
(Sobre el mítico papel de Edwin Hall: "¿quién dice que hay dos clases de carga?)
Dewey Dykstra (EUA)
Teología y enseñanza de la ciencia
Salvador Jara Guerrero (México)
Física para ciudadanos: ¿qué nos trae internet?
Josip Slisko (México)
Se entregará memoria del VIII Taller. Las exposiciones que no se realicen en castellano
contarán con traducción
Inscripción $800.00. Para mayores informes, comunicarse a la Facultad de Ciencias
Físico Matemáticas, Tel: (012) 233 25 33; Fax: (012) 234 24 03)
Correo electrónico: taller@fcfm.buap.mx
NUEVA EXHORTACIÓN
Como podrán observar, en estos momentos se efectúan trabajos de
remozamiento en la Facultad. Principalmente en lo que se refiere a pintura.
Por este medio se hace un llamado a toda la comunidad de la Facultad de
Ciencias y visitantes esporádicos, a no colocar ningún tipo de anuncio en las
paredes de los edificios de esta Facultad, el pegamento de la cinta scotch
(diurex) remueve la pintura y mancha las paredes. Los conminamos a
conservar nuestros espacios.
La persona que sea sorprendida colocando en las paredes cualquier anuncio,
podrá ser sancionada. Exhorta a tus compañeros y maestros a evitar dañar
las paredes.
En fechas próximas se implementarán espacios adecuados para tal efecto.
853
El Hijo de El Cronopio No. 76
II Verano de la Ciencia de la Región Centro
y
VI Verano de la Ciencia de la UASLP
del 5 de junio al 18 de agosto
Alumnos interesados en participar en los veranos de la ciencia, mediante
una estancia con un investigador de instituciones y centros de investigación
de los estados de San Luis Potosí, Zacatecas, Aguascalientes, Guanajuato,
Querétaro, Coahuila, pueden pasar por información, solicitudes y consulta
del directorio de investigadores anfitriones al Laboratorio de Materiales de
la Facultad (segundo piso del edificio 1)
XVIII FIS-MAT
Gustavo Del Castillo y Gama
SE INVITA A LOS ALUMNOS QUE DESEEN PROPONER PROBLEMAS Y
PREGUNTAS DE FÍSICA Y MATEMÁTICAS EN LOS NIVELES DE PRIMARIA,
SECUNDARIA Y PREPARATORIA PARA SER CONSIDERADOS EN EL XVIII
FIS-MAT, HACERLOS LLEGAR A LA SRA. LUCHA O AL LABORATORIO DE
MATERIALES CON GERARDO ORTEGA O EL FLASH.
FECHA LIMITE: LUNES 22 DE MAYO
A LAS PROPUESTAS SELECCIONADAS SE LES ENTREGARÁ UN PEQUEÑO
RECONOCIMIENTO Y A TODOS LOS PARTICIPANTES CONSTANCIA DE
PARTICIPACIÓN.
854
Boletín
El Hijo de El Cronopio
Facultad de Ciencias
Universidad Autónoma de San Luis Potosí
No.77, 22 de mayo de 2000
Boletín de información científica y
tecnológica de la Facultad de Ciencias
Publicación semanal
Edición y textos
Fís. J. Refugio Martínez Mendoza
Cualquier información, artículo o
anuncio deberá enviarse al editor
e-mail: flash@galia.fc.uaslp.mx
Este boletín y números anteriores,
pueden consultarse por Internet en la
página de la UASLP:
http://phobos.dtc.uaslp.mx/publi.html
Noticias de Espacio
La sonda Galileo ha completado un nuevo
sobrevuelo de la luna joviana Ganimedes
(20 de mayo). El tercer encuentro de la
Galileo Millenium Mission ha sido también
la quinta vez que la nave ha visitado este
satélite desde su llegada a la órbita de
Júpiter, y el segundo sobrevuelo más
cercano, a unos 808 km de su superficie y a
una velocidad de 11,3 km/s. La zona que ha
atravesado la Galileo es
altamente radiactiva, de
manera
que
los
controladores están a la espera de saber si el
vehículo ha podido llevar a cabo todas sus
tareas programadas sin sufrir ningún
contratiempo que haya afectado a sus
sistemas electrónicos. Más información en:
http://galileo.jpl.nasa.gov
http://www.jpl.nasa.gov/galileo
También
el
satélite
meteorológico
geoestacionario GOES-11 ha tomado
fotografías de la Tierra. En realidad, se trata
de las primeras desde que fue lanzado al
espacio el pasado 3 de mayo. La visión de la
imagen inicial no hace sino confirmar que
sus sistemas funcionan a la perfección.
Estructuras meteorológicas más detalladas
que antes están ahora a disposición de los
científicos. De momento, el GOES-11
permanecerá "almacenado" en órbita, a la
espera de que sea necesaria su participación
para sustituir a los actuales GOES-8 y 10. El
21 de mayo, el GOES-11 alcanzará su
posición geoestacionaria provisional. Más
información e imágenes en:
http://pao.gsfc.nasa.gov/gsfc/earth/goesl/goe
sl.htm
http://www.osei.noaa.gov/Events/Unique/Fu
llDisk/UNIgoes11138_G11.jpg
http://pao.gsfc.nasa.gov/gsfc/EARTH/PICT
URES/GOES/GOESLfirst.jpg
El Hijo de El Cronopio No. 77
Noticias de la Ciencia y la Tecnología
La detección de ondas gravitatorias
La utilización de sistemas láser podría implicar un importante paso adelante en la
detección y medición de las misteriosas ondas gravitatorias.
Los astrónomos han estado observando el Universo con relativo éxito desde hace siglos.
Sin embargo, siempre se han encontrado limitados por su instrumental. Al principio, la
única parte del espectro electromagnético a la que podían acceder era la dominada por la
luz visible. Más recientemente, por fortuna, los nuevos sensores y telescopios les han
permitido acceder a los rayos infrarrojos, X, gamma, ultravioleta e incluso a las ondas de
radio, todo ello invisible a nuestros ojos.
Los objetos astronómicos que conocemos emiten estas radiaciones con mayor o menor
intensidad, lo que posibilita su estudio. Pero aún hay una buena parte del Universo que
queda fuera de nuestro alcance. Lo que denominamos materia oscura apenas produce
radiación electromagnética, de modo que no podemos conocer su exacta naturaleza con
los instrumentos actuales.
Sin embargo, hay algo que sí podría ayudarnos: las ondas gravitatorias. Los objetos
estáticos, incluso los más grandes, no emiten este tipo de ondas, pero como Einstein
predijo, todos aquellos que son acelerados sí las producen, como también cuando fuertes
campos gravitatorios interactúan dinámicamente ente sí. Astros como las supernovas, o
procesos como la fusión o colisión de estrellas de neutrinos y agujeros negros, son
grandes productores de ondas gravitatorias.
Si fuésemos capaces de detectarlas y medirlas, obtendríamos información de dichos
cuerpos aunque éstos no emitiesen ningún otro tipo de radiación. La citada detección, no
obstante, es muy difícil. Las ondas gravitatorias son muy débiles, y si bien al pasar junto
a la Tierra pueden llegar a mover objetos, sólo lo harán en un factor equivalente a
1/10.000 veces el diámetro de un protón, y durante menos de diez milisegundos.
Su extrema debilidad es un reto para los científicos que desean detectarlas. En la
actualidad se barajan dos sistemas. Uno implica el uso de una barra de metal de niobio o
aluminio, refrigerada a muy bajas temperaturas, la cual "escucharemos" vibrar debido a
la distorsión producida por las ondas gravitatorias.
El otro sistema emplea láseres. Un rayo de este tipo es dividido en dos mitades,
haciéndolas rebotar adelante y atrás gracias a espejos muy separados, lo cual incrementa
la sensibilidad del detector. Los dos rayos separados pueden ser entonces comparados
entre sí. Pequeños movimientos causados por el estrechamiento y la opresión del
espacio debidos a las ondas gravitatorias deberán afectarles de manera distinta, siendo
ello detectable como un patrón de interferencia creado al recombinar los dos rayos láser.
La tecnología necesaria para ello es muy avanzada. Es necesario un láser de 100 vatios
que sea muy estable y perfecto. Dos grupos universitarios (University of Adelaide y
Stanford University) están trabajando en el problema y compiten por obtener una
solución lo antes posible.
Las peculiaridades de las ondas gravitatorias son tales que un único detector no puede
decirnos de dónde procede la señal. Son necesarios al menos dos, y después luchar
duramente para filtrar el ruido de fondo. Se necesitarán cuatro detectores, lo más
separados posible, para conseguir la información direccional completa sobre la fuente
858
El Hijo de El Cronopio No. 77
que produce las ondas. El coste podría ser elevado, pero los beneficios serán inmensos,
ya que está en juego nuestro conocimiento exacto sobre cómo funciona el Universo.
Información adicional en: http://www.adelaide.edu.au/PR/gravity_waves00.html
Imagen: http://www.adelaide.edu.au/PR/media_photos/mostermeyer.jpg
(Martin Ostermeyer instala diodos de láser infrarrojo para proporcionar la energía que
necesitará el láser estable.) (Foto: University of Adelaide)
Cómo lucha la bacteria
Muchos de los microorganismos que producen enfermedades vencen el poder letal del
oxígeno gracias a una proteína. El descubrimiento podría llevarnos a obtener antibióticos
mucho mejores.
El oxígeno es un veneno mortal para algunas de las bacterias que causan enfermedades
en el Hombre. Sin embargo, éstas no parecen resultar afectadas, y los científicos se
preguntan cómo lo hacen.
Los microorganismos anaerobios, aquellos que crecen en ausencia de oxígeno, pueden
detectar su presencia en el medio ambiente y huir rápidamente para evitar su muerte. El
descubrimiento de una proteína especial podría explicar este proceso.
Donald M. Kurtz, Jr., de la University of Georgia, cree que dicha proteína actúa como
sensor de oxígeno, poniendo sobre aviso a la bacteria. Este tipo de microorganismos
puede producir enfermedades como la gingivitis o la gangrena, de modo que una forma
de eliminarlos podría ser la desactivación de su mecanismo de "alarma".
Desde el hallazgo inicial, los biólogos han encontrado proteínas similares en doce
bacterias distintas, tanto aeróbicas (que pueden usar el oxígeno) como anaeróbicas. Esto
es importante, ya que existen bacterias peligrosas aeróbicas, algunas de las cuales pueden
crecer también de manera anaeróbica, con lo que podrían ser igualmente vulnerables.
Así, sería posible elaborar un medicamento que fuera capaz de desactivar la proteína que
detecta el oxígeno, y dejar entonces que este elemento químico natural acabase con la
enfermedad sin posibilidad de que desarrolle ninguna resistencia.
La proteína en cuestión está presente en otros organismos más desarrollados, como
algunos gusanos. En la bacteria, sirve para detectar y evitar el oxígeno, mientras que en
el gusano actúa como reserva de almacenamiento de este elemento cuando el animal lo
necesita al evolucionar en lugares donde es escaso.
Las bacterias debieron desarrollar este mecanismo para su supervivencia. La atmósfera
primigenia de la Tierra no contenía apenas oxígeno, con lo que los organismos que
aparecieron en ella eran anaerobios. Cuando las plantas y otros seres vivos que
desarrollan la fotosíntesis inyectaron oxígeno en la atmósfera de forma masiva, sólo los
anaerobios capaces de protegerse y adaptarse pudieron sobrevivir.
Información adicional en: http://www.acs.org/
Io ensucia el sistema solar
Los volcanes activos de la luna joviana Io expulsan polvo que llega a extenderse por todo
nuestro sistema planetario.
Los espectaculares volcanes de Io, una de las lunas galileanas de Júpiter, expulsan
constantemente gases y polvo incandescente al espacio. Su baja gravedad posibilita que
859
El Hijo de El Cronopio No. 77
este material quede atrapado primero en el sistema joviano, pero que después sea
expulsado hacia el resto del Sistema Solar.
A esta conclusión han llegado los científicos que trabajan en la misión Galileo, una
sonda que se encuentra desde hace varios años en órbita alrededor de Júpiter.
Amara Graps, del Max Planck Institute of Nuclear Physics de Heidelberg, y sus colegas,
han analizado la frecuencia de los impactos de partículas de polvo contra el subsistema
de detección de la sonda. La estadística indica que los picos de actividad coinciden con el
período de la órbita de Io (unas 42 horas) y de la rotación de Júpiter (10 horas).
El movimiento de las corrientes de polvo expulsado desde los volcanes de Io se ve
grandemente influenciado por los fuertes campos magnéticos de Júpiter. Las partículas
son muy pequeñas, como las del humo de un cigarrillo, y al ser aceleradas pueden
alcanzar distancias de hasta 290 millones de kilómetros del planeta, extendiéndose por
una buena parte del Sistema Solar. En algunos casos pueden llegar a escapar incluso de
él y unirse a la población interestelar.
El fenómeno es particularmente interesante ya que proporciona pistas de cómo era el
sistema planetario en sus orígenes. Durante la fase de formación, el polvo era mucho más
abundante que ahora, siendo influido por los campos magnéticos solares como ocurre en
la actualidad en Júpiter. El comportamiento de estos granos de polvo primitivos podría
haber desencadenado procesos que nos habrían llevado a la formación de los planetas y
sus lunas.
La actividad del polvo joviano aporta información ni directa sobre los volcanes activos de
Io, aunque el satélite no esté a la vista de los instrumentos de la Galileo.
Información adicional en: http://galileo.jpl.nasa.gov/news/release/press000503.html
http://galileo.mpi-hd.mpg.de/~graps/nature2000/press.html
Imagen: http://galileo.mpi-hd.mpg.de/~graps/nature2000/io_big.jpg
(Io y sus volcanes.) (Foto: JPL)
El verdadero reflejo de las emociones
Si quiere conocer las verdaderas emociones de su interlocutor quizá deba prestar mayor
atención a su rostro.
Cuando escuchamos a otra persona que nos habla, solemos prestar una atención
preponderante a la zona baja de su cara. Si bien esto es socialmente adecuado, estamos al
mismo tiempo perdiendo la posibilidad de conocer sus verdaderos sentimientos.
La zona baja, que incluye la nariz, los labios y las mejillas, se muestra menos activa que
la alta (ojos, cejas y frente), cuando el interlocutor trata de engañarnos o ocultarnos sus
verdaderas emociones. El viejo adagio que dice que los ojos son el espejo del alma, pues,
podría no andar demasiado desencaminado, según manifiesta Calin Prodan, un neurólogo
del University of Oklahoma Health Sciences Center.
Los humanos aprendemos en la niñez a manipular nuestras emociones faciales para
hacerlas apropiadas en una determinada situación social. Con el tiempo, esto nos permite
también mostrar un comportamiento engañoso. Por ejemplo, el trabajador molesto con su
superior no reflejará este sentimiento sino que en su lugar esbozará una sonrisa si de lo
que se trata es de pedir un aumento de sueldo.
Para entender mejor el sistema de reconocimiento que emplea el cerebro a la hora de
procesar las emociones faciales, los investigadores mostraron a varios voluntarios,
brevemente, un total de 30 dibujos esquemáticos de caras humanas. Dichos dibujos
860
El Hijo de El Cronopio No. 77
representaban diferentes emociones, como alegría, tristeza, enfado, sorpresa, miedo,
neutralidad, etc.
Los participantes emplearon en cada caso su campo de visión izquierdo o derecho. La
principal conclusión es que casi todos ellos se basaron en las particularidades de la zona
baja del dibujo cuando la información visual era procesada por el hemisferio izquierdo
del cerebro (sistema social). La zona alta del dibujo, en cambio, era procesada
principalmente por el hemisferio derecho (sistema primario).
La gente se fija en la zona baja de la cara del interlocutor de forma natural, ya que ayuda
a entender la conversación, sobre todo en ambientes ruidosos. También hay algunas
convenciones sociales en ciertas culturas que consideran inaceptable mirar directamente
a los ojos, ya que ello podría ser interpretado como un comportamiento agresivo o
amenazador, como se observa en determinadas especies animales.
Sin duda, deberemos educarnos mejor a nosotros mismos, prestando mayor atención a la
zona superior del rostro de las personas, si lo que queremos es llegar a conocer su
verdadero estado emocional.
Información adicional en: http://www.aan.com; http://www.aan.com/neurovista
Luchando contra el insomnio
Si no puede dormir, hay otras cosas que puede hacer, además de contar ovejas.
La ajetreada vida moderna altera tanto nuestro organismo que en ocasiones algo tan
fundamental como el dormir se convierte en un auténtico problema. El insomnio debe
afrontarse con decisión para garantizar que el cuerpo goce siempre de un oportuno
descanso diario.
Por supuesto, contar ovejas no es la única solución para estos casos, por otra parte más
numerosos de lo que parece. Una de cada tres personas, en países industrializados, puede
padecer insomnio.
Según un experto de la Washington University School of Medicine, el problema se puede
resolver de forma relativamente sencilla. Para Hrayr P. Attarian, el insomnio es una falta
de calidad en el sueño, no necesariamente la ausencia de éste, ya que algunas personas
pueden dormir pocas horas y a pesar de todo encontrarse perfectamente bien a la mañana
siguiente.
Si no es afrontado de forma profesional, el insomnio puede producir una gran diversidad
de problemas. Por ejemplo, puede desencadenar un uso exagerado de medicamentos, un
abuso del alcohol, un excesivo tratamiento con estimulantes, dolores de cabeza, de
estómago, accidentes de automóvil o ausencias y disminución de la productividad en el
trabajo.
Las causas más comunes del insomnio son varias. Una de ellas es el condicionamiento.
Por ejemplo, si nos quedamos despiertos durante varias noches, preocupados por el pago
de las facturas, una vez resuelto el problema nuestro cuerpo aún se encuentra
condicionado y seguirá sin dormir. El estilo de vida también influye. Si no dormimos
bien empezaremos a abusar del café para mantenernos despiertos durante el día, y del
alcohol para amodorrarnos de noche, lo cual no hace sino empeorar las cosas.
Hay personas que tienen sensaciones poco confortables en las piernas cuando se
encuentran tumbados en la cama. Esto les hace moverlas constantemente, lo que a su vez
dificulta conciliar el sueño. La apnea, por su parte, durante la cual el aire no pasa por las
vías respiratorias cuando dormimos, es una condición peligrosa que no sólo interrumpe
861
El Hijo de El Cronopio No. 77
la respiración sino que además puede producir insomnio por la angustia que
desencadena.
Los ritmos anormales de vida (dormir cuando otras personas están despiertas y
viceversa) son un factor a tener en cuenta. Como lo son diversos estados médicos, como
el Parkinson y otras enfermedades neurodegenerativas, el dolor, las alergias y el asma,
etc. La menopausia perjudica el sueño de casi la mitad de las mujeres de mediana edad, y
la vejez puede influir debido a una alteración de las funciones cerebrales (muchas
personas mayores dormitan durante el día, se duermen temprano y se levantan también
temprano).
La toma de medicamentos, como antidepresivos y antiinflamatorios, problemas
psiquiátricos como la ansiedad, etc., completan el panorama de causas.
Para evitar el insomnio, Attarian recomienda, ante todo, visitar a nuestro médico, quien
nos recomendará una serie de medidas, como la documentación de nuestros hábitos de
sueño, que después ayudarán al especialista a dar un diagnóstico.
Pero Attarian también da algunos consejos para pasar una buena noche. Por ejemplo,
debemos restringir el tiempo que pasamos sobre la cama, de manera que sólo nos
situemos sobre ella cuando realmente estemos cansados y vayamos a dormir. Tampoco
deberíamos realizar siestas durante el día. Otro consejo es abandonar nuestra habitación
si permanecemos más de 15 minutos despiertos.
No se recomienda realizar trabajos intensivos justo antes de ir a la cama, ya sean físicos
o mentales. Deberíamos incrementar el ejercicio realizado diariamente, eliminar todos
los relojes de nuestra habitación, intentar distraernos en algo mientras tratamos de
dormir, reducir el consumo de café y evitar la nicotina y el alcohol.
Es importante ir a la cama y levantarse siempre a la misma hora, incluso los fines de
semana o si hemos dormido poco o casi nada. Y, sobre todo, nunca debemos
automedicarnos.
Información adicional en: http://medicine.wustl.edu/~wumpa/news/index.html
El gran electroimán funciona
La investigación de la energía nuclear de fusión precisa de tecnologías muy avanzadas.
Japón y otros países lo quieren intentar con un nuevo sistema de confinamiento
magnético.
La carrera hacia la consecución de un reactor nuclear de fusión más eficiente que los
actuales prototipos no se ha detenido. Pero para que se haga realidad es necesario antes
poner a punto tecnologías muy sofisticadas y que hasta ahora no estaban disponibles.
Uno de los puntos que está recibiendo mayor atención en la actual investigación es el
sistema de confinamiento magnético que debe mantener el plasma para la reacción de
fusión. Para ello se han diseñado gigantescos electroimanes cuyos primeros modelos han
empezado a ser probados.
Uno de estos inmensos imanes pesa 150 toneladas y está siendo desarrollado y ensayado
por un equipo internacional de científicos estadounidenses y japoneses. En estos
momentos se encuentra en Japón, donde ha sido probado a pleno régimen.
Sus números son impresionantes: el dispositivo ha generado un campo magnético de 13
Tesla, unas 260.000 veces más poderoso que el campo magnético terrestre, y ha
almacenado una energía de 650 megajulios en una corriente de 46.000 amperios, tres mil
veces más que la que podemos encontrar en el cableado de una casa doméstica.
862
El Hijo de El Cronopio No. 77
Sin duda, es el imán superconductor pulsante más potente del mundo, manifiestan los
expertos del MIT. Su objetivo, sin embargo, es sólo demostrar los parámetros de
comportamiento y los métodos de fabricación que deberán ser aplicados al modelo final,
destinado al llamado International Thermonuclear Experimental Reactor (ITER), un
proyecto ambicioso que busca probar que la fusión nuclear puede ser una fuente viable
de energía.
Durante los próximos meses, los investigadores esperan aumentar la velocidad a la que
se alcanza el punto de 13 Tesla partiendo de cero y viceversa. En la serie de ensayos más
recientes, se pasó de 0 a 13 Tesla a una velocidad de 0,005 Tesla por segundo, mientras
que al contrario se llegó a 0,7 Tesla por segundo. El objetivo es alcanzar 1,2 Tesla en
ambos sentidos.
El imán está compuesto por dos módulos, uno japonés y el otro estadounidense. En
cuanto al programa ITER, en él participan la Unión Europea, Japón y la Federación
Rusa. Estados Unidos participó hasta finales de 1998 y ahora sólo colabora en las
pruebas.
Información adicional en: http://web.mit.edu/newsoffice/nr/2000/magnet.html
Imagen: http://web.mit.edu/newsoffice/tt/2000/may03/magnetdiagram.jpg
(Gráfico del electroimán con sus dos módulos combinados.) (Foto: Japan Atomic Energy
Research Institute/Lockheed Martin)
Nuevo analizador químico
La tecnología militar es un buen punto de partida para obtener sistemas de aplicación
civil.
Cuando hace unos años los científicos pusieron a punto la tecnología de búsqueda
mediante infrarrojos, utilizándola junto a misiles, poco podían imaginarse que tendría
tantas otras aplicaciones.
Una de estas aplicaciones, desarrollada por ingenieros de la Purdue University, consiste
en un instrumento que acelera de forma dramática la búsqueda de nuevos catalizadores,
mejorando los procesos de fabricación química y los sistemas de control de la polución
en los automóviles.
En el campo de la química combinatoria, los científicos usan equipos automáticos para
crear y probar de forma sistemática miles de muestras químicas en el mismo tiempo que
hasta ahora gestionábamos una sola muestra con métodos convencionales. El sistema
desarrollado en Purdue pueda analizar muchas muestras en segundos, siendo 5.000 veces
más rápido que cualquier otra tecnología usada para probar muestras de catalizadores que
reaccionan con líquidos, y al menos 20 veces más rápido que las usadas con
catalizadores que reaccionan con gases. Estos últimos, por ejemplo, se usan en los
sistemas de escape de los automóviles.
El nuevo "rapid-scan Fourier transform infrared imaging system", como se denomina el
sistema, analiza las muestras químicas en el rango de la luz infrarroja que es invisible al
ojo humano. Esta luz revela la firma infrarroja única que corresponde a cada producto
químico específico (la huella molecular). Dicha huella identifica las moléculas que han
sido absorbidas sobre la superficie del catalizador, información que puede ser usada
después para entender los mecanismos moleculares en las reacciones para cada uno de
ellos.
863
El Hijo de El Cronopio No. 77
En el corazón del sistema se halla tecnología recientemente desclasificada que había sido
desarrollada para la detección de misiles a partir del calor que generan durante el
funcionamiento de sus motores. El detector ha sido unido a un diseño óptico con un
amplio campo de visión, que permite el ensayo de múltiples muestras de forma
simultánea. El instrumento puede probar cientos de catalizadores a la vez en 15
segundos, sin destruir las muestras.
Los catalizadores pueden ser usados en automoción para intercambiar los escapes
polucionantes por otros cuyos componentes son menos peligrosos. La efectividad de los
catalizadores depende de su composición, como por ejemplo, la concentración de
metales, de manera que el ensayo de decenas de miles de candidatos puede ser muy
difícil sin una técnica como la descrita. También será posible desarrollar catalizadores
que empleen metales menos caros que los actuales (platino, paladio, rodio).
Los catalizadores se emplean además en operaciones químicas como el procesado de
fertilizantes, tejidos, plásticos y otros productos del petróleo. Una ligera mejora en los
catalizadores puede suponer millones de dólares de ahorros industriales.
Información adicional en:
http://news.uns.purdue.edu/UNS/html4ever/0006.Lauterbach.catalysts.html
Imagen: http://news.uns.purdue.edu/UNS/images/lauterbach.catalysts.jpeg
(Jochen Lauterbach y Gudbjorg Oskarsdottir trabajan en el instrumento de imágenes
infrarrojas para análisis de catalizadores.) (Foto: Purdue News Service/David Umberger)
Bichos
Los ingenieros no dejan de avanzar en la miniaturización de robots móviles que puedan
alcanzar considerables distancias.
Las nuevas criaturas mecánicas creadas en la Vanderbilt University ya tienen suficiente
autonomía como para alcanzar distancias de 800 metros. El logro no sería demasiado
llamativo sino fuera porque dichas criaturas tienen un tamaño diminuto, suficiente como
para caber en la palma de una mano.
Los "bichos" forman parte de los esfuerzos de los ingenieros por crear dispositivos
robóticos móviles más o menos autónomos, capaces de llevar a cabo determinadas tareas
de indudable interés civil o militar.
Michael Goldfarb es el líder del grupo de desarrollo y cree que han construido el robot
más pequeño capaz de realizar considerables travesías gracias a la carga de una simple
batería. Su objetivo inicial era ver cuán pequeño podía ser un dispositivo de esta clase, y
esto es lo que han obtenido.
Lo cierto es que Goldfarb ha construido robots incluso más pequeños, pero no eran útiles
en la práctica o su autonomía era demasiado limitada. El "bicho" más optimizado mide
unos seis o siete centímetros y pesa apenas unos pocos gramos.
El programa de desarrollo, que ha durado dos años y medio, ha sido financiado por la
Defense Advanced Research Projects Agency (DARPA), en busca de micro-robots
móviles para reconocimiento militar y para la obtención de información. La idea básica
es que los soldados puedan transportar grandes cantidades de estos robots, y que los usen
para investigar el terreno que tienen frente a ellos, detectando tropas enemigas, minas u
otros peligros.
El micro-robot emplea una batería combinada con un material poco usual llamado
cerámica piezoeléctrica (PZT), que se expande físicamente cuando se le aplica un voltaje
864
El Hijo de El Cronopio No. 77
eléctrico. Esto es interesante para la locomoción del robot. Si bien los primeros
prototipos avanzaban a una velocidad de 1 mm por segundo, los de ahora han
multiplicado por 300 esta cifra (30 cm por segundo), incluso llevando una pequeña carga
útil. Con la batería de la cual disponen, pueden avanzar de forma continuada durante 45
minutos, suficiente para recorrer unos 800 metros. Las cámaras de video más pequeñas
disponibles comercialmente pesan la mitad de lo que puede transportar el robot, de
manera que podría cargar una de ellas sin ningún problema.
En el futuro, los ingenieros desarrollarán micro-robots voladores, aunque las pruebas
realizadas hasta la fecha han sido infructuosas: ninguno de ellos ha conseguido
"despegar" por su elevado peso.
Información adicional en: http://www.vanderbilt.edu/News/news/apr00/nr28c.html
http://www.vuse.vanderbilt.edu/~meinfo/labs/cim/projects.htm
http://www.darpa.mil/MTO/DRobotics/index.html
http://www.vuse.vanderbilt.edu/~goldfarb/persinfo.htm
http://www.vanderbilt.edu/News/register/Dec8_97/vr1.htm
Imagen: http://www.vanderbilt.edu/News/register/Dec8_97/Goldfarb,_Michael.GIF
(Goldfarb, uno de los ingenieros del proyecto de micro-robótica.) (Foto: Vanderbilt
University)
Hallado el hidrógeno que faltaba
El telescopio espacial Hubble ha localizado una buena parte de la materia del Universo
que había permanecido invisible para nuestros instrumentos.
Durante el Big Bang, el gran estallido que dio lugar a la materia que conforma el
Universo, se crearon enormes cantidades de hidrógeno. Una parte de este elemento
acabaría formando estrellas y galaxias, pero el resto parecía haber desaparecido en la
oscuridad vacía del espacio.
El hidrógeno faltante supone aproximadamente la mitad de la materia "normal" del
Universo. Los científicos ya saben que alrededor del 90 por ciento de la materia, normal
o no, se mantiene oculta (se la llama materia oscura), pero lo que es más embarazoso es
que no hayamos sido capaces de encontrar al menos toda la que denominamos bariónica
(ordinaria, compuesta por protones, electrones y neutrones).
El hallazgo del hidrógeno que faltaba es un buen avance en este sentido y ayudará a
aportar nueva luz sobre las estructuras a gran escala del Universo. Además, permite
confirmar los actuales modelos que calculan la cantidad de hidrógeno que fue creado
durante el Big Bang.
Los trabajos de detección, llevados a cabo por astrónomos de la University of WisconsinMadison, demuestran que el hidrógeno formó hace miles de millones de años grandes
estructuras o nubes, pero que desde entonces se han ido desvaneciendo. Ni siquiera el
telescopio Hubble puede localizar este hidrógeno debido a que se encuentra
extremadamente enrarecido. Sin embargo, el observatorio sí puede encontrar un
elemento que delate su presencia de forma indirecta, el llamado oxígeno altamente
ionizado. El hidrógeno debe estar presente en el espacio intergaláctico para calentarlo
hasta las temperaturas observadas. Es decir, el descubrimiento de este oxígeno implica
que existen grandes cantidades de hidrógeno en el Universo, cuya temperatura es tan
elevada que escapa a su detección por medio de técnicas convencionales.
865
El Hijo de El Cronopio No. 77
Las teorías actuales hablan de un Universo en expansión en el que se encuentran redes de
filamentos de gas muy intrincados, donde el hidrógeno se concentra a lo largo de vastas
estructuras encadenadas. Los cúmulos de galaxias se forman donde los filamentos se
interseccionan. Los modelos predicen que las nubes de hidrógeno que fluyen a lo largo
de las cadenas deberían colisionar y calentarse. Esto reduciría la formación de más
galaxias en las regiones más calientes, de manera que el nacimiento de estrellas debió ser
más frecuente en el Universo temprano, cuando el hidrógeno se encontraba lo bastante
frío.
El oxígeno delator apareció probablemente cuando fue expulsado por estrellas al estallar,
después de formarse por fusión nuclear en su interior. Al alcanzar el espacio
intergaláctico, se mezcló con el hidrógeno y se calentó hasta alcanzar temperaturas de
100.000 grados Kelvin.
Los astrónomos detectaron el oxígeno altamente ionizado utilizando la luz de un cuásar
distante. El Hubble fotografió dicho cuásar mediante su espectrógrafo, localizando el
oxígeno. En cuanto al hidrógeno, está totalmente ionizado, de manera que sus átomos
han perdido sus electrones, sin los cuales no se puede detectar su presencia mediante
espectroscopía.
Información adicional en: http://oposite.stsci.edu/pubinfo/pr/2000/18
Imagen: http://oposite.stsci.edu/pubinfo/pr/2000/18/content/0018cw.jpg
(El cuásar indicado en la imagen ha sido observado por el Hubble para localizar el
hidrógeno "perdido" en el espacio intergaláctico.) (Foto: WIYN Telescope)
Un asteroide con forma de hueso
El asteroide Cleopatra nos descubre su curiosa forma gracias a imágenes obtenidas
mediante radar.
Por primera vez, los científicos han conseguido fotografiar el aspecto del asteroide del
"cinturón principal", situado entre Marte y Júpiter, cuyo nombre es 216 Cleopatra.
La roca metálica mide unos 217 km de largo y 94 km de ancho, y fue descubierta en
1880. Su forma exacta, sin embargo, había permanecido desconocida hasta ahora.
Los astrónomos han utilizado un potente radar para obtener una imagen del objeto. Su
aspecto es el de un típico hueso de perro, lo que sugiere que se trata de un resto
procedente de un violento y antiguo choque cósmico. La colisión entre dos asteroides no
debió dispersar totalmente los fragmentos, y algunos volvieron a contactar entre sí para
adoptar la forma que poseen ahora.
Steven Ostro, del Jet Propulsion Laboratory, empleó para la tarea el radiotelescopio de
Arecibo de 305 metros de diámetro. Los ecos de radar procedentes de Cleopatra fueron
después analizados mediante ordenadores y transformados en imágenes. En ese
momento, el asteroide se encontraba a 171 millones de kilómetros de la Tierra.
Avanzando a la velocidad de la luz, la señal del radar precisó de 19 minutos para realizar
el camino de ida y vuelta.
La alta reflectividad del asteroide y su color sugieren que está hecho de metal, quizá de
una aleación de níquel-hierro. Tales objetos se calentaron y fundieron tiempo atrás,
diferenciándose en estructuras que incluían un núcleo, un manto y una corteza.
Colisiones posteriores, tras solidificarse, dejaron al descubierto sus núcleos metálicos.
Algunos de estos fragmentos han llegado a caer sobre la Tierra, como es el caso del que
formó el Meteor Crater en Arizona.
866
El Hijo de El Cronopio No. 77
Información adicional en:
http://www.news.cornell.edu/releases/May00/Arecibo.Kleopatra.deb.html
http://spacescience.com/headlines/y2000/ast08may_1.htm
Imagen: http://spacescience.com/headlines/images/dogbone/dogbone_big.gif
(El asteroide en forma de hueso.) (Foto: JPL)
La Ciencia desde el Macuiltépetl/ Descifrar signos
Por Manuel Martínez Morales
La canción no es el canto.
Al canto lo conocen los mudos
Jaime Labastida
Se nos va la vida descifrando signos, símbolos; una bien torneadas y ondulantes caderas
son el anuncio, la promesa, la señal a mis hormonas, el presagio, de un estado de placer
extremo, tal vez inalcanzable. Los signos que ahora garabateo son el indicio, con toda
seguridad, de una personalidad mal ajustada al principio de la realidad. Nos movemos en
un bosque de cifras, criptogramas, símbolos de un más allá que siempre está más allá.
Todo símbolo es el signo de otro símbolo; una cosa representa siempre a otra cosa. ¿El
conjunto de sensaciones que yo llamo “el árbol”, son solamente el signo codificado de
algo más allá de aquéllas, del “árbol en sí”? El hombre es un animal semiótico, vive por
y para descifrar signos, como símbolos, defeca en jeroglíficos químicos su historia diaria.
La semiología, o semiótica, fue líricamente definida por Ferdinand de Saussure como “la
ciencia que estudia la vida de los signos en el seno de la vida social”. La noción de
sistemas de signos comprende, además de la lengua y la escritura, otras formas de
comunicación social tales como los ritos simbólicos, las ceremonias de cortesía, las
señales militares, el llamado lenguaje corporal, etc. En sentido lato, las artes, la literatura
y las ciencias son modos de comunicación basados en el empleo de sistemas de signos.
Por otra parte, indica Pierre Guirard en La semiología,
Hay muchos otros tipos de comunicación que son también parte de
la semiología: la comunicación animal (zoosemiótica), la
comunicación de las máquinas (cibernética), la comunicación de las
células vivas (biónica)
Incluyamos también la comunicación interna del cuerpo, de glándula a glándula, de
hígado a riñón , a corazón, a cerebro, a mano.
El extremo de la alucinación semiótica es proponer que todo está representado en todo, el
macrocosmos en el microcosmos y viceversa. Tu vida, tu destino, están representados en
las líneas de la mano, estaban escritos en la posición de las estrellas en el momento de tu
nacimiento, se reflejan en las tripas de una gallina negra, en el lenguaje combinatorio del
Tarot o en código binario del venerable I Ching. Tu cuerpo está dibujado en tu pupila.
Luego existe, en alguna parte, el libro sagrado en el cual todo está escrito, el día y la
867
El Hijo de El Cronopio No. 77
forma de mi muerte, las crudas que sufrirás de aquí al último día que estés sobre la tierra.
En cierto árbol del bosque de Nemi está plasmado el porvenir de mi patria.
Un sigo es un estímulo –es decir, una sustancia sensible- cuya imagen mental está
asociada, en nuestro espíritu, a la imagen de otro estímulo que ese signo tiene por fin
evocar con el objeto de establecer una comunicación. (Pierre Guirard).
Un estímulo que evoca la imagen de otro estímulo, que evoca…¿Existe un punto de
referencia último, un punto inmóvil de la serie infinita de signos que se reflejan unos a
otros? Si existe ese punto sin movimiento, sería el aleph, el Nirvana, la cosa en sí, el ojo
de Dios, la eternidad encapsulada.
El buen salvaje aprende a reconocer signos elementales que le representan comida,
miedo, placer; elabora un lenguaje corporal e inventa rituales simbólicos para
comunicarse, es decir, para estar en comunión con la naturaleza y con sus semejantes. El
buen salvaje ilustrado, el cibernántropo moderno, cree entender los mágicos y potentes
sistemas simbólicos de las ciencias y el saber; en sus manipulaciones insensatas, este
salvaje pierde toda noción del referente, del significado y del sentido de los símbolos
cabalísticos de la ciencia. Sólo acierta a hacer ruido, a sacar una chispa aquí o allá, a
construir torpes máquinas con las que pretende engrandecerse y estar en posibilidad de
dominar, de explotar a la naturaleza y a sus semejantes. La comunicación –insisto, la
comunicación- le está negada.
Se olvida que cada signo, cada jeroglífico, cada mancha en la pared, pueden leerse de
infinitas maneras; solamente una ilusión enajenada y enajenante puede pretender
atribuirles un sentido único e inmutable. En consecuencia corrigiendo un poco, un
poquito nada más, a Galileo, debemos aceptar humildemente que es la poesía, y no la
matemática, el lenguaje en que se expresa la naturaleza.
El Cabuche (crónicas de la Facultad de Ciencias)/ Ese otro rostro
Ahora la Zona Universitaria tiene otro rostro. Definitivamente la vuelve habitable y
disfrutable hasta cierto nivel. Ese rostro ha ido cambiando a lo largo de su existencia,
aunque en los últimos años, el cambio ha sido dramático. En tiempos de los setentas,
cuando apenas comenzaba a poblarse y existía aún la famosa prepa 1 en lo que ahora es
el departamento, la zona no estaba bardeada y en particular los terrenos en los que ahora
se enclava nuestra facultad eran más que inhóspitos, aunque existían alrededor de siete
canchas de básquetbol, algunas justo en lo que ahora es la facultad y tres canchas de
volibol; pero el panorama era desolador y lúgubre, además de que los alrededores de la
ahora avenida Salvador Nava estaban totalmente despoblados, ya en los ochenta
comenzaron a construirse algunas escuelas y nuevos edificios, desaparecieron parte de
las canchas y se bardeó por completo la zona; aunque aún el panorama seguía siendo
desolador pues si bien los edificios podían considerarse habitables (al fin nuevos) los
alrededores internos de la zona dejaban mucho que desear; en esa época la facultad se
traslada a sus actuales instalaciones. En los noventa, del 96 para acá, habitamos una
nueva zona universitaria, servicios de iluminación adecuados, poca tierra, espacios
agradables, edificaciones de arquitectura moderna, como la biblioteca de área, edificios
remozados y en proceso de remozamiento, (a la facultad le ha tocado), en fin un total
contraste con épocas pasadas. Sin embargo, este nuevo rostro, (que esperemos se refleje
868
El Hijo de El Cronopio No. 77
en lo académico y en lo participativo (¿nuestro estatuto orgánico está a la altura de los
tiempos que vivimos?)) lo tornamos lúgubre con nuestras acciones. Sólo es cuestión de
echarle un ojo a nuestros espacios para observar la gran cantidad de basura que se aloja
en jardines, maceteras y cualquier adorno que se asemeje a bote de basura; cierto es que
no existen suficientes botes para alojar desechos, pero todo es cuestión de cultura. Nada
cuesta cargar el bote de refresco, agua y bolsas de papitas o del lonche hasta encontrar un
lugar adecuado para depositarlo. Ese “nuevo” rostro de nuestra zona universitaria
requiere de nuestra participación para mantenerlo y dejar en el pasado esos rostros
lúgubres y desoladores que lo caracterizaron. Demostremos al resto de las escuelas,
facultades e institutos que cohabitan está zona que la comunidad de la facultad de
ciencias, sí contribuye al mantenimiento de nuestra segunda casa. Evitemos y
conminemos a quienes tiren basura a no hacerlo.
Si no creyera en la balanza/En la razón del
equilibrio/Si no creyera en el delirio/Si no creyera
en la esperanza/Si no creyera en mi camino/Si no
creyera en mi sonido/Si no creyera en mi
silencio/¿Qué cosa fuera la masa sin cantera?/Un
instrumento sin mejores resplandores
AVISO
Como habíamos anunciado, en una exhortación pasada a no colocar ningún
tipo de anuncio en las paredes de los edificios de esta Facultad en virtud de
que tal acción dañaba las paredes, que en fechas próximas se
implementarían espacios adecuados para tal efecto.
Se les comunica que a partir de esta semana existen pizarrones para avisos
colocados en diversos lugares de la Facultad. Los pizarrones serán
clasificados según el tipo de aviso (actividades académicas, avisos oficiales
de la escuela, avisos generales, etc.)
Consúltalos y úsalos adecuadamente
869
Boletín
El Hijo de El Cronopio
Facultad de Ciencias
Universidad Autónoma de San Luis Potosí
No.78, 29 de mayo de 2000
Boletín de información científica y
tecnológica de la Facultad de Ciencias
Publicación semanal
Edición y textos
Fís. José Refugio Martínez Mendoza
Parte de las notas de la sección Noticias de la
Ciencia y la Tecnología han sido editadas por
los españoles Manuel Montes y Jorge
Munnshe. La sección es un servicio de
recopilación de noticias e informaciones
científicas, proporcionadas por los servicios de
prensa de universidades, centros de investigación
y otras publicaciones especializadas.
Cualquier información, artículo o anuncio deberá
enviarse al editor
e-mail: flash@galia.fc.uaslp.mx
Números anteriores del boletín, pueden
consultarse por Internet en la página de la
UASLP:
http://phobos.dtc.uaslp.mx/publi.html
LIBROS CIENTIFICOS
La Oficina de Historia de la NASA ha actualizado la
versión online del libro "The Partners hip: A History
of the Apollo -Soyuz Test Project" (NASA SP-4209).
El texto ahora incluye también las imágenes originales
de la publicación.
Disponible en:
http://history.nasa.gov/SP-4209/cover.htm
-"A Fish Caught in Time" por Samantha Weinberg. En
inglés. Este trabajo describe la apasionante aventura
del descubrimiento del celacanto, el pez fósil.
http://www.amazon.com/exec/obidos/ASIN/00601949
52/thesciencebookbo
-"Tyrannosaurus Sue: The Extraordinary Saga of the
Largest, Most Fought-Over T -Rex Ever Found" por
Steve Fiffer. En inglés. Fiffer describe la odisea de
Tyrannosaurus Sue, un ejemplar prehistórico hallado
en 1990 que finalmente encontró su lugar de descanso
en un museo, después de pasar por una sala de
subastas.
Disponible en:
http://www.a mazon.com/exec/obidos/ASIN/07167401
76/thesciencebookbo
-"Walking with Dinosaurs: A Natural History" por
Tim Haines. En inglés. El libro completa la famosa
serie de la BBC que ha batido récords de audiencia.
Los dinosaurios nunca fueron tan reales.
http://www.amazon.com/exec/obidos/ASIN/07894518
75/thesciencebookbo
-"The Book of the Cosmos: Imagining the Universe
from Heraclitus to Hawking" por Dennis Danielson.
En inglés. Arte, ciencia, y alma son representados a
partes iguales por luminarias como Aristóteles,
Galileo, Poe, o Hawking.
Disponible en:
http://www.amazon.com/exec/obidos/ASIN/07382024
79/thesciencebookbo
El Hijo de El Cronopio No. 78
El congreso nacional de la Asociación Nacional de Energía Solar
(ANES), una oportunidad para la divulgación de la tecnología
Por S. A. Palomares Sánchez y Selina Ponce Castañeda
El próximo año se celebrará, en la ciudad de San Luis Potosí, el Congreso Nacional de la
Asociación Nacional de Energía Solar (ANES). En este congreso participan
investigadores de diferentes universidades del país que tienen dentro de sus proyectos de
investigación las aplicaciones de la energía solar. Como sabemos, la mayor parte de estas
instituciones se concentran en la ciudad de México. Aquí, en San Luis Potosí, existen
varios grupos de personas que se dedican de manera romántica a la investigación o
aplicación de la energía solar. Pocos son los que cuentan con recursos para desarrollar
este tipo de investigación. Casi todos los grupos, formados solamente por una o dos
personas, pertenecen a la UASLP. ¿Cómo podría impulsarse el uso de la energía solar, en
San Luis Potosí?, ¿Cómo podría conseguirse el apoyo gubernamental suficiente para
aplicar esta tecnología?.
La mayor parte de las instituciones en las que se lleva a cabo investigación sobre fuentes
alternativas de energía están localizadas en la ciudad de México; ahí sí, con apoyos para
este tipo de investigación. Otra pregunta que uno se haría es, entonces, ¿qué tipo de
investigación se lleva a cabo en esas instituciones, de las cuales nunca nos enteramos?.
La pregunta no está limitada al área de las fuentes de energía alternativas. Sabemos que
existen institutos donde los conocimientos generados son sólo conocidos por las personas
relacionadas con esos temas y ahí permanecen durante muchos años. Son conocimientos
generados por y para especialistas; pero, ¿realmente son beneficiosos para alguien más?.
O no existe interés en encontrarles una aplicación práctica; o se carece de la visión para
considerar que ese conocimiento puede ser aplicado para beneficio de algunos sectores
de nuestra sociedad. En nuestro país casi el cien por ciento de la investigación es
financiada por el estado, lo que significa, en primer lugar, que es un trabajo por el que
pagamos todos los mexicanos. Podríamos también preguntarnos cuál es el porcentaje
aproximado de conocimientos que pasan directamente a ser aplicados para beneficio de
la sociedad. Claro que el dinero invertido en un proyecto no es directamente proporcional
al beneficio social o la cantidad de conocimiento obtenido.
Retomemos el tema. Las fuentes alternativas de energía no son nuevas, al menos en sus
fundamentos; y son llamadas así pues presentan una manera alternativa para la
producción de energía (eléctrica, principalmente) generada por combustibles fósiles. Los
conceptos básicos de esta técnica se desarrollaron ya en el siglo XIX, para la producción
fotovoltaica de corriente eléctrica y, desde hace muchos siglos, para la eólica.
Únicamente han cambiado los métodos y materiales empleados para su producción y
almacenamiento. Por ejemplo, cuando se descubrió el efecto fotovoltaico en el selenio,
no era suficiente la cantidad de energía eléctrica producida por este material para ser
aprovechable. No fue sino hasta alrededor de 1950, cuando hubo la necesidad de
desarrollar celdas fotovoltaicas capaces de suministrar corriente eléctrica a los satélites
artificiales, que se buscaron materiales más eficientes para la generación fotovoltaica de
corriente eléctrica. Después de ese importante paso únicamente se mejoraron las
propiedades del material usado como material fotovoltaico: el silicio.
871
El Hijo de El Cronopio No. 78
Para el aprovechamiento de la energía del viento se construyeron, ya en los primeras
etapas de nuestra civilización, molinos que eran movidos por la fuerza del viento.
Posteriormente se usaría para impulsar barcos en alta mar. En el siglo XIX se
construyeron los primeros generadores eléctricos. Estos podían ser impulsados por la
energía cinética proporcionada por la caída del agua, ya sea de un río, arroyo o presa, o
por un rotor movido por el viento. Posteriormente se desarrollaron sistemas de
almacenamiento de energía: las baterías o acumuladores. Con estos elementos se puede
ya construir un sistema que nos proporcione energía eléctrica. Ahora es posible encontrar
generadores muy eficiente y acumuladores que pueden cargarse y descargarse
completamente sin ningún problema.
Hace poco tiempo se inició la investigación para la generación de calor y corriente
eléctrica basada en un fenómeno descubierto hace más de un siglo: la electrólisis del
agua. Esta consiste en la descomposición del agua, por medio de una corriente eléctrica,
en hidrógeno y oxígeno. Este efecto es reversible; o sea, se puede mezclar nuevamente
hidrógeno y oxígeno para la producción de calor o electricidad. El hidrógeno, que es un
gas altamente peligroso, ya puede almacenarse de manera segura para su utilización
directa o para transportarse. De la misma manera que en los casos anteriores, el elemento
que realiza la descomposición del agua, la celda de combustible, se ha ido
perfeccionando sólo para ser más eficiente.
En nuestro país, con una insolación mucho mayor que en otras regiones de la tierra, se ha
desaprovechado el sistema más simple de almacenar la energía que nos llega del sol.
Estamos hablando de los calentadores solares. Considerando que los mexicanos somos
uno de los pueblos que acostumbra bañarse más frecuentemente, requieren grandes
cantidades de agua caliente para este fin. Para calentar el agua con energía solar puede
usarse, desde el sistema más sencillo, que consiste en una manguera o tubo pintado de
negro, colocado en una azotea, a través de los cuales circula el agua hacia la regadera o
hacia un depósito aislado, hasta el sistema muy sofisticado que tiene sistema de
aislamiento de policarbonato y bombas para desplazar el agua.
Básicamente, tenemos todos los elementos a la mano para construir nuestro propio
sistema que nos permita aprovechar la energía que nos llega del sol. Existe, pues, una
tecnología madura para ser aplicada y explotada; sin embargo, esto es algo que un sector
muy amplio de la población desconoce.
Cuando se celebre el Congreso de la ANES, se puede aprovechar el interés que se pueda
generar en otros sectores de la sociedad, que no sea el académico, para divulgar entre
esos sectores, en qué situación se encuentra México, respecto a otros países, en
cuestiones de fuentes alternativas de energía.
Hagamos, pues, algunas sugerencias para el desarrollo de esa área en nuestro país.
Primero, los congresos deben estar estructurados de tal manera que incluyan información
que pueda ser transmitida al hombre de la calle con el mismo espíritu con el que se
crearon los museos interactivos de ciencias; es decir, motivar el interés de la gente por la
ciencia y tecnología. Los especialistas cuentan con muchos canales y recursos para
comunicar sus conocimientos y para formar grupos de investigación; el pueblo, en
general, no. Cuando me refiero al pueblo, quiero decir las personas que no están
relacionados directamente con la investigación científica: políticos, empresarios, obreros,
estudiantes, etc.
872
El Hijo de El Cronopio No. 78
Debería, además, existir un compromiso de promoverse la asistencia a estas actividades.
Es necesario, entonces, también crear una estrategia para inducir a la gente de la calle a
interesarse en estos temas. El conocimiento no debe ser exclusivo de los académicos,
sino únicamente la forma de generarlo.
No hay que esperar a que se organice una semana especial para divulgar la ciencia y la
tecnología; en estos congresos se puede tener la oportunidad de entablar relación con
especialistas en el área.
Además, es necesario motivar a los investigadores de todas las áreas para que se
interesen en la difusión del conocimiento o, cuando menos, en la difusión e
interpretación del conocimiento generado en otros lugares del mundo. Para esto no es
necesario, obviamente, organizar un congreso.
En este tipo de congresos, en los que los resultados de las investigaciones pueden
impactar directamente, y de forma inmediata, a la sociedad son los que con mayor razón
deben salir de los recintos académicos.
Noticias de la Ciencia y la Tecnología
Otra explicación para el cáncer
La curación del cáncer no sólo se plantea en términos de tratamiento, sino también de
comprensión médica del problema.
Un científico de la University of California en Berkeley cree que uno de los puntales de
la investigación del cáncer, la teoría de que éste resulta de una serie casual de mutaciones
genéticas que obligan a la célula a desarrollarse y dividirse de forma descontrolada,
podría ser erróneo.
Peter Duesberg, un biólogo molecular, ya es conocido en los ámbitos científicos más
polémicos, ya que mantiene que el virus de inmunodeficiencia no es la causa del SIDA.
En nuestro caso, Duesberg mantiene que el cáncer se produce debido a una alteración en
el número de cromosomas de la célula afectada, particularmente la duplicación de uno o
más cromosomas.
Este tipo de anormalidad puede encontrarse en casi todos los casos de cáncer estudiados
hasta la fecha, pero siempre se ha considerado que se trata de un efecto colateral del
propio cáncer, y no su causa.
Duesberg tiene diversos problemas con la teoría de la mutación genética, ya que ésta no
puede explicar algunos aspectos concretos del cáncer. Dicha teoría viene dominando el
panorama científico y médico durante los últimos 15 años y si resultara errónea
supondría un duro golpe para las actuales estructuras de investigación, dictadas por ella,
y para la forma en que se detecta y previene el cáncer. Por ejemplo, ahora se intentan
detectar mutaciones en las células procedentes de las biopsias antes de declarar o no la
existencia de cáncer o su próxima aparición.
Según Duesberg, el principal problema con la teoría de la mutación es que nadie ha
conseguido convertir una célula humana normal en una cancerígena a base de insertarle
genes mutados. Ello probaría de forma definitiva que las mutaciones son la causa del
cáncer. El año pasado, Robert Weinberg y sus colegas del Whitehead Institute declararon
haber conseguido precisamente esto: tomaron células humanas normales e insertaron en
873
El Hijo de El Cronopio No. 78
ellas genes que causan cáncer (oncogenes), así como otro gen que hace que las células
crezcan sin control, y con todo ello generaron células cancerígenas. Sin embargo,
Duesberg solicitó muestras y descubrió que también poseían alteraciones numéricas de
los cromosomas, con lo que la causa real podría haber sido cualquiera de las dos
opciones. Otro argumento en contra de la hipótesis de la mutación genética es que cerca
de la mitad de los productos químicos que causan cáncer (carcinógenos) no parece que
causen mutaciones. Por ejemplo, el arsénico, algunas hormonas o el níquel inducen
cáncer en humanos, pero ninguno produce mutaciones.
La hipótesis de la mutación predice que todos los carcinógenos son mutagénicos, pero si
la mitad de ellos no lo son, entonces, ¿cómo pueden producir cáncer? Duesberg también
dice que si las mutaciones genéticas causan cáncer, entonces éste debería aparecer
inmediatamente después de un de estos episodios, cuando en realidad puede surgir
décadas después de una exposición a un carcinógeno. Los científicos creen que esto es
porque el cáncer es un fenómeno epigenético, que se desarrolla en varias etapas, pero
esto es precisamente lo que describe a la teoría de Duesberg.
Duesberg opina asimismo que la alteración celular causada por tener demasiadas copias
de un cromosoma completo es mucho mayor que la que implica poseer un puñado de
genes mutados, siendo más probable que afecte a diversos procesos celulares que ya se
sabe que se ven trastornados en las células cancerígenas.
Por supuesto, también es posible que ambas teorías sean correctas, y que el cáncer pueda
aparecer siguiendo múltiples caminos, incluidos algunos que aún no conocemos.
Información adicional en:
http://www.urel.berkeley.edu/urel_1/CampusNews/PressReleases/releases/04-052000a.html
Imagen: http://rpisun1.mda.uth.tmc.edu/se/sts/post_chemo/patient02/a.jpg
(Imagen de un tumor.) (Foto: The Levit Institute)
Las bacterias también hacen trampa
El viejo adagio que predice que los tramposos no prosperarán no es necesariamente
cierto, al menos en el caso de las bacterias.
Los científicos sienten una particular fascinación por el estudio de las bacterias ya que
pueden contemplar su evolución y comportamiento social a través de miles de
generaciones, en poco tiempo y sobre un simple disco de cultivo en el laboratorio.
Un grupo de bacterias llamado myxobacterias (Myxococcus xanthus) exhibe un
comportamiento social particularmente interesante, ya que incluye tanto la trampa como
el altruismo.
Los investigadores de la Michigan State University han comprobado que, en efecto, la
traición social es una estrategia evolutiva que puede ocurrir al nivel de las propias
bacterias. En biología evolutiva, "hacer trampa social" implica un comportamiento que
no contribuye a un proceso de cooperación para el bien común, proporcionando en
cambio una ventaja reproductiva injusta para el tramposo.
La bacteria Myxococcus xanthus vive en el suelo y exhibe diversos comportamientos
sociales. Se mueve en grupos a través del suelo, persiguiendo como una manada de lobos
a su presa, la cual digerirán y consumirán de forma cooperativa. En épocas de escasez,
las bacterias se reunirán formando una estructura multicelular. Dentro del cuerpo
resultante, una minoría de células se transforman en esporas esféricas inmóviles, las
874
El Hijo de El Cronopio No. 78
cuales podrán sobrevivir hasta que se encuentre una nueva fuente de alimento y puedan
volver a crecer.
El anterior proceso implica varias etapas de comunicaciones de célula a célula mediante
distintas señales químicas. Durante el procedimiento, muchas células parecen sacrificar
la oportunidad de reproducirse en beneficio de las otras. Así, mueren expeliendo sus
contenidos y dando la oportunidad a las restantes a alimentarse y convertirse en esporas.
Sin embargo, no todas las colonias de Myxococcus son tan altruistas. Investigaciones
realizadas en cultivos desarrollados durante 1.000 generaciones en el laboratorio y en
otros que han sufrido mutaciones en sus genes de desarrollo, muestran un
comportamiento diferente, a pesar de que todas procedían de un tronco "salvaje" común.
Alcanzada la fase de la formación de esporas por falta de alimento, ambos grupos
manifestaron un comportamiento defectuoso. Después, mezclados dichos cultivos con el
original, los mutantes dejaron de pasarlo mal para formar esporas de una manera más
eficiente de lo que sería normal, beneficiándose de la tradicional generosidad de los
ejemplares "salvajes". Tanto es así que si los tramposos se vuelven muy numerosos, toda
la colonia puede llegar a sufrir, de la misma manera que un excesivo fraude puede
colapsar a las compañías aseguradoras. Los tramposos pueden ser pues abundantes, pero
no tanto como para poner en peligro su propia supervivencia al provocar la eliminación
del linaje altruista, del cual dependen.
El estudio de las myxobacterias es importante ya que producen una gran variedad de
antibióticos, algunos de los cuales tienen aplicaciones médicas, además de jugar un papel
esencial en la ecología del suelo en todo el mundo.
Miles de agujeros negros
Los astrónomos creen que más de 25.000 agujeros negros podrían estar ocultándose en el
corazón de nuestra propia galaxia.
Los astrónomos sospechan que el núcleo de las galaxias, normalmente más activo que el
resto, contiene una gran acumulación de materia que forma un gigantesco y masivo
agujero negro, un cuerpo que se alimenta de todo lo que cae sobre él atraído por su
inmensa atracción gravitatoria. Sin embargo, expertos estadounidenses piensan que el
corazón de nuestra galaxia, la Vía Láctea, no sólo oculta un gran agujero negro central,
sino muchos miles más, de menores dimensiones, girando a su alrededor como si fueran
un enjambre de moscas.
Entre los especialistas de la Ohio State University que han participado en el estudio
destaca Jordi Miralda Escudé, un español que trabaja actualmente en dicha universidad.
Hasta ahora sólo han sido identificados media docena de candidatos a agujeros negros en
toda la Vía Láctea. Sin embargo, los astrónomos creen cada vez más probable que la
explosión de estrellas masivas produzca como resultado la aparición de agujeros negros
(y no sólo estrellas de neutrones), de modo que su aparición, a lo largo de la historia,
sería relativamente frecuente. Miralda y su colega Andrew Gould piensan que miles de
ellos podrían estar girando alrededor del centro de la galaxia porque este tipo de objetos
tiende a transferir parte de su energía orbital a otros más pequeños cada vez que se
produce un encuentro estelar. La pérdida paulatina de energía, más frecuente cuanto más
cerca del centro de la Vía Láctea, donde el espacio entre las estrellas es más reducido,
implica que los agujeros negros vayan aproximándose al núcleo, donde formarán el
mencionado enjambre.
875
El Hijo de El Cronopio No. 78
La migración es muy lenta. Según Miralda y Gould, durante los 10.000 millones de años
de la vida de la galaxia, sólo aquellos agujeros negros nacidos a menos de 15 años luz
del centro habrían tenido suficiente tiempo para acercarse a él. Asumiendo que un quinto
de las estrellas mayores de ocho veces la masa solar pueden formar agujeros negros al
final de sus vidas (explosión supernova), el número de las que produjeron este tipo de
objeto a las distancias indicadas se acerca a las 25.000.
El enjambre de agujeros negros se verá expoliado cuando los más internos caigan sobre
el agujero negro central, pero otros podrían estar entrando constantemente desde el
exterior gracias a la mencionada migración.
Si bien la teoría del cúmulo de agujeros negros es plausible, será bastante difícil lograr su
detección, al menos por el momento. Para ello se necesitará antes un instrumento que
permita detectar las ondas gravitatorias emitidas por cada agujero negro al caer sobre el
núcleo galáctico, como el proyecto de la Agencia Espacial Europea llamado LISA, que
no será lanzado antes de 10 años. Pero dado que la caída de los agujeros negros viene
propiciada por la transferencia de energía orbital a otras estrellas más pequeñas, es
posible empezar a buscar aquellas muy viejas y con escasa masa que habrían sido
expulsadas por esta razón. (New Scientist)
Tomándole el pulso al océano Ártico
Los científicos preparan la instalación de una nueva estación automática en el polo norte.
El océano Ártico, según los científicos, ayuda a regular el clima global de la Tierra. Por
esta razón, un equipo de expertos internacionales se dispone a instalar en el polo norte
una estación automática que sirva de base a un programa de estudio sistemático que
durará cinco años, durante los cuales se captarán multitud de parámetros de indudable
interés para la Ciencia.
El proyecto se llama North Pole Automated Station y estará liderado por James Morison
de la University of Washington. Su equipo colocará un sistema de balizas flotantes en el
punto convenido, e incluso se espera que más adelante se puedan añadir diversos
dispositivos anclados al fondo del océano. Tales dispositivos medirán desde la salinidad
del agua hasta el espesor y la temperatura de la capa de hielo.
Los científicos retornarán varias veces, durante sucesivas temporadas, a la zona.
Desplegarán entonces otras balizas, cada una dedicada a diferentes aspectos científicos.
En el plazo de un año, el número de proyectos de investigación se irá incrementando,
expandiéndose hacia una gran variedad de disciplinas.
La estación automática, sobre todo si intervienen observaciones realizadas a largo plazo,
es un método mucho más barato que la instalación de una base ocupada por hombres.
Se espera que su presencia permita discernir si el océano Ártico ha resultado afectado
durante los últimos años por una progresiva reducción del grosor de la capa de hielo, así
como por un cambio en la circulación de las corrientes marinas. Tales modificaciones
estarían relacionadas con patrones de cambio ya detectados en la circulación atmosférica
en el hemisferio norte (Oscilación Ártica).
El movimiento de las aguas, en especial aquellas que fluyen del Ártico hacia
Groenlandia, afecta a la circulación en el Atlántico, pudiendo jugar un importante papel
en la regulación del clima mundial.
Otros parámetros que serán medidos por la estación automática incluyen la presión
atmosférica, el viento, la radiación solar, o la temperatura ambiental.
876
El Hijo de El Cronopio No. 78
ADN artificial
Los científicos quieren expandir el código genético más allá de lo que la naturaleza ha
sido capaz de hacer.
La mayor parte de las formas de vida conocidas, presentes o ya extinguidas, deben
agradecer sus características definitorias a la enorme capacidad de combinación del
código genético. Excepto algunos tipos de virus, todos los organismos llevan su
información genética grabada en secuencias de ADN construidas con las mismas cuatro
bases, la adenina, que se empareja con la timina, y la citosina, que hace lo propio con la
guanina. Todas las proteínas indispensables para la vida de cada especie pueden ser
producidas gracias a esta información codificada.
Sin embargo, los científicos no tienen bastante y esperan hacerlo aún mejor que la
naturaleza. Especialistas del Scripps Research Institute han logrado ampliar el alfabeto
genético, añadiendo nuevos participantes al reparto original de cuatro bases del ADN. Al
incrementar el número de bases, crecen las combinaciones posibles y con ello la creación
de aminoácidos artificiales, que dan paso a proteínas totalmente nuevas.
Los investigadores han experimentado con bases no naturales desde los años 80, pero
ninguno ha podido incorporarlas al ADN sin convertirlo en inestable. Las barreras, sin
embargo, ya han sido derribadas. La implantación de una base nueva artificial en una
hebra individual de ADN provocaba al principio una paralización de la replicación, pero
una estudio profundo de los enzimas polimerasas (que se encargan de añadir las bases
apropiadas para formar pares durante la replicación) y las bases artificiales que combinan
bien con ellos ha permitido superar este obstáculo.
Aunque se avanza lentamente, ya se ha conseguido replicar hebras de ADN más allá de
la formación de un par no natural. Los científicos esperan insertar el ADN artificial en
una bacteria para que ésta acabe produciendo proteínas no naturales de forma
continuada. Tales proteínas podrían tener aplicaciones en química y medicina. (New
Scientist)
Nanoexploradores del cuerpo
La identificación y tratamiento de las enfermedades será muy distinta en el futuro.
Para tratar los síntomas de un resfriado común, la mayoría de la gente se toma una
cápsula que contiene cientos de piezas granulares de medicamentos que constituyen el
remedio para el estornudo, la tos y la mucosidad de nariz.
Las cápsulas del futuro serán de un tamaño similar, pero sus contenidos serán mucho
más sofisticados. Por ejemplo, sensores microscópicos capaces de detectar, diagnosticar
y tratar las enfermedades directamente en el interior del cuerpo humano.
Parece ciencia-ficción, pero ya se trabaja en ello. La NASA, en colaboración con el
National Cancer Institute, desea hacer realidad este sueño. Cuando envíe a sus
astronautas a lugares tan lejanos como Marte, la agencia quiere disponer de métodos no
convencionales que permitan garantizar la buena salud de la tripulación. Las enormes
distancias implicadas hacen inviable el retorno inmediato a la Tierra de un tripulante
enfermo.
El principal problema, naturalmente, es la tecnología, y éste es también el principal
frente de ataque para los científicos. El National Cancer Institute está tan interesado en
estas técnicas como la NASA, ya que desea definir el cáncer basándose por primera vez
877
El Hijo de El Cronopio No. 78
en las características moleculares de los tumores, para lo cual necesita de un sistema
avanzado de análisis. Dado que la NASA desea construir "exploradores microscópicos"
que puedan viajar por el interior del cuerpo humano buscando enfermedades, la
cooperación entre ambas instituciones parece lógica.
El primer paso es la firma de un acuerdo de colaboración, ya en marcha, y la dotación de
unos presupuestos económicos suficientes.
Información adicional en: http://www.nih.gov/; http://www.sverdrup.com/nasa/sensors.html
La clave es la diferenciación
La Ciencia ha realizado otro paso adelante para "fabricar" algún día órganos humanos
para transplantes.
La clave de la aparición de seres tan sofisticados como los seres humanos es la paulatina
diferenciación y especialización de las células que los componen a medida que los
embriones se desarrollan.
Los científicos están aprendiendo a clonar y a hacer crecer tejidos en el laboratorio, pero
la principal dificultad en la que se encuentran es que las células adopten su papel
definitivo, ya sea como células nerviosas, óseas, musculares, etc.
Investigadores de la Ohio State University han desarrollado una técnica de compresión
termal que les permite alterar el medio de crecimiento en el interior de un biorreactor y
cambiar así la forma en que las células crecen y se reproducen.
El biorreactor, diseñado por Shang-Tian Yang, es una alternativa en tres dimensiones a
los discos de petri planos que se usan normalmente para cultivar células. Se había
utilizado hasta ahora para hacer crecer células tumorales humanas, para producir grandes
cantidades de una proteína que es útil para la investigación contra el cáncer. También se
empleó para hacer crecer células placentarias saludables, con el objetivo de ensayar
sobre ellas los efectos de los medicamentos que una mujer tomará durante el embarazo.
Para mantener sujetas las células en el birreactor, los científicos utilizan un bosque de
fibras de poliéster microscópicas. Esto les permite crecer y reproducirse como en el
cuerpo, adhiriéndose a las fibras como si éstas fueran hebras de proteínas humanas.
Nutrientes líquidos se deslizan a través del biorreactor, simulando la circulación de la
sangre.
Durante los ensayos, los investigadores descubrieron que aumentando o reduciendo los
espacios entre las fibras se modificaba la forma en que las células se desarrollaban. Estos
cambios se llevan a cabo mediante el calentamiento y la compresión simultánea del
poliéster. Este se comporta como un sólido a temperatura ambiente, y como un líquido a
alta temperatura. A medio camino entre ambos extremos, exhibe propiedades tanto de
sólido como de líquido a nivel molecular, y entonces puede retener la forma que se le
quiera dar, así como sus características moleculares especiales. Controlando la presión, la
temperatura y el tiempo de compresión, se pueden ajustar los espacios entre las fibras
con gran precisión.
En esta condiciones, las células placentarias son ideales para hacer pruebas, ya que su
tamaño (unos 10 micrómetros) es muy similar a aquellas que formarán los órganos del
cuerpo.
Cuando dichas células crecieron sobre fibras situadas a unos 30 micrómetros de distancia
entre unas y otras, se reprodujeron muy rápidamente, extendiéndose por el biorreactor.
Pero cuando crecieron sobre fibras situadas a 40 micrómetros, formaron cúmulos en los
878
El Hijo de El Cronopio No. 78
espacios abiertos, iniciando funciones químicas como las que emprenderían en un cuerpo
antes de diferenciarse.
Al volver más lenta su reproducción e incrementar su ritmo metabólico, las células
consumen más glucosa y producen más ácido láctico. También empiezan a generar
estrógeno, una hormona clave. Todo ello son señales inequívocas de los cambios que las
afectan.
Cuando los espacios entre las fibras son demasiado pequeños, las células pueden
fácilmente crear puentes sobre ellos y entonces se reproducen rápidamente. Esto es lo
que ocurre en la fase inicial de formación de células. Cuando los espacios son demasiado
anchos, empiezan a crecer unas sobre las otras, como hacen en el cuerpo justo antes de
empezar a diferenciarse.
Los especialistas piensan que la técnica de compresión termal permitirá crear espacios
con el tamaño apropiado para que las células se reproduzcan y se diferencien. Para la
generación de tejidos es necesario primero un crecimiento rápido, pasando después a la
diferenciación propiamente dicha.
Pero todavía se desconoce por qué las células que forman cúmulos empiezan a
diferenciarse. Quizá sea debido a algún tipo de comunicación química entre ellas.
Esta y otras técnicas intentarán en un futuro cercano producir células óseas, de hígado,
riñón, córnea, etc., para transplantes. Puede que sea incluso posible producir órganos
completos.
Información adicional: http://www.acs.ohio-state.edu/units/research/archive/diffcell.htm
Transmisiones a alta velocidad
Un nuevo avance en el área electrónica permitirá aumentar la velocidad en las
comunicaciones de una forma espectacular.
Un equipo de investigadores estadounidenses ha creado un dispositivo que opera a
menos de 1 voltio y que es capaz de convertir señales eléctricas en transmisiones ópticas
a un ritmo de unos 100 gigabytes de información por segundo.
A esta velocidad, podría eliminar virtualmente el tiempo de descarga en Internet e
incrementar de forma significativa la eficiencia del procesamiento de datos.
El aparato, un tipo particular de modulador electro-óptico, puede ser aplicado también en
otros campos, como la navegación aérea, o los radares anticolisión de los automóviles de
alta gama.
Los moduladores son los traductores del mundo electro-óptico de la comunicación, ya
que codifican las señales eléctricas en forma de rayos ópticos de información. Mejoras en
los materiales electro-ópticos han incrementando la velocidad a la que estos moduladores
hacen la traducción, pero a costa de utilizar altos voltajes que limitan la potencia de la
señal y aumentan la distorsión.
El químico Larry Dalton, de la University of Washington y de la University of Southern
California, y sus colegas han construido el modulador a base de una serie de moléculas
orgánicas llamadas "cromoforos", aplicadas a una matriz de polímeros. Dichas moléculas
poseen un potencial electro-óptico impresionante. Con este modulador será posible tratar
señales telefónicas, de televisión, datos de ordenador, o cualquier otro tipo de señal
imaginable, enviarla a través de una fibra óptica alrededor del mundo sin casi pérdida, y
lograrlo con un ancho de banda virtualmente infinito.
Información adicional en: http://www.aaas.org/
879
El Hijo de El Cronopio No. 78
Dieta microbiana
El estudio de los hábitos culinarios de los microbios ayuda al descubrimiento de
evidencias sobre la existencia de vida primitiva e incluso extraterrestre.
Si bien es difícil determinar si existe vida en ciertos lugares o si estuvo presente en
momentos particulares de la historia de la Tierra, los científicos creen que pueden
recorrer una ruta alternativa que permite resolver este problema.
Sensores cada vez más sofisticados pueden detectar rastros químicos dejados por el
metabolismo de los microbios, y así aportar pistas sobre su presencia. Se trata de analizar
rocas lo más antiguas posibles, así como pertenecientes a zonas realmente remotas,
incluyendo aquellas que procedan de otros astros, como Marte (meteoritos).
Los microbios dejan un claro rastro de su afición por "consumir" metales como el
molibdeno, el cobre, el hierro o el zinc. En su búsqueda de nutrientes, seleccionan ciertos
isótopos sobre otros, dejando la evidencia de su actividad biológica grabada en la roca
durante millones de años. La medición de las proporciones de los diferentes isótopos de
determinados metales es una forma de saber si una bacteria u otros organismos vivieron
allí.
Sin embargo, hay que estar muy seguro de que otros procesos químicos no sean capaces
de imitar esta actividad biológica. De hecho, en el caso del hierro, existen reacciones
sencillas que producen cantidades de subproductos similares a las que antaño creíamos
que debíamos atribuir a representantes vivos muy primitivos.
Este tipo de investigaciones es fundamental porque antes o después deberemos decidir si
hubo vida en Marte a partir de los rastros químicos que encontremos en su superficie o
en el subsuelo. Sabemos que los microorganismos pueden vivir en una gran variedad de
condiciones y lugares, a menudo en situaciones extremas o letales para nosotros, pero si
existen procesos no-biológicos que pueden imitar su comportamiento químico, entonces
nos será muy difícil asegurar su existencia.
Información adicional en: http://www.rochester.edu/
La cola mas larga
Aunque de forma casual, la sonda Ulysses ha descubierto las verdaderas dimensiones de
la cola de un famoso cometa.
La sonda europea Ulysses, en órbita solar desde hace varios años después de haber
sobrevolado los polos de nuestra estrella, disfrutó de un inesperado e interesante
encuentro.
El 1 de mayo de 1996, el magnetómetro de la nave se encontraba midiendo, como es
habitual, el viento solar que se extiende desde nuestra estrella hacia el exterior del
sistema planetario. De pronto, el instrumento detectó una poco habitual distorsión del
campo magnético. Extrañados por lo sucedido, los científicos examinaron el resultado
pero finalmente archivaron la información.
Ahora, varios años después, otro científico cree haber encontrado la solución al enigma.
La Ulysses, de forma inesperada, atravesó la cola del cometa Hyakutake, y los gases
enrarecidos de ésta, mezclándose con el viento solar, distorsionaron el campo magnético.
La conclusión no deja de ser sorprendente, ya que el Hyakutake estaba en esos
momentos muy lejos de la sonda, lo que a su vez implica que su cola tenía una longitud
formidable: al menos 480 millones de kilómetros, la más larga conocida hasta la fecha.
880
El Hijo de El Cronopio No. 78
Los astrónomos han medido las colas de los cometas en función de las limitaciones
impuestas por tener a sus instrumentos situados en tierra. La cola del Hyakutake, a esa
distancia, es completamente invisible desde nuestro planeta, demasiado débil para ser
detectada.
Ha sido pues la casualidad, el hecho de que la Ulysses siguiera una trayectoria de
intersección con la citada cola cometaria, lo que ha revelado sus verdaderas dimensiones.
Por fortuna, la nave se encontraba en el momento justo en el instante apropiado,
circunstancias que a veces también juegan un importante papel en el avance de la
Ciencia.
Además de las anomalías magnéticas, la Ulysses detectó una composición diferente del
viento solar al atravesar la cola. Esta era rica en oxígeno y carbono, con algo de
nitrógeno, neón y agua, al menos si lo comparamos con el mencionado viento solar, lo
que contribuyó a delatar su existencia.
El estado de preservación de la cola a la distancia en la que estaba situada la Ulysses
sugiere que quizá puedan prolongar su presencia hasta aún más lejos, probablemente
hasta el límite de la heliosfera, allí donde el viento solar se encuentra con el medio
interestelar. Es probable pues que otros vehículos hayan atravesado la cola de cometas en
el pasado, circunstancia que habría pasado desapercibida por completo hasta ahora. Los
científicos están dispuestos a revisar los datos enviados por sondas como las Voyager,
para ver si pueden confirmar esta teoría.
Información adicional en: http://ulysses.jpl.nasa.gov
http://www.sp.ph.ic.ac.uk/Ulysses/comet/
http://science.nasa.gov/headlines/y2000/ast06apr_2.htm
Imagen: http://www-personal.engin.umich.edu/~nathanas/Distrib/hyak_smallest.gif
(Animación sobre el encuentro entre la sonda y la cola del cometa.) (Foto: ESA)
La Ciencia desde el Macuiltépetl/
Obsesiones, orquestas e investigación científica
Por Manuel Martínez Morales
La biología molecular, es sin duda alguna, una de las áreas de investigación más
apasionantes de nuestro tiempo. Los investigadores en la materia están tratando de
entender los mecanismos básicos de la vida: la reproducción, la evolución, la
autorregulación, el origen de múltiples enfermedades, etcétera. La clave para obtener este
entendimiento, se cree, reside en la estructura de dos tipos de biomoléculas: los ácidos
nucleicos, asiento del código genético y las proteínas, cuya función es regular
innumerables funciones internas en los seres vivos. El problema es de tal magnitud que,
como tantos otros de la ciencia contemporánea, para realizar investigación en este
campo, se hace necesaria la integración de equipos de trabajo transdisciplinarios.
En Obsesiones naturales (Natural Obsessions, The Search for the Oncogene, Houghton
Mifflin Co., 1988), la periodista Natalie Angier relata, en forma a la vez amena e
instructiva, la gran aventura que ha sido la búsqueda de los “oncogenes”, aquellos genes
cuya mutación desencadena la formación de tumores, la aparición de temidos cánceres.
La acción se desarrolla principalmente en el laboratorio dirigido por el afamado Robert
881
El Hijo de El Cronopio No. 78
Weinberg en el Instituto Whitehaead de Investigaciones Biomédicas, sito en Cambridge,
Massachusetts, donde la periodista pasó muchos meses siguiendo las investigaciones ahí
realizadas. Angier no sólo nos instruye sobre los aspectos técnicos científicos del asunto
y las dificultades metodológicas del trabajo, sino además expone el lado humano de la
investigación: el entusiasmo y las amarguras de los investigadores, sus conflictos
personales, las envidias, la competencia furibunda entre diversos grupos por obtener
resultados primero; en fin, el drama real, las obsesiones que impulsan toda investigación
verdaderamente apasionada, comprometida.
La investigación científica moderna ya no se lleva a cabo por individuos retraídos y
solitarios al estilo de Kepler o Newton; la investigación científica se desarrolla ahora por
equipos multidisciplinarios, cuya organización y actuación nos recuerdan a las de una
orquesta sinfónica. Una orquesta sinfónica incorpora instrumentos musicales de lo más
variado: cuerdas, alientos, percusiones, etc., cuya intervención, en cada obra, debe ser
precisa y programada. Cada ejecutante tiene una responsabilidad definida dentro del
conjunto, y su participación está claramente señalada en la partitura. No puede integrarse
una orquesta solamente con directores, o sólo violinistas o percusionistas. El resultado de
esas ejecuciones musicales, armónicamente articuladas, son los maravillosos conciertos
sinfónicos.
De la misma manera, un equipo de investigación reúne, usualmente especialistas en
diversas materias, trabajando en torno a un problema común: por ejemplo, los grupos que
trabajan en biología molecular, generalmente incluyen biólogos, bioquímicos, genetistas,
matemáticos, físicos, computólogos y una variedad de técnicos y auxiliares. Cada
miembro de este equipo tiene asignadas tareas claramente definidas, y todos los
integrantes del grupo conocen el desarrollo general del proyecto, conocimiento que
obtienen en seminarios y juntas de trabajo. La responsabilidad del director o coordinador
del equipo es llevar la batuta, como lo hace un director de orquesta, es decir, concertar
las diversas actividades alrededor de un objetivo común al igual que en las sinfónicas, de
cuando en cuando hacen aparición los solistas dentro de un grupo de investigadores.
Una diferencia sustancial entre un concierto y las actividades de un equipo de
investigación es que, en este último caso, la partitura se va estructurando en la medida
que se obtienen resultados, y en ocasiones hay que recomponerla completamente (las
famosas revoluciones científicas).
La creación musical y la creación científica deben buscarse porque sí, por el gusto y la
emoción de hacerlo. Orientarlas hacia objetivos puramente utilitarios es drenarlas de su
esencia y de su sentido y valor para el hombre. En el prefacio a Obsesiones naturales,
Lewis Thomas nos advierte sobre este excesivo utilitarismo:
Hacer investigación en problemas biológicos “duros” tiene que ser
una gran diversión o no podrá realizarse en absoluto […] la
competencia actual (entre científicos, por recursos y premios) ha
alcanzado tal punto de ferocidad intelectual que me parece un
síntoma grave […] que puede conducir a los investigadores jóvenes
a considerar el “éxito” como una cuestión de vida o muerte.
La investigación científica, sin duda, rinde frutos que, eventualmente, pueden aplicarse
con fines tecnológicos; pero al momento de obtener resultados, es casi imposible decir
cómo y cuándo éstos habrán de aplicarse. En el caso de la búsqueda de los “oncogenes”,
se han obtenido resultados impresionantes; ha sido posible identificar el lugar preciso en
882
El Hijo de El Cronopio No. 78
que ocurren las mutaciones que desencadenan los procesos cancerígenos y, aún así, está
todavía muy lejano el día en que estos resultados se traduzcan en una cura eficaz para el
cáncer. No obstante, se sigue apoyando decididamente este tipo de investigación básica.
Insistir en la exigencia de que la investigación básica provea resultados aplicables
inmediatamente y con redituabilidad económica, es producto de la miopía de quienes
nunca han disfrutado de las obsesiones naturales.
El Cabuche (crónicas de la Facultad de Ciencias)/
Ma`nqui milleven los pingos
Viernes por la tarde, mientras aún se percibía el olor a tierra mojada, mientras corrían por
nuestras venas deliciosos tequilas degustados en la comida y antes de perder en futbolito
contra economía, se llevó a cabo en el auditorio de la facultad, en el Mejía Lira, el
anunciado concurso de poesía al cual se dieron cita en buen número, estudiantes de
nuestra facultad, a escuchar y apoyar a otros once estudiantes que desfilaron por el
estrado haciendo muecas y señas acordes a las poesías seleccionadas por ellos para su
interpretación. Ciertamente los jueces se las vieron negras (para calificar, lo demás no sé)
aspectos como la expresión oral, contenido, expresión corporal y mímica, a fin de
determinar a los tres mejores interpretes en este género. Los ganadores a la postre fueron
María del Rosario Sandoval Cedillo, Jahaira Morales Saldaña y Rosa Angélica Galarza
Nieto; les digo los nombres porque se las estoy viendo al chino (la lista de participantes y
ganadores, no piensen mal) aprovechando que fue habilitado a la última hora como juez,
uniéndose al doc Cisneros y al maestro García Assaf, quienes después de revisar los
números que otorgaban a cada participante según los aspectos mencionados arriba,
seleccionaron a los tres primeros lugares, ya citados. Según los números que me permito
ver en la lista del chino, la competencia estuvo reñida y no sólo por que lo dicen los
números, sino por lo que estuve observando ese viernes escabulléndome como
espectador en el concurso. Me sorprendió la respuesta al evento, la interpretación de los
participantes y el entusiasmo desgranado y vertido por todos los asistentes. Los demás
participantes fueron: Alejandro Hernández Carreón, quien por cierto presentó una poesía
de su inspiración intitulada: El señor de las bestias, Abel Tello Solares, Irma Tristán
López, Maribel Cárdenas Delgado, Víctor Hugo Compeán Jasso, Víctor Manuel
Rodríguez, Liliana Paulina Trejo Valencia y Tania Vanesa Loredo Caldera. Bien por los
organizadores y por los participantes, su entusiasmo y gusto por las expresiones de arte,
que aunque no se vea, de mucho ayuda en la formación de nuestros estudiantes, a
quienes conminamos a seguir manifestando esas inquietudes ma`nqui nos lleven los
pingos. Y para quienes merecen amor, la salida de hoy.
Mi amor/el más enamorado/Es el más
olvidado/en su antiguo dolor/Mi amor/abre
pecho a la muerte/y despeña su suerte/por un
tiempo mejor/Mi amor/este amor aguerrido/Es
un sol encendido/¡por quien merece amor!
883
Boletín
El Hijo de El Cronopio
Facultad de Ciencias
Universidad Autónoma de San Luis Potosí
No.79, 5 de junio de 2000
Boletín de información científica y
tecnológica de la Facultad de Ciencias
Publicación semanal
Edición y textos
Fís. José Refugio Martínez Mendoza
Parte de las notas de la sección Noticias de la
Ciencia y la Tecnología han sido editadas por
los españoles Manuel Montes y Jorge
Munnshe. La sección es un servicio de
recopilación de noticias e informaciones
científicas, proporcionadas por los servicios de
prensa de universidades, centros de investigación
y otras publicaciones especializadas.
Cualquier información, artículo o anuncio deberá
enviarse al editor. El contenido será su
responsabilidad.
e-mail: flash@galia.fc.uaslp.mx
Números anteriores del boletín, pueden
consultarse por Internet en la página de la
UASLP:
http://phobos.dtc.uaslp.mx/publi.html
Descanse en paz
Virgilio Beltrán López
El 26 de mayo murió Virgilio Beltrán López destacado
físico mexicano, uno de los pioneros en la
consolidación de la investigación en provincia. Esto
fue en la Escuela de Ciencias Físico Matemáticas de la
Universidad Autónoma de Puebla, de la que fue
director. En la actualidad era un distinguido
investigador del Instituto de Ciencias Nucleares de la
UNAM y profesor de la Facultad de Ciencias.
En el terreno de la investigación básica, se propuso
mantener un equilibrio entre teoría y experimentación
en las áreas de la física que cultivó, c omo el estudio de
la resonancia paramagnética electrónica o el método
para la simulación de espectros, mismo que le valió el
reconocimiento y asesoría de científicos de otros
países. Uno de sus últimos proyectos fue la
construcción y puesta en marcha de un laboratorio de
resonancia magnética láser en el Instituto de Ciencias
Nucleares, pero el cáncer le ganó el paso. Considerado
como un extraordinario maestro por sus propios
colegas, impartió más de cien cursos de licenciatura y
posgrado; además de que cola boró en revistas
especializadas de prestigio internacional, fue autor de
15 libros de texto y de divulgación científica cuyo
tiraje rebasa ya los cuatro millones de ejemplares,
entre estos Para atrapar un fotón, publicado por el
Fondo de Cultura Económica en la serie "La ciencia
desde México".
Premio Nacional de Periodismo
Felicitaciones al grupo de difusión de la ciencia de la
Facultad de Ciencias de la UNAM al obtener la revista
Ciencias el Premio Nacional de Periodismo en la
especialidad de periodismo cultural. La revista
Ciencias es una de las mejores revistas de divulgación
científica del país y se edita desde hace 18 años. Este
premio se suma a los ya obtenidos: Distinción
Universidad Nacional para Jóvenes Académicos
(1992); Premio Arnaldo Orfila Reynal (1996); y
Premio CANIERM al Arte Editorial (1991, 1994,
1998 y 1999).
El Hijo de El Cronopio No. 79
El Garambullo (Los polvos de esos caminos)/
La paradoja de Cerro de San Pedro
A veinte kilómetros al noreste de la capital potosina, se encuentra enclavado el histórico
Cerro de San Pedro, tan traído y llevado en los últimos años por el redescubrimiento de
su riqueza en oro. El descubrimiento del mineral de Cerro de San Pedro hace más de
cuatrocientos años por el capitán mestizo Miguel Caldera, provocó el establecimiento en
el Valle de Tangamanga del actual San Luis Potosí, asumiendo el nombre de las minas
del Potosí en Bolivia, al compararse la riqueza de las entrañas de San Pedro. A lo largo
de los siglos, tanto Monte Caldera, pequeña población antecesora de Cerro de San Pedro
que se encuentra a unos diez kilómetros de Cerro, y el propio Cerro de San Pedro fueron
cediendo su crecimiento y desarrollo a la futura capital del estado de San Luis Potosí en
plena puerta de la región Guachichila. El descubrimiento de Cerro de San Pedro propició
que se cambiará el asentamiento principal de la zona (capital española) de Mezquitic a
Cerro de San Pedro y posteriormente a San Luis Potosí. Al “agotarse” las explotaciones
mineras, como en todo gran pueblo minero, se echa al olvido. Esta no es la excepción en
Cerro de San Pedro, población semi abandonada, una especie de pueblo fantasma, al
igual de Real de Catorce, vaya que se echó al olvido. Pocas personas, antes de 1990, lo
visitaban, uno que otro pintor le daba vida recreando sus fachadas y callejones en lienzos
rematados por tenues colores. Por mucho tiempo, al menos en mi caso, era el
conocimiento que tuve de este añejo y abandonado pueblo minero. Antes de 1990, mi
hermano que estudiaba geología lo visitaba regularmente para realizar sus prácticas de la
carrera. Acampaban en esas noches de frío, dentro de la iglesia, para lo cual era menester
sacar borregos y cabras del lugar. Ni quien pelara a tan antiquísima y rica iglesia, que
albergaba grandes obras pictóricas. El abandono total.
En plena crisis de la industria minera la compañía Peñoles emprendió estudios
geológicos en la zona a fin de explorar la posibilidad de encontrar yacimientos de oro. En
esa época, mi hermano trabajaba para la compañía Minera las Torres en el mero
Guanajuato. De primera mano me enteré de los descubrimientos que el grupo de
geólogos de Peñoles realizaba en Cerro de San Pedro. Definitivamente había grandes
cantidades de oro, al menos lo suficiente como para emprender una explotación. En
mayo de 1989 iniciamos en el Planetario del Parque Tangamanga, el programa de
divulgación Domingos en la Ciencia, programa que tuvo mucho éxito y en el cual
nosotros mismos, los organizadores del Instituto de Física y de la Facultad de Ciencias ,
debutamos como expositores ante niños. Una de esas pláticas, me correspondió y tuvo
lugar en el mes de enero de 1990, el tema “El encanto de los cristales”, en la plática por
necesidad surgió el tema de la minería y al final de la misma, como era ya costumbre, se
tenía una reunión con la prensa de los diarios Momento y Pulso. En dicha reunión no
aguante la tentación y di la información que me había proporcionado mi hermano, acerca
del redescubrimiento de yacimientos de oro en Cerro de San Pedro. Al siguiente día
apareció una nota con el encabezado: San Luis, potencia mundial en la producción de
fluorita y como subtítulo: Sin embargo, hace falta más apoyo para avanzar en el estudio
de su utilización. Un día después aparece en el periódico Pulso, edición del martes 9 de
enero de 1990 la nota: Descubren yacimiento de oro en Cerro de San Pedro. Firme
posibilidad de que resurja el otrora emporio minero. Ya en el cuerpo de la nota aparecía:
un nuevo yacimiento de oro fue descubierto hace un par de meses en el Cerro de San
885
El Hijo de El Cronopio No. 79
Pedro y una empresa particular realiza los estudios previos a la explotación, con la
finalidad de determinar si el descubrimiento es importante y resulta rentable. Esta
información, por lo pronto, no tuvo una repercusión inmediata. Los directivos de Peñoles
declinaron entrarle a explotarlo y cedieron la información oficial al gobierno del estado.
Para entonces la vida de Cerro de San Pedro, seguía transcurriendo en el mismo
desinterés cultural y social. Esa remota pero real oportunidad de que Cerro de San Pedro
fuera el nuevo emporio minero del estado, no importó a ningún sector de la sociedad. El
asunto cambia cuando el gobernador en turno Horacio Sánchez, en gira por Canadá
ofrece la información a empresarios canadienses, entregada por Peñoles, de la
potencialidad del yacimiento de oro encontrado en Cerro de San Pedro. Minera San
Xavier aprovecha la oferta ofrecida por el gobierno potosino y se viene todo un reclamo
de parte de sectores de la población oponiéndose a su explotación. Comienza a
publicitarse a Cerro de San Pedro como patrimonio histórico y a la iglesia del lugar como
una de las joyas arquitectónicas y culturales que encierran más de cuatrocientos años de
historia. Aparece entonces por arte de magia un letrero en el anillo periférico y en la
carretera central que anuncia, con flecha acusatoria Templo de San Pedro, aunque aún
hay que sacar las cabras de su interior. Sin embargo, Cerro de San Pedro, el verdadero,
no el de papel, sigue en el abandono total. Nace un grupo plural, ecológico y anexas que
defiende a capa y espada invaluable patrimonio. Se pierde sospechosamente un retablo
del siglo XVII o XVIII y también sospechosamente se “suicida” el alcalde en turno.
Continua el desgarramiento de camisetas, por un lado, en la defensa del patrimonio
histórico que representa Cerro de San Pedro; imagínense nuestra santa cuna, y por el otro
la defensa de un desarrollo económico para el estado y la población. Las posturas se
radicalizan, la UASLP participa en un estudio que evalúa el posible deterioro ambiental
y la factibilidad de una explotación “sana”. Al conocerse los resultados que la
universidad emite, se cuestiona su calidad y su honestidad. Mientras, Cerro de San Pedro
sigue en el olvido y abandono; digan lo que digan, los grupos en conflicto. En ese inter,
me decido ir a conocer el mentado Cerro de San Pedro, lo encuentro casi como lo
imaginaba, resulta extraño conocer mucho tiempo después el lugar en el que se forjó
nuestra ciudad. Al igual que muchos potosinos, incluidos quienes participan en el dime y
direte, simplemente no lo conocía. Tanto se pregona, en el caso del pueblo minero, la
defensa a la ecología y al patrimonio histórico, que resulta paradójico que en pleno
pueblo, en una especie cañón-arrollo que pasa justo enfrente al templo, una cantidad
exagerada de basura se acumule indiscriminadamente, mientras en la gran ciudad se
debate su suerte, alegando un futuro deterioro ecológico. En la pasada semana de pascua,
regresé con mi familia a Cerro de San Pedro y Monte Caldera, sólo para descubrir que
después de un año de alegatos, confrontaciones y movilizaciones de grupos ecologistas,
Cerro de San Pedro siga descaradamente inundado de basura plástica; basura que lejos de
disminuir se ha ido acumulando en su lecho; ahora Cerro de San Pedro se puede
“vanagloriar”, mientras continua la eterna discusión, de contar además del cerro de oro
con ese otro más abundante cerro de basura. Definitivamente existen dos Cerros de San
Pedro, el real sobre el que no hay interés de desarrollarlo y que poco importa, no sólo su
deterioro, tampoco su deteriorada imagen causada por la basura. El otro el de la disputa,
en el que poco importa el pueblo en sí, sólo lo económico y lo político.
886
El Hijo de El Cronopio No. 79
Noticias de la Ciencia y la Tecnología
Burbujas de jabón
Cuatro investigadores han obtenido la prueba matemática definitiva de la llamada
Conjetura de la Doble Burbuja.
Cuando dos burbujas de jabón esféricas entran en contacto, forman una doble burbuja. A
menos de que ambas sean del mismo tamaño, la superficie entre ellas se arquea
ligeramente hacia el interior de la burbuja mayor, otorgando una forma precisa a la
estructura resultante.
Los matemáticos se preguntaban si la forma obtenida es efectivamente la más apta
(mínima superficie) para contener y separar los dos volúmenes de aire. Frank Morgan,
del Williams College, Michael Hutchings de la Stanford University, y Manuel Ritori y
Antonio Ros, de la Universidad de Granada, han demostrado matemáticamente que así
es. La doble burbuja es la forma óptima para ello.
Otras posibilidades, como que la burbuja mayor rodee a la menor, etc., no son tan
adecuadas. Si se aplica una rotación a diferentes porciones de la burbuja, alrededor de un
eje cuidadosamente seleccionado y a distintas velocidades, la estructura se vuelve
inestable.
En 1995, el caso especial de la unión de dos burbujas idénticas fue demostrado mediante
técnicas informáticas por Hass, Hutchings y Schlafly. Las nuevas aportaciones, en
cambio, amplían el número de posibilidades, y todo ello con el único uso de lápiz y
papel.
La cosa no termina aquí, ya que el teorema ha sido extendido hasta todas las burbujas de
cuatro dimensiones y hasta ciertos casos particulares referidos a un espacio de cinco
dimensiones o más, gracias a los trabajos de varios estudiantes que se encuentran bajo la
dirección de Morgan.
Información adicional en: http://www.williams.edu/Mathematics/fmorgan/ann.html
http://www.williams.edu/News/soapbubbles.html
Imagen: http://www.williams.edu/News/sdb2.jpg
(Imagen por ordenador de una doble burbuja.) (Foto: John M. Sullivan/University of
Illinois)
La biomasa podría sustituir a la gasolina
Cuando el precio de los combustibles fósiles se encuentra por las nubes, los métodos
alternativos de producción de energía vuelven a adquirir mayor importancia.
Los promotores de los combustibles de origen biológico, renovables y no fósiles,
vuelven a recibir la atención que merecen. El elevado precio de la gasolina, no su poder
contaminante, parece ser justificación suficiente como para examinar propuestas
alternativas más ecológicas y, sobre todo, baratas.
Las investigaciones realizadas en el pasado para reemplazar la gasolina se han centrado
sobre todo en el etanol producido a partir del cultivo de cereales. Sin embargo, los
especialistas creen que hay otra fuente de energía igualmente interesante y que podría ser
explotada muy pronto: los desechos de la biomasa.
887
El Hijo de El Cronopio No. 79
Larry Walker, un profesor de Cornell, y sus estudiantes, han estado utilizando enzimas
para convertir los desechos en una forma de energía renovable. Si bien estos desechos
son más baratos que el petróleo, el problema es encontrar un modo de lograr que el coste
de la conversión en energía no sea un lastre para su comercialización. Para ello es
necesario investigar procesos microbianos y enzimáticos rentables y de sencilla
implantación.
El dióxido de carbono es tomado por la planta a través de su metabolismo. El carbono es
entonces usado en sus células. Sólo en los Estados Unidos, se generan cada año 279
millones de toneladas métricas de desechos vegetales a través de la producción agrícola,
industrial y comercial. La clave para aprovechar estos recursos es emplear enzimas que
sean capaces de "romper" la parte fibrosa del material y convertirla en azúcares
fermentables.
El equipo de investigadores de Cornell está estudiando el uso de enzimas procedentes de
bacterias termofílicas, las cuales pueden ocuparse de la celulosa de los desechos
vegetales. La bacteria produce seis enzimas llamadas celulasas, las cuales atacan la
biomasa a través de un proceso denominado hidrólisis. Los enzimas procesan la celulosa
y la convierten en azúcares fermentables, a partir de los cuales se puede producir
combustible o productos químicos industriales.
No sólo las plantas representan un fuente renovable de componentes orgánicos, sino que
también se producen una considerable cantidad de desechos orgánicos que podrían ser
usados como fuente de carbono para las bioindustrias. Por ejemplo, los residuos de
árboles urbanos (desde ramas rotas a árboles de Navidad) suponen 38 millones de
toneladas métricas disponibles para ser procesadas en los Estados Unidos.
Información adicional en:
http://www.news.cornell.edu/releases/March00/ACS.Energy.bpf.html
No venimos de los Neandertales
Un reciente estudio genético confirma que no descendemos directamente de esta especie
primitiva.
La teoría más aceptada en la actualidad sobre el origen del Hombre moderno establece
que éste salió de África hace unos 100.000 años, extendiéndose por Europa y Asia y
reemplazando a sus predecesores arcaicos, como los Neanderthales, los cuales habrían
salido del continente africano con anterioridad.
Los científicos han confirmado esta suposición gracias a un estudio genético de los restos
de un espécimen de Neanderthal. Es la segunda vez que se aplican técnicas moleculares
sobre este tipo de seres primitivos, pero la primera que se ha hecho sobre un ejemplar
que vivió al mismo tiempo que los humanos "modernos".
Investigadores del Human Identification Centre, de la University of Glasgow, así como
colaboradores rusos y suecos, han usado técnicas moleculares genéticas para comparar el
ADN mitocondrial tomado de un niño de Neanderthal que vivió hace 30.000 años, con el
ADN del Hombre actual.
La prueba ha demostrado que ambas especies se separaron de un tronco común hace
unos 500.000 años, de modo que los humanos que reemplazaron a los Neandertales no
procedían de ellos sino que habían evolucionado independientemente en África.
El niño examinado se ha conservado de forma magnífica en la cueva de Mezmaiskaya, al
norte de Cáucaso, donde fue hallado en 1987 por científicos rusos. El nivel de
888
El Hijo de El Cronopio No. 79
preservación del material ha sido tan elevado que ha permitido emplear las citadas
técnicas, habituales en el mundo forense para determinar la identidad de las personas.
Información adicional en: http://gopher.gla.ac.uk/press/releases/neanderthal.html
Se acabaron las inyecciones
El suministro de medicamentos a través de inyecciones se acerca a su fin. Son varias las
técnicas que permitirán prescindir de su dolorosa aplicación.
La tecnología médica avanza sin cesar. Uno de los campos que va a experimentar una
revolución dentro de muy poco es el del tratamiento y en especial el del suministro de
medicamentos a los pacientes. En este sentido, las agujas hipodérmicas, uno de los
métodos más extendidos, se convertirán en obsoletas, siendo reemplazadas por múltiples
formas menos dolorosas y más efectivas. Veamos algunas de ellas:
*El inhalador electrónico: su objetivo es acceder al torrente sanguíneo a través de los
pulmones. Se trata de un dispositivo manual que permite el envío de pequeñísimas
partículas líquidas por la boca en dirección a los pulmones. A diferencia de los
inhaladores convencionales, envían las medicinas hacia la sangre a través de los alvéolos
y pequeños pasos aéreos, con lo que su eficiencia y velocidad son mayores. Será
especialmente adecuado para suministrar insulina y medicamentos contra el dolor.
*Medicamentos a velocidad supersónica: un dispositivo especial utiliza helio a presión
en vez de una aguja para transportar las medicinas, preparadas en forma de polvo. El
aparato lanza mecánicamente el producto químico a través de la piel, de forma indolora,
gracias a que las partículas alcanzan una velocidad superior a la del sonido. Será
adecuado para suministrar pequeñas moléculas, vacunas y potentes drogas
biotecnológicas. También puede servir como herramienta de diagnóstico.
*Gotas de grasa: los liposomas, gotas de grasa, pueden encapsular medicamentos
difíciles de transportar y llevarlos hasta su objetivo. Se han diseñado de manera que
puedan adherirse a células específicas, suministrando sus contenidos (vacunas y
moléculas para terapias genéticas) de forma muy precisa.
*La farmacia en un chip: una señal eléctrica controlada es empleada por un microchip
del tamaño de una pequeña moneda para liberar los medicamentos que contiene. A
diferencia de los parches y los implantes poliméricos, que lo hacen de forma continua, el
chip realiza su trabajo a horas convenidas y en las cantidades adecuadas.
*Microagujas indoloras: una placa cubierta por agujas microscópicas, cada una de ellas
de un diámetro no superior al de un cabello humano, puede aportar medicación a través
de la piel sin causar ningún tipo de dolor. La razón es que las agujas son tan delgadas que
no pueden alcanzar las células de los nervios sensoriales.
Información adicional en: http://center.acs.org/applications/news//story.cfm?story=333
La estabilidad matrimonial se puede predecir
Los psicólogos ya son capaces de pronosticar, el mismo día de su boda, si su matrimonio
tiene o no futuro.
A nadie le gustaría saber, en el preciso momento en que va a contraer matrimonio, que su
vida en pareja tendrá los días contados. Pero lo cierto es que los psicólogos ya son
capaces de predecir el éxito o no de una unión con un 87 por ciento de fiabilidad.
889
El Hijo de El Cronopio No. 79
Varios investigadores de la Universty of Washington han estado estudiando por qué se
divorcia la gente, examinando decenas de casos y realizando comparaciones estadísticas
entre ellos. Han obtenido así los parámetros psicológicos que les permiten predecir con
el porcentaje antes citado qué nuevas parejas permanecerán casadas y cuáles se
divorciarán en un plazo de 4 ó 6 años. Al mismo tiempo, son capaces de determinar con
un 81 por ciento de fiabilidad qué matrimonios sobrevivirán después de los 7 a 9 años.
La técnica puede ser empleada por otros expertos para, tras una hora de entrevista,
valorar el grado de amistad y afinidad entre una pareja y poner de manifiesto sus
percepciones globales con respecto a su matrimonio.
Toda la investigación se basa en un formato de entrevista concreto, ideado por John
Gottman y aplicando ideas originales de Studs Terkel. El sistema emplea preguntas
abiertas, que se centran en la forma en que éstas se responden más que en lo que
realmente se dice. La clave, pues, es cómo habla la gente, y no el contenido propiamente
dicho.
La entrevista explora la historia de la relación de la pareja, la filosofía de sus
componentes en cuanto al matrimonio, y cómo se compara el de sus padres con respecto
al suyo. También se examinan las diversas épocas vividas por el matrimonio, buenas y
malas, así como los momentos del cortejo inicial y la boda.
El estudio se ha realizado sobre 95 parejas recién casadas y ha supuesto su seguimiento
durante períodos que van de los 7 a los 9 años. Los resultados ponen de manifiesto un
patrón que emerge tanto en los matrimonios felices como en los infelices. Los primeros
suelen hablar casi al unísono, ya que se encuentran muy compenetrados y conocen bien
los deseos del otro. En cambio, la simetría se pierde en los matrimonios malavenidos,
donde se aprecia una gran dificultad a la hora de relatar cosas positivas sobre la pareja.
Las predicciones también tienen en cuenta otros factores, como el deseo de tener hijos o
las amistades comunes. En los Estados Unidos, la media de divorcios durante los
primeros cinco años es de un tercio de los matrimonios.
Información adicional:
http://www.washington.edu/newsroom/news/2000archive/03-00archive/k032700.html
Fabrica de neutrinos
Los físicos quieren dejar de depender de la generosidad cósmica para poder estudiar las
curiosas partículas llamadas neutrinos.
Los neutrinos son partículas muy particulares. Aunque producidas por el Sol y las
estrellas de forma constante, son casi invisibles para nuestros instrumentos debido a que
apenas interaccionan con la materia. En cualquier momento del día, muchos de ellos
están atravesando nuestros cuerpos sin que lo notemos, y de hecho, pueden cruzar el
globo terráqueo de lado a lado sin prácticamente inmutarse.
Se han construido dispositivos especiales para "capturar" a algunos de ellos, pero la tarea
es difícil y poco agraciada. Su ínfima masa (aunque no sabemos aún cuánto "pesan"),
debería ayudarnos a aclarar importantes cuestiones sobre la física de partículas y la
cosmología (antimateria, materia oscura...), de manera que los científicos están
interesados en obtener una fuente de neutrinos artificial que no dependa del exterior.
Físicos británicos han propuesto la instalación de una verdadera fábrica de neutrinos.
Estaría basada en un sencillo pero potente acelerador de protones. La máquina podría ser
890
El Hijo de El Cronopio No. 79
construida íntegramente en Gran Bretaña, pero los costes son demasiado elevados y se
está estudiando su promoción como un proyecto internacional.
La fábrica de neutrinos produciría un flujo muy intenso que sería más sencillo de detectar
que los que proceden del espacio. El acelerador tendría unos 120 metros de diámetro,
menos de lo que los actuales dispositivos de este tipo poseen, pero el precio de la factura
alcanza los 700 millones de dólares o más.
El Rutherford Appleton Laboratory, en Oxfordshire, es un candidato para albergar la
instalación si el programa se hace realidad. Produciría el rayo de electrones y lo dirigiría
a través del interior de la Tierra en dirección a detectores subterráneos colocados en otros
lugares del mundo, como el Gran Saso italiano, el Soudan Laboratory estadounidense, o
el Kamioka japonés.
Si se demuestra que los neutrinos tienen masa, podría haber una pequeña diferencia entre
ellos y su contrapartida, los antineutrinos. Esto nos ayudaría a entender no sólo cuánta
masa hay en el Universo, sino también qué pasó con la antimateria que debió ser creada
durante su nacimiento y que parece haber desaparecido.
Información adicional en: http://hepunx.rl.ac.uk/soudan2/; http://www.lngs.infn.it/
http://hepweb.rl.ac.uk/ppUK/PressReleases/pr_nufactory.html
Imagen: http://webnt.physics.ox.ac.uk/documents/images/globe.gif
(Mapa de las distancias del laboratorio RAL con respecto a los de Soudam, Gran Sasso y
Kamioka.) (Foto: Rutherford A. Lab.)
Los latidos del sol
Los astrónomos han detectado un nuevo fenómeno periódico en el interior del Sol
relacionado con el misterioso ciclo de 11 años de actividad solar.
La revista Science acaba de publicar nueva información que arroja luz sobre el extraño
ciclo de 11 años de la actividad solar. Los resultados científicos, obtenidos por la red
internacional de Sismología Solar GONG, han sido confirmados por el satélite SOHO.
El Instituto de Astrofísica de Canarias participa tanto en el GONG, uno de cuyos
instrumentos se encuentra instalado en el Observatorio del Teide, como en el satélite
SOHO, con dos instrumentos a bordo.
El descubrimiento de nuevas variaciones periódicas en el movimiento de la materia
situada por debajo de la superficie solar, en una zona crítica de transición de propiedades
físicas llamada en inglés "tachocline", sugiere que es precisamente en esta capa donde se
podría encontrar el secreto mejor guardado del Sol: el origen del mencionado ciclo de 11
años en la actividad solar, que posiblemente influya de forma directa en el cambio
climático.
El SOHO pudo confirmar la existencia de variaciones periódicas utilizando un
instrumento diferente a los empleados en tierra y aplicando unas técnicas de análisis
completamente distintas a las de GONG. Según el Dr. Pere L. Pallé, investigador
principal por parte española de la red GONG y coordinador de Investigación del IAC,
"este nuevo descubrimiento supone una pieza adicional sólida a tener en cuenta y a
reproducir en cualquier modelo que intente explicar la estructura y dinámica del Sol".
Como si fuera sangre latiendo en una arteria, las corrientes de gas halladas recorriendo
las profundidades de nuestra estrella aumentan su velocidad o la disminuyen a lo largo
de un período de 16 meses.
891
El Hijo de El Cronopio No. 79
El hecho de que la zona afectada esté cerca de la llamada dinamo solar, la región en la
que se genera el campo magnético del Sol, a su vez responsable de la actividad solar, es
muy interesante para los astrónomos. Se cree que las erupciones son el resultado de un
incremento y la rápida liberación de tensiones en los campos magnéticos, lo cual alcanza
su punto álgido una vez cada 11 años. Las corrientes de gases se mueven a un tercio de la
distancia entre la superficie visible de la estrella y su centro, la región de la dinamo o
tachocline. El ciclo de 16 a 15 meses en esta zona se refiere al ecuador, pudiendo ser más
rápido en latitudes superiores. Ahora, los heliofísicos están estudiando la relación directa
que puede haber entre ambos ciclos, el de 11 años y el de 16 meses.
A diferencia de la Tierra, los puntos de la superficie solar no giran a un mismo ritmo. Por
ejemplo, en el ecuador giran una vez cada 27 días, mientras que en los polos lo hacen
cada 35 días. Esta rotación diferencial se extiende a través de la turbulenta capa
convectiva, situada a 210.000 km de la superficie. A partir de aquí, la rotación diferencial
desaparece.
Información adicional en: http://www.gong.noao.edu/
http://sohowww.nascom.nasa.gov/hotshots/
http://pao.gsfc.nasa.gov/gsfc/spacesci/sunearth/sunearth.htm#pulse
http://www.nsf.gov/od/lpa/news/press/00/pr0015.htm
http://www.noao.edu/outreach/press/pr00/pr0003.html
http://www.iac.es/gabinete/oteide/gong.htm
Imagen: http://sohowww.nascom.nasa.gov/hotshots/2000_03_30/cut_line.gif
(Velocidades de rotación del Sol durante un período de 6 meses.) (Foto: NASA)
http://www.noao.edu/image_gallery/images/d3/4103.jpg
(Representación por ordenador del Sol visto por la red de telescopios GONG.)
Genética del envejecimiento
Los errores en la división celular durante la vejez pueden ser los responsables de los
problemas médicos que se experimentan durante este último período de la vida.
Enfermedades como el Alzheimer o la artritis son más frecuentes cuando se llega al
período que denominamos vejez. Un estudio realizado por personal del Skaggs Institute
for Chemical Biology y del Genomics Institute sugiere que los cambios genéticos
graduales producidos por errores en la división celular podrían ser la causa común de
todos estos problemas. Los cambios funcionales se empezarían a producir durante una
edad media, aumentando a medida que se envejece.
Los científicos solían establecer que el envejecimiento es una enfermedad en la que las
células dejan de dividirse. En cambio, el nuevo estudio sugiere que se trata en realidad de
una enfermedad relacionada con el control de calidad de dicha función. Conforme nos
hacemos mayores, la alteración de la expresión genética implica la producción de células
con funciones disminuidas.
A diferencia del cáncer, donde las células se enfrentan a una disfunción uniforme, el
envejecimiento ocurre siguiendo un patrón en forma de mosaico, a diferentes ritmos en
distintos puntos del cuerpo.
Los investigadores han estudiado la regulación genética en células que se dividen de
forma activa procedentes de donantes jóvenes, de mediana edad y de edad avanzada, así
como de personas afectadas por progeria, una rara enfermedad que se caracteriza por un
envejecimiento acelerado. Los autores indican que 61 de los más de 6.000 genes
892
El Hijo de El Cronopio No. 79
estudiados mostraron que el número de cambios se duplica desde la juventud a la
mediana edad.
Lo importante ahora es identificar aquellos genes asociados con las enfermedades más
relacionadas con la edad, para explorar posibles formas de prevenirlas o tratarlas.
Información adicional en: http://www.scripps.edu/
Los gases de la vida
Las emisiones de los volcanes podrían haber constituido el punto de partida para el
nacimiento de la vida en la Tierra y otros planetas.
Los geólogos de la Washington University han desarrollado cálculos teóricos sobre cómo
la vida pudo aparecer en la Tierra, Marte y otros astros a partir de gases volcánicos.
Everett L. Shock y Mikhail Y. Zolotov han analizado la composición química de las
cenizas, la lava y el magma procedentes de nueve volcanes representativos (por ejemplo,
el Mt. St. Helen, el Surtsey, el Etna y el Kilauea) y han llegado a la conclusión de que los
gases volcánicos de la Tierra primitiva, después de surgir a unos 1.200 grados Celsius de
temperatura, se enfriaban hasta alcanzar entre 150 y 300 grados C. En este rango, las
condiciones químicas y medioambientales pueden dar lugar a hidrocarburos básicos a
partir del hidrógeno y el monóxido de carbono presente en los gases. En el proceso
interviene una reacción catalítica donde el componente del hierro llamado magnetita
juega un papel especial como catalizador.
Durante décadas, los investigadores han venido observando una fina película de material
orgánico sobre las superficies minerales de las rocas. Estas mezclas orgánicas
probablemente se condensaron en los gases volcánicos, durante las erupciones.
Las condiciones favorables para la síntesis de hidrocarburos también pueden serlo para
otros ingredientes de la vida, como aminoácidos y polímeros orgánicos complejos,
llegando, quizá, a moléculas autorreplicantes como el ARN, y después llevándonos a
todo tipo de células y organismos diversos.
Los cálculos tienen en cuenta temperaturas, composición de los gases, estados de
oxidación de éstos y condiciones geofísicas de cada volcán. Son útiles porque permitirán
realizar experimentos y analizar desde otro punto de vista meteoritos marcianos que han
sido recuperados en nuestro planeta. La vida, pues, no sólo podría surgir de los
materiales gaseosos de los volcanes actuales, sino que pudo haber surgido con mayor
probabilidad hace miles de millones de años en la Tierra primitiva, en Marte y en la luna
de Júpiter, Europa.
De hecho, en el lejano pasado, la temperatura del magma habría sido 200 grados Celsius
más alta que ahora, y la atmósfera estaría mucho menos oxidada. Estas condiciones son
mejores para la producción posterior de hidrocarburos.
Información adicional en: http://wupa.wustl.edu/nai/feature/2000/Mar00-gases.html
Nuevo éxito para los cazadores de planetas
Los astrónomos siguen descubriendo mundos situados más allá del nuestro. En esta
ocasión, además, su tamaño es inferior a todo lo encontrado hasta la fecha.
De los 30 planetas descubiertos hasta hoy alrededor de soles más o menos parecidos al
nuestro, todos han resultado ser de igual o superior masa que la de Júpiter. Esto no es
893
El Hijo de El Cronopio No. 79
raro, puesto que nuestras capacidades ópticas aún son limitadas y un planeta más
pequeño refleja menos luz de su estrella madre, con lo que es más difícil de localizar.
Por eso, el anuncio de que los astrónomos han encontrado dos planetas cuyo tamaño es
parecido al de Saturno es una espléndida noticia que nos acerca un poco más al día en
que seremos capaces de detectar planetas de las dimensiones de la Tierra, mundos
sólidos cuyas condiciones de habitabilidad sean superiores que las de sus hermanos
gaseosos.
El hallazgo de planetas semejantes a Saturno en cuanto a masa refuerza la teoría que
indica que debería haber más cuerpos pequeños que grandes, y que todos ellos pueden
aparecer a partir del disco de polvo protoplanetario que rodea a una estrella que acaba de
nacer.
Geoff Marcy, el campeón del descubrimiento planetario, de la University of California,
reconoce que, como en una playa lejana, hasta ahora sólo podíamos ver los peñascos más
grandes. Con los últimos descubrimientos, ya tenemos a nuestro alcance a las primeras
rocas, y quizá pronto seamos capaces de ver incluso la arena.
Júpiter tiene tres veces la masa de Saturno. Es por eso que planetas como este último son
más difíciles de detectar. Lo han sido gracias al uso del gran telescopio Keck, instalado
en el Mauna Kea, en Hawai. Así, ha revelado la existencia de un cuerpo con una masa de
un 80 por ciento la de Saturno girando a 6 millones de kilómetros de la estrella
HD46375, a 109 años luz de nosotros, en la constelación de Monoceros, y de otro con
una masa del 70 por ciento, orbitando a 52 millones de kilómetros de 79 Ceti
(HD16141), a 117 años luz de la Tierra, en la constelación de Cetus.
Sus órbitas están, por tanto, muy próximas a sus estrellas. El primer planeta tarda sólo
3,02 días en girar alrededor de la suya, mientras que el segundo lo hace en unos 75 días.
Como Saturno, deben ser gigantes gaseosos, principalmente hechos de hidrógeno y helio.
El de 79 Ceti debe tener una temperatura superficial de unos 830 grados Celsius y el de
HD46375 alcanzará al menos los 1.130 grados C. Demasiado calor para que la vida
pueda existir en ellos.
Con toda probabilidad, se formaron más lejos de sus estrellas, allá donde pudieron
acumular gases fríos, para después migrar hasta sus posiciones actuales.
Marcy y sus colegas no han acabado el trabajo. Tienen entre manos un proyecto que
supone la investigación de 1.100 estrellas situadas en un radio de 300 años luz de la
Tierra.
Información adicional en: http://origins.stsci.edu/news/2000/01
http://www.spacescience.com/headlines/y2000/ast30mar_1.htm
Imagen: http://origins.stsci.edu/news/2000/01/content/4x5w.jpg
(Visión artística del planeta de 79 Ceti.) (Foto: Greg Bacon/STScI)
La Ciencia desde el Macuiltépetl/ Las dos culturas
Por Manuel Martínez Morales
Para los griegos, la creación de una obra de arte era el producto de dos actos
inseparables: mimesis y methexis. La mimesis corresponde al acto de imitar, de recrear
lo visto, lo sentido, lo vivido; y la methexis, al acto mediante el cual el artista se
894
El Hijo de El Cronopio No. 79
compromete con la realidad, se compenetra de ella para así poder representar no sólo la
forma, sino también la esencia, lo sustancial de lo representado en su obra.
Con el paso del tiempo, esos dos actos han sido tajantemente separados, a tal grado que
en muchas ocasiones se llama arte al simple ejercicio de una técnica, al llano
simbolismo, al elemental dominio de un método.
De la misma manera, se han separado dos modos de abordar la realidad por el hombre,
modos que en su esencia deben ser inseparables. Me refiero a lo que se ha dado en llamar
las dos culturas. Por una parte se tiene el núcleo de las humanidades que incluyen las
artes, la literatura, la filosofía, etc., y, por otro lado, se ubica a las ciencias con sus fríos
modelos e insensibles máquinas. Para las humanidades existen valores éticos y estéticos,
esto es, la moral, la belleza y la justicia; pareciera que las ciencias dentro de la
concepción moderna tienen que ser, a tal grado, “objetivas” que no deben permitir en sus
dominios los juicios de valor .
Esta situación se refleja obviamente en las características psicológicas y hábitos de
quienes se han formado en una u otra cultura. Le sugiero una experiencia interesante:
invite a tomar café a un “humanista” y a un “científico”; plantéeles un tema de
conversación cualesquiera y note su manera de hablar, de juzgar, de analizar y de
exponer conclusiones. En el fondo, la separación entre lo humanístico y lo científico es
artificial y conlleva serios riesgos si no es superada adecuadamente.
Más de uno de los grandes científicos de nuestra era ha dicho que no sólo buscaba que su
teoría fuese correcta, sino que, además, fuera bella. Bella en el sentido de que presentara
regularidades en su estructura, ciertas simetrías.
Un destacado divulgador de la ciencia, J. Bronowsky, dice:
Uno de los prejuicios contemporáneos más nefastos ha sido el que el
arte y la ciencia son cosas diferentes y en cierto modo
incompatibles. Hemos caído en el hábito de contraponer el sentido
artístico al científico; incluso los identificamos con una actividad
creadora y otra crítica. En una sociedad como la nuestra, que
practica la división del trabajo, existen naturalmente actividades
especializadas como algo indispensable. Es desde esta perspectiva,
y sólo desde ella, que la actividad científica es diferente de la
artística. En el mismo sentido, la actividad del pensamiento difiere
de la actividad de los sentidos y la complementa. Pero el género
humano no se divide en seres que piensan y seres que sienten, de ser
así no podría sobrevivir mucho tiempo. (El sentido común de la
ciencia, Península, 1978)
Hay que agregar que no sólo se ha contrapuesto el arte a la ciencia, sino que tal
contraposición se ha hecho extensiva a muchos dominios de las humanidades.
Desde luego que la creatividad, esencial en cualquier arte o ciencia, exige un cierto grado
de especialización. Conjuntar nuevamente mimesis y methexis no implica formar
“todólogos”, es decir, no se necesita se músico profesional para disfrutar y apreciar la
buena música, ni es necesario ser científico para estar al tanto de los adelantos de la
ciencia, lo que se requiere es una reintegración de esos aspectos de la actividad del
hombre.
El divorcio entre humanidades y ciencias está enraizado, en última instancia, en la
enajenación que produce un sistema fincado en la división de la sociedad en clases y en
895
El Hijo de El Cronopio No. 79
la explotación del trabajo humano. Para los fines de tal sistema, el hombre tiene que ser,
debe ser, parcelado, es decir, mutilado, y solamente debe atender al desarrollo de
aquellas facultades que son directamente útiles en la producción. Además, no produce
para sí, sino para satisfacer los requerimientos de un mercado lejano y abstracto. El
productor, obrero, artista o científico, siente que su obra encierra poderes que lo
dominan, que poseen una suerte de vida propia.
Se habla del arte, de la ciencia, de la filosofía como entidades con vida autónoma que
dictan leyes para ser obedecidas por los hombres. Lejos estamos todavía de entender que
esas grandiosas obras del arte, de la ciencia y de la filosofía, son producto de la actividad
humana y que es el hombre mismo quien puede darles el sentido apropiado para que esas
obras sean verdaderas fuentes de satisfacción, de belleza, de entendimiento y de paz.
Así, lo que muchos deseamos y todos necesitamos es que llegue el día en que no haya
más obreros pintores o científicos, sino simples hombres que, entre muchas otras cosas,
produzcan, pinten o hagan ciencia.
El Cabuche (crónicas de la Facultad de Ciencias)/ Esos pioneros
La física, como disciplina es nuestro país es joven, y por lo tanto lo son la mayoría de los
profesionales que la cultivan (también existimos más jóvenes aún). A principios de los
años cincuenta comenzaron a fincarse instituciones de formación de estos nuevos
ejemplares de la ciencia en provincia. Puebla y San Luis figuran entre estas instituciones.
De aquellos personajes que contribuyeron a su consolidación han y están pasando de
jóvenes a personas mayores y eventualmente dejan este mundo; aunque, existen
lamentables casos de accidentes que, prematuramente, han dejado a la física sin sus
valiosas contribuciones. El 26 de mayo Virgilio Beltrán López fue vencido por el cáncer,
yéndose así uno de los pioneros de la física en provincia. Virgilio Beltrán formó parte de
ese importante grupo de físicos que a principios de los sesenta engalanaba a la
universidad poblana. Junto con Eugenio Ley Koo y García Colín, entre otros, se
desarrollaban en ese ambiente difícil y hasta hostil que representa emprender trabajos de
investigación en entornos un tanto cerrados, muy propios de universidades y sociedades
conservadoras. En aquellos tiempos el ímpetu de la universidad poblana contrastaba con
su mojigata sociedad. Consecuencia de esas confrontaciones fue la total destrucción (así
literalmente) de la escuela de física, a manos de los retrogradas caballeros de colón (no
merecen ponerles mayúsculas). La ahora Facultad de Ciencias Físico-Matemáticas de la
UAP ha sabido reponerse a esos obstáculos y figura como una de las instituciones
importantes del país. En San Luis la facultad ha tenido que enfrentarse a ese tipo de
presiones, aunque de forma más sutil; aunque en número de profesores e investigadores
no podemos compararnos con la facultad poblana, su desarrollo en épocas tempranas fue
tan glorioso como el caso de Puebla; tan glorioso que podemos vanagloriarnos de que en
nuestras aulas se formó el primer grupo de física experimental en provincia y que tal
grupo alcanzó niveles insospechados en aquella época, no igualados sino hasta la época
actual. Gustavo del Castillo y Gama, fundador de la escuela y de la física en San Luis,
apenas el quinto doctorado en física de México, formado, como los anteriores, en el
extranjero, jugo un papel clave. Ante los embates del centro, poco es conocido su papel y
contribuciones, tanto a la física como disciplina, como a la formación y consolidación de
grupos de investigación en provincia. Se hace necesario destacar el papel de estos
pioneros. Por lo pronto los trabajos del XVIII Concurso Regional de Física y
896
El Hijo de El Cronopio No. 79
Matemáticas, mejor conocido como Fis-Mat, está dedicado a Gustavo Del Castillo y
Gama como un modesto y justo reconocimiento a su labor. Labor que contradice, al igual
que el mural plasmado en un bar por el rector de Cuénamo, en la novela de Jorge
Ibargüengoitia “Estas ruinas que ves”, que fue maravillosamente llevada a la pantalla
grande y difundida por la chica, en una película del mismo nombre. En el mural el rector
(en la película encarnado por Rafael Banquels, el famoso gutierritos, que no pertenecía al
HUMO, esa sociedad de nuestra facultad que reúne a los maridos oprimidos y de la cual,
sobra decir, formo parte) pintó figuras de la ciencia que evolucionan en imágenes desde
cuando el hombre fue primate hasta culminar en Einstein, posados sobre un colorido
arcoiris que representa la luz, mientras que en la parte inferior aparece un grupo de
personajes con garrotes que aseguran, aunque el mundo les demuestra lo contrario: “La
ciencia no existe” y firman C.C. Cuando interroga al rector uno de los profesores que lo
acompaña en la faena, qué significa C.C., éste explica, -la frase, la firman los caballeros
de colón.
Siempre que se hace una historia/Se habla de un viejo,
de un niño, o de sí,/pero mi historia es difícil/no voy a
hablarles de un hombre común/haré la historia de un
ser de otro mundo/de un animal de galaxia./Es una
historia que tiene que ver/con el curso de la Vía
Láctea,/es una historia enterrada/es sobre un ser de la
nada
SEGUNDO ANIVERSARIO DE: EL HIJO de EL CRONOPIO
El ejemplar que tienes en tus manos, puedes considerarlo un número de aniversario. Con
esta entrega, cumplimos dos años de editar el Boletín. Esperamos tus comentarios,
sugerencias y contribuciones. Por lo pronto, nosotros mismos nos felicitamos y
agradecemos la participación de todos aquellos que se han atrevido a enviar algún
artículo; a la Administración de la Facultad, a cargo de Alicia Robledo, que atiende su
impresión y distribución. En especial a Ruth y a la Sra. Lucha (entre otras cosas por la
abrumadora tarea de separar hojas, encuadernarlo y lidiar con la raza), al Berna (el
responsable de que salga derecho o chueco cuando se pelea con el copyprinter), a
Octavio y en ocasiones Enrique o el juanillo, que eventualmente lo carga en su maletín
negro, en las entregas dirigidas al centro (de la ciudad). A todas las víctimas de El
Cabuche.
Esperamos seguir, algunos años más.
Ayuda a tu Facultad. Llévate quince años de historia. Adquiere los mosaicos de la otrora
área de cubículos de la Facultad. En ella trabajaron grandes personajes, otros no tanto.
Mosaicos completos: $100.00, rotos: $50.00 y echos cachitos: $25.00
Es broma, pero podría resultar este émulo del programa universitario de reconstrucción
del edificio central. Posters, no tenemos.
897
Boletín
El Hijo de El Cronopio
Facultad de Ciencias
Universidad Autónoma de San Luis Potosí
No.80, 12 de junio de 2000
Boletín de información científica y
tecnológica de la Facultad de Ciencias
Publicación semanal
Edición y textos
Fís. José Refugio Martínez Mendoza
Parte de las notas de la sección Noticias de la
Ciencia y la Tecnología han sido editadas por
los españoles Manuel Montes y Jorge
Munnshe. La sección es un servicio de
recopilación de noticias e informaciones
científicas, proporcionadas por los servicios de
prensa de universidades, centros de investigación
y otras publicaciones especializadas.
Cualquier información, artículo o anuncio deberá
enviarse al editor. El contenido será su
responsabilidad.
e-mail: flash@galia.fc.uaslp.mx
Números anteriores del boletín, pueden
consultarse por Internet en la página de la
UASLP:
Noticias de la
Ciencia y la Tecnología
El robot polimórfico
Una nave interestelar
Hace 555 millones de años
La flor dentro de la flor
Dos mejor que una
Ancestros humanos fuera de África
La llama espiral
Perdido y encontrado
Descifrado el cromosoma 21
Enanas marrones
http://phobos.dtc.uaslp.mx/publi.html
La Ciencia desde el
Macuiltépetl/ René Descartes
El Cabuche (crónicas de la
Facultad de Ciencias)/
La otra Fiesta del Chivo
El Hijo de El Cronopio No. 80
Noticias de la Ciencia y la Tecnología
El robot polimórfico
No es el robot metálico de la película Terminator 2, pero su adaptabilidad no deja de ser
sorprendente.
Una máquina que pueda cambiar su forma para adaptarse a la tarea que deba realizar en
cada momento es un sueño perseguido por muchos ingenieros. Las denominamos robots
polimórficos y no están tan lejos de la realidad.
Investigadores de Massachusetts trabajan en ello. El prototipo, de momento, es muy
simple y carece de sensores, de manera que desconoce lo que ocurre a su alrededor, pero
pronto recibirá sustanciales mejoras. Sus diseñadores, encabezados por Hod Lipson y
Jordan Pollack, de la Brandeis University, utilizan termoplástico, un material altamente
adaptable, para dar forma a su estructura.
La idea, como el famoso androide de la película Terminator 2, es que el robot pueda
"moldearse" a sí mismo, adaptando su estructura para realizar cada tarea específica. Una
vez finalizada, dicha estructura podrá ser "fundida" y reciclada de inmediato para
construir otras adaptadas a trabajos totalmente distintos. Sistemas de este tipo podrían ser
interesantes para misiones de exploración espacial, o para el rescate de personas y
objetos, cuando sea necesario afrontar ambientes impredecibles y extraños.
Por ejemplo, imaginemos que la tarea asignada al robot consiste en encontrar una forma
que le permita moverse con una sola pierna y un único motor. Un ordenador intentará
diseñar el cuerpo que permita cumplir la orden con la mayor eficiencia. Para ello, estará
unido a un dispositivo llamado impresora 3D, que emplea una tobera por la que se
depositan sucesivas capas de termoplástico, creando de esta forma, muy lentamente, la
estructura requerida. Cuando este tipo de impresoras pueda miniaturizarse, podrán ser
incorporadas al propio robot, de manera que las diversas partes de su cuerpo, diseñadas
en ese preciso instante, puedan adaptarse a las necesidades del momento. El extremo de
un brazo de termoplástico podría cambiar de forma hasta conseguir la herramienta
utilizable en cada situación, como una navaja suiza.
En lugares remotos, como el espacio, esto significará que no será necesario transportar
todo un surtido de herramientas. El robot polimórfico examinará la situación, diseñará y
creará aquellas que necesite y las incorporará a su cuerpo.
Los materiales termoplásticos son reciclables, ya que su dureza depende de la
temperatura que se les aplica. Cuando dejan de ser útiles, pueden ser fundidos y servir
como materia prima para una nueva estructura. Los investigadores están buscando
materiales conductores, no conductores o incluso semiconductores, con las mismas
propiedades que los termoplásticos. Esto quiere decir que se podrían construir de una
pasada, sin ensamblaje, cables, motores o circuitos lógicos.
Para cada tarea asignada, el robot polimórfico adoptará una forma no conocida de
antemano. La estructura física, y la red neural que constituirá el cerebro del robot, serán
tratados como información genética que puede ser combinada y mutada de forma
simulada, con el objetivo de conseguir diseños totalmente nuevos. La evolución se
detendrá cuando la configuración resulte apta para el trabajo que deba realizarse.
899
El Hijo de El Cronopio No. 80
El algoritmo actual trabaja sólo con componentes básicos simples, como barras de
plástico de dimensiones determinadas, así como motores eléctricos que pueden extender
o disminuir la longitud de las barras. Las juntas son también muy sencillas y fáciles de
reproducir. Pero estamos sólo ante el primer paso.
El único problema, por ahora, radica en conseguir plásticos más fuertes y otros
materiales más adecuados a la metodología desarrollada. (New Scientist)
Información adicional: http://www.demo.cs.brandeis.edu/golem
Video: http://www.demo.cs.brandeis.edu/golem/simulator/poscilate1.mov
(Prototipo de robot en movimiento.) (Foto: Lipson/Pollack)
Una nave interestelar
Los ingenieros de la NASA ya están diseñando la primera y verdadera sonda que viajará
hacia las estrellas.
Aunque las sondas Voyager-1 y 2 y Pioneer-10 y 11 ya han sobrepasado los límites
físicos del Sistema Solar, adentrándose en el llamado espacio interestelar, en realidad su
velocidad es tan lenta que se habrán vuelto demasiado viejas cuando queramos mantener
el contacto con ellas a distancias realmente significativas.
Ni siquiera se dirigen hacia algún punto de destino concreto, como una estrella, sino que
su trayectoria viene determinada por su ya finalizada misión de exploración de los
planetas gigantes del Sistema Solar. Algunos científicos creen incluso que, aunque hayan
superado ampliamente la distancia que nos separa de Plutón, el más alejado de los
planetas tradicionales, no se encuentran aún en espacio interestelar. Ello ocurrirá sólo
cuando hayan superado la heliopausa, el punto, probablemente variable, donde la
influencia del Sol deja de sentirse de forma definitiva.
Es por eso que los ingenieros ya están desarrollando naves más rápidas que puedan
desempeñar una misión en espacio interestelar antes de que transcurra demasiado tiempo.
De momento, su mayor apuesta, en el ámbito de la propulsión, se encuentra en las
denominadas velas solares.
El Marshall Space Flight Center de la NASA avanza con decisión en este terreno. El
objetivo más próximo es el lanzamiento de una o mas sondas interestelares que,
consiguiendo adentrarse en el espacio más allá de nuestro Sistema Solar, demuestren la
tecnología necesaria para mayores empresas. Equipadas con grandes velas que
aprovecharán el empuje de la presión fotónica procedente de nuestra estrella, podrían
alcanzar distancias de hasta 250 unidades astronómicas (una UA es equivalente a 150
millones de km) en apenas 15 años. Su velocidad máxima de crucero será de unos 93
km/s, suficiente para cubrir la distancia entre Madrid y Barcelona en apenas 6 segundos.
El lanzamiento de un primer prototipo podría producirse en 2010. Viajando cinco veces
más rápido que las Voyager, superaría la distancia de éstas hacia el 2018, cubriendo en 8
años lo que habrá llevado 41 a las viejas sondas. La nave, además, será la más grande
construida nunca, con una vela solar que una vez desplegada tendrá un diámetro de más
de 400 metros. Será construida con un material reflectante, basado en fibra de carbono, y
se desplegará adoptando la forma de las palas de un ventilador.
Si la tecnología resulta adecuada, durante la siguiente década los ingenieros se centrarán
en desarrollar vehículos capaces de alcanzar las estrellas más próximas. Las velas
solares, que no necesitan combustible para acelerar, pueden ser nuestra puerta hacia las
estrellas.
900
El Hijo de El Cronopio No. 80
Información adicional en: http://www1.msfc.nasa.gov/NEWSROOM/news/releases/2000/00-150.html
Imagen:
http://www1.msfc.nasa.gov/NEWSROOM/news/photos/2000/2000images/9906265_m.j
pg (Concepto de vela solar.) (Foto: Marshall SFC)
Hace 555 millones de años
Los primeros animales complejos que vivieron en la Tierra y que han dejado señales de
su existencia eran parecidos a los gusanos.
Investigadores del Massachusetts Institute of Technology, del Instituto Paleontológico de
Moscú y del California Institute of Technology han anunciado que han conseguido
determinar la época en la que vivieron alguno de los primeros animales complejos que
poblaron la Tierra.
Los rastros fósiles (marcas en el sedimento) examinados pertenecen a la llamada fauna
de Ediacara y se hallan en Rusia. Un examen radiológico de la capa de ceniza volcánica
que cubre las rocas en las que se encuentran nos ha proporcionado una edad de unos 555
millones de años.
Tales rastros fueron hechos probablemente por criaturas con aspecto de gusanos que se
movían a través del sedimento en el fondo marino. Estos desplazamientos implican un
cierto nivel de complejidad morfológica, como la existencia de un cuerpo rígido y de un
intestino.
El mismo lugar contiene un fósil conocido como Kimberella, que sólo se encuentra allí y
en Australia y que tiene todo el aspecto de ser un molusco primitivo. 555 millones de
años sería la nueva edad mínima a partir de la cual aparecieron este tipo de organismos.
Los científicos creen ahora que la aparición de los primeros organismos multicelulares es
anterior a hace 600 millones de años. Esto debe relacionarse con la llamada explosión del
Cámbrico, ocurrida hace 543 millones de años, momento que registró la aparición de un
gran incremento de especies.
La zona rusa del Mars Blanco es particularmente interesante por la calidad y la
conservación de los fósiles. No se descartan nuevos descubiertos durante los próximos
años.
Información adicional en: http://web.mit.edu/newsoffice/nr/
La flor dentro de la flor
En ocasiones, las plantas presentan deformidades curiosas, como flores que surgen del
interior de otras flores. Los científicos han identificado los genes responsables de esta
extraña situación.
Biólogos de la University of California creen haber resuelto parte del misterio de las
flores que crecen dentro de otras flores. Durante años, se han buscado en vano los genes
responsables de esta deformidad, establecida desde hace mucho tiempo como una
anormalidad de origen desconocido.
Dicha deformidad fue descrita por primera vez hace 2.000 años, dando lugar a lo que
conocemos por "flor monstruosa". Por supuesto, su mayor atractivo la convirtió en un
premio codiciado en la industria y el comercio de flores. Muchas rosas, camelias, etc.,
pueden producir flores dobles. Crecen a partir de extremos podados, ya que las plantas,
habiendo perdido sus órganos reproductivos, se vuelven estériles.
901
El Hijo de El Cronopio No. 80
Las plantas no producen este fenómeno de forma habitual, al menos en el campo, debido
a que para ello es necesario que muten tres genes virtualmente idénticos dentro de sus
células. Surgirá entonces la flor dentro de la flor dentro de la flor..., en un proceso que
puede repetirse de manera indefinida y que será detectable sólo hasta que los órganos
más pequeños de la flor dejan de ser visibles.
Las flores normales consisten en una serie de cuatro anillos concéntricos. El más exterior
está hecho de sépalos, el órgano verde con forma de hoja que normalmente rodea el
capullo de la flor antes de que se abra. Dentro de los sépalos se encuentra el anillo de
pétalos, el anillo de estambres (las estructuras reproductivas masculinas), y por último,
en el centro, los carpelos (o pistilos), las estructuras reproductivas femeninas.
Cuando los tres genes encontrados por los científicos mutan, los pétalos, estambres y
carpelos se convierten en sépalos, proporcionando la forma de doble flor. El papel de
dichos genes había permanecido oculto para los genetistas debido a que son
prácticamente iguales, con lo que ha sido necesario mutarlos uno a uno y después
combinarlos en una única planta, una técnica que ha precisado de años de trabajos en el
laboratorio, para ver sus efectos.
La planta utilizada por los científicos para esta investigación es la Arabidopsis, muy
apreciada por los genetistas.
Los botánicos han propuesto desde hace cientos de años que los sépalos, pétalos,
estambres y carpelos no son sino hojas modificadas. Pero a pesar del progreso realizado
durante los últimos años, nadie había podido convertir hojas en cada uno de estos
órganos. El descubrimiento de los genes podría ser la pieza del rompecabezas que
faltaba, ya que ahora sabemos que son necesarios para la formación y definición de las
diferentes partes de la flor.
Quizá en el futuro podremos activar a voluntad tales genes, produciendo nuevas
variedades de plantas repletas, por ejemplo, de pétalos de colores allá donde antes sólo
había hojas verdes.
Información adicional en: http://ucsdnews.ucsd.edu/newsrel/science/mcflower.htm
Imagen: http://ucsdnews.ucsd.edu/graphics/images/Image4.jpg
(Una doble flor Arabidopsis.) (Foto: Soraya Pelaz, UCSD)
Dos mejor que una
De la misma manera que las personas oyen mejor con dos orejas que con una, los futuros
dispositivos para comunicaciones sin hilos utilizarán no una sino dos o más antenas.
Cada vez más gente accede a los servicios de transmisión de datos y voz sin cables. Este
tipo de servicios pueden llegar a proporcionar un acceso a Internet más rápido o una
mejor calidad en las comunicaciones habladas, además de una mayor libertad de
movimientos para el usuario. Sin embargo, el crecimiento exponencial en el uso de estos
sistemas amenaza su calidad inherente.
Una forma de evitar su degradación consistirá en añadir una segunda antena a los
dispositivos empleados. Pruebas recientes demuestran que dos antenas se comportan
mejor que una sola, aunque para ello haya que emplear técnicas sofisticadas de
procesado de señales.
Esto último no parece que vaya a ser un problema en el futuro, de manera que ya
podemos entrever la aparición de una nueva generación de equipos para las
comunicaciones celulares, todos ellos equipados con dos o más antenas. Según Michael
902
El Hijo de El Cronopio No. 80
Zoltowski, de la School of Electrical and Computer Engineering de la Purdue
University, su uso mejorará el acceso a Internet, posibilitando el envío de grandes
cantidades de datos, video, etc.
El principal inconveniente de las comunicaciones sin hilos son las interferencias. Dichas
interferencias se verán reducidas precisamente de forma drástica si añadimos una o más
antenas, ya que la fiabilidad de la conexión se incrementará entonces en unas 100 veces.
Esto, además, permitirá que el triple de usuarios pueda compartir la misma banda de
frecuencias. Las antenas adicionales son "inteligentes" porque rechazan las interferencias
y compensan los efectos causados por el reflejo de las señales que rebotan en los
edificios y en otras estructuras.
El objetivo final será que cualquier usuario, con su ordenador portátil y su teléfono
celular, pueda conectarse a Internet desde el coche o en un tren en marcha y bajar
información de la web sin encontrar dificultades de ningún tipo.
Información adicional en: http://ECE.www.ecn.purdue.edu/ECE/Fac_Staff/Faculty/zoltowski
Ancestros humanos fuera de África
Los paleontólogos han descubierto restos humanos que podrían pertenecer a los más
antiguos localizados fuera del continente africano.
Tienen 1,7 millones de años y pertenecen a uno de nuestros más lejanos ancestros. Los
paleontólogos opinan que los restos de cráneo fosilizado hallados en Dmanisi, en la
República de Georgia, son además los más antiguos localizados fuera de África y que
podrían pertenecer a las primeras especies de homínidos que salieron de dicho continente
para emigrar a Eurasia.
El descubrimiento ha sido protagonizado por investigadores de Georgia, Alemania,
Francia y los Estados Unidos. Su interés radica en que la edad y características de los
fósiles los relacionan con la especie humana llamada Homo ergaster, probablemente la
versión africana del conocido Homo erectus.
Si esto fuera así, nuestros antepasados habrían salido de África hace 1,7 ó 1,8 millones
de años, poco después de que la evolución les dotara de cuerpos relativamente grandes y
mayores cerebros. Sin embargo, aún no habían realizado avances notables en cuanto a la
tecnología de las herramientas de piedra.
Muchos científicos creen que el Homo erectus fue la primera especie de homínido que
dejó el continente africano, pero su identidad exacta y el momento elegido para ello
sigue debatiéndose. El escenario clásico sugiere que el Homo erectus, armado con una
herramienta avanzada, el hacha manual, fue el primero en ser capaz de extenderse a
través de una serie de lugares fuera de África.
Los fósiles de Dmanisi, dos fragmentos de cráneo, parecen contradecir esta teoría. Las
herramientas de piedra halladas junto a ellos son menos sofisticadas de lo esperado, lo
que sugiere que la emigración desde África pudo ser anterior a la época dominada por las
hachas.
Los cráneos fueron hallados durante diversas excavaciones arqueológicas en un castillo
medieval. El análisis de los isótopos del basalto otorgan una edad de 1,77 millones de
años al lugar, pero la firma paleomagnética del sedimento es menos precisa, de manera
que se ha utilizado la bien conocida datación de ciertas especies animales
contemporáneas para aumentar la fiabilidad.
903
El Hijo de El Cronopio No. 80
Se cree que la tecnología pétrea más avanzada apareció en África hace 2.4 millones de
años. Por tanto, su no presencia en Dmanisi nos hace preguntarnos qué razones
impulsaron a los homínidos a salir del continente. Los científicos piensan que el
principal motivo fue el hambre.
La expansión de la sabana africana proporcionó una mayor cantidad de proteínas a sus
habitantes. Con la aparición del Homo ergaster, no obstante, los cuerpos crecieron y
requirieron mayor cantidad de energía para moverse. Su dietas tuvieron que cambiar y
permitir el acceso a fuentes de proteínas animales. La necesidad de seguir a sus presas y
abarcar su mayor campo de acción les hizo alejarse cada vez más, cubriendo más y más
territorio. Finalmente, pasaron a Eurasia y se extendieron por este continente.
Información adicional en: http://www.napa.ufl.edu/2000news/hominids.htm
http://www.aaas.org/
Imagen: http://www.napa.ufl.edu/graphics/hominid1.jpg
(Uno de los cráneos hallados.) (U. of Florida)
La llama espiral
La presencia de la gravedad o la acción de las corrientes de aire proporcionan a la llama
procedente de una combustión su conocida estructura. Pero en microgravedad, las cosas
son muy distintas.
Los investigadores están muy interesados en estudiar el comportamiento del fuego. De
ello depende que sepamos cómo combatirlo mejor o aprovechar la energía que
desprende.
Conocemos bastante bien qué forma adopta la llama de un fuego sobre la Tierra, su
temperatura, los gases que produce, etc. Pero estamos, en realidad, ante un sencillo caso
particular, definido por la presencia de la gravedad y de la atmósfera. A bordo de una
astronave situada alrededor de nuestro planeta, una llama se comporta de una forma muy
distinta.
En la Tierra, la gravedad es la causante de un fenómeno convectivo, el cual a su vez da a
la llama su tradicional forma de gota. Además, el hollín producto de la combustión
asciende, dando una coloración amarillenta a la parte superior de la llama. En cambio, en
microgravedad no hay flujos convectivos. La llama se vuelve esférica, azulada y sin
presencia de hollín. Esto puede ser beneficioso, pero también reportar problemas, en caso
de un incendio. La seguridad de los astronautas depende de nuestro conocimiento sobre
estas situaciones que se escapan de lo normal.
Afortunadamente, hemos conseguido algunas pistas con experimentos realizados en la
superficie terrestre. Por ejemplo, se provocó la combustión de un disco de plástico algo
mayor que un CD, utilizando para ello un soplete. A continuación, se hizo girar el disco
lentamente (de 2 a 20 revoluciones por segundo) en un ambiente de aire en calma. La
llama, entonces, empezó a moverse siguiendo una estructura en espiral, en dirección
opuesta al giro del disco. Cuando las llamas disminuyeron su actividad, sus puntas
exhibieron un comportamiento extraño, moviéndose alternativamente de un lado a otro.
Los científicos saben ahora que este fenómeno ocurre también en microgravedad.
Empezar un fuego en el centro de un disco inmóvil es como lanzar una piedra en un
estanque tranquilo. Produce un frente de llamas que avanza en forma de círculo,
disminuyendo a medida que el combustible (el disco) se consume. Si hacemos girar el
904
El Hijo de El Cronopio No. 80
disco, sin embargo, las llamas circulares se convierten en espirales bajo ciertas
condiciones.
Las espirales son pues una forma abundante en la naturaleza. Desde el ADN a las
galaxias, desde los movimientos atmosféricos a los impulsos neuronales. El estudio de
cada una de sus manifestaciones representa para el Hombre una fuente inagotable de
sorpresas.
Información adicional en: http://mgnwww.larc.nasa.gov/db/combustion/combustion.html
http://microgravity.nasa.gov/Combustion.html
http://science.nasa.gov/headlines/y2000/ast12may_1.htm
Imagen: http://mgnwww.larc.nasa.gov/db/understanding_ug/ugflamesm.jpg
(Una llama en ingravidez.) (Foto: Langley RSC)
Perdido y encontrado
El asteroide 718 Albert, desaparecido desde 1911, ha sido por fin hallado de nuevo.
Los astrónomos del programa Spacewatch, dedicado a la detección de cuerpos que
puedan algún día chocar contra la Tierra y operando desde el observatorio de Kitt Peak,
creen haber redescubierto un asteroide que se vio por última vez en 1911.
Johan Palisa, astrónomo del Observatorio Imperial de Viena, lo encontró el 3 de octubre
de dicho año. Fue observado de nuevo al día siguiente y también desde el observatorio
de Copenhague. Sin embargo, 719 Albert, llamado así en honor al barón que había
contribuido generosamente al mantenimiento del Observatorio de Viena, no volvió a ser
localizado.
El 1 de mayo de 2000, sin embargo, Jeff A. Larsen utilizó el telescopio Spacewatch de
0,9 metros en una rutinaria búsqueda de nuevos cuerpos menores. Durante la sesión,
catalogó a uno con el nombre de 2000 JW8, un cuerpo muy débil, en los límites de lo
que el telescopio puede apreciar.
El objeto fue observado otra vez los días 3 y 6 de mayo, confirmando que se trata de un
asteroide que se aproxima a la Tierra de forma regular. El 9 de mayo, se empleó el
telescopio de 2,1 metros de diámetro de Kitt Peak, y se obtuvo suficiente información
como para calcular su órbita.
El resultado fue sorprendente: ésta coincidía plenamente con la del desaparecido 719
Albert. Ochenta y nueve años después, el viejo asteroide había sido redescubierto.
El Albert tarda 4.28 años en dar una vuelta alrededor del Sol. Habitualmente, se pasa casi
todo el tiempo a una distancia con respecto a nuestra estrella de más de 480 millones de
kilómetros. Cada 30 años, sin embargo, realiza máximas aproximaciones en relación a la
Tierra. En 1911, 1941 y 1971, Albert nos hizo una visita. Durante la primera, fue
descubierto. La próxima ocasión, 2001, ha supuesto su redescubrimiento.
Los puntos de máxima aproximación a la Tierra varían, pero pueden situarse a unos 31
millones de kilómetros. El 5 de septiembre de 2001, se acercará hasta unos 43 millones
de kilómetros, haciéndolo asequible a un mayor número de instrumentos.
Su tamaño es incierto, pero podría tener un diámetro de unos 2 a 4 km. La próxima
campaña de observación servirá para definir mejor sus características.
Información adicional en: http://www.lpl.arizona.edu/spacewatch/
http://cfa-www.harvard.edu/cfa/ps/pressinfo/Albert.html
Imagen: http://cfa-www.harvard.edu/cfa/ps/pressinfo/Albert.jpg
(El asteroide Albert.) (Foto: US Naval Flagstaff Observatory)
905
El Hijo de El Cronopio No. 80
Descifrado el cromosoma 21
Un consorcio germano-japonés ha descifrado el cromosoma responsable de algunas de
las enfermedades genéticas más comunes, como el síndrome de Down.
De los 23 diferentes cromosomas humanos conocidos, el 21 es sin duda uno de los más
pequeños. Está asociado a la enfermedad conocida como Síndrome de Down, por la cual
una copia extra del cromosoma 21 supone la aparición de un desarrollo físico y mental
anómalo en los niños, lo que conduce a un retardo considerable.
Es un defecto genético común, que afecta a 1 de cada 700 nacimientos. Ahora, un grupo
internacional liderado por científicos alemanes y japoneses han secuenciado el
cromosoma, lo que permitirá una mejor comprensión de los mecanismos moleculares de
ésta y otras enfermedades relacionadas.
Tras la secuenciación del cromosoma 22 en diciembre de 1999, el 21 es el segundo
cromosoma humano que ha sido descifrado de forma completa. Virtualmente todos los
genes codificados en este cromosoma han sido identificados. El esfuerzo, enorme, ha
supuesto el trabajo coordinado de cinco instituciones: el centro RIKEN de Sagamihara
(Japón), el Departmento de Biología Molecular de la Universidad de Keio, en Tokyo
(Japón), el GBF-Gesellschaft fuer Biotechnologishe Forschung de Braunschweig
(Alemania), el Institut fuer Molekulare Biotechnologie (IMB) de Jena (Alemania), y el
Max Planck Institute for Molecular Genetics, de Berlín (Alemania).
La secuenciación se inició a principios de los años 90. La tarea era ingente: identificar
los 33.546.361 pares de bases del cromosoma 21. Durante todo este tiempo, 170
personas han trabajado en el proyecto. Basándonos en los resultados, ahora sabemos que
dicho cromosoma contiene 225 genes. De ellos, 127 son genes claramente
caracterizados, mientras que 98 han sido descubiertos mediante predicciones hechas por
ordenador. Se conocen ya las funciones de 103 de los 127 genes caracterizados. El
próximo paso será averiguar qué hacen los demás. Algunos podrían estar relacionados
con enfermedades genéticas como la sordera, los tumores sólidos, una forma de psicosis
depresiva, etc.
Hay un punto de especial interés: 14 genes conocidos situados en el cromosoma 21 que
intervienen en enfermedades monogénicas severas. Entre ellas está el Alzheimer, una
forma de epilepsia, condiciones de autoinmunidad, y también un incremento de
susceptibilidad frente a la leucemia.
La secuenciación permitirá además, en el futuro, un diagnóstico precoz del Síndrome de
Down, lo que ayudará a paliar sus consecuencias.
La constatación de que el cromosoma 21 codifica 225 genes y que el cromosoma 22 hace
lo propio con 545 nos hace extrapolar que el número de genes humanos puede ser de
unos 40.000, una cifra mucho menor a la esperada.
Información adicional en:
http://chr21.rz-berlin.mpg.de
http://genome.gbf.de
http://genome.imb-jena.de
http://www.dhgp.de
http://genome.imb-jena.de/publ/chrom21.pdf
906
El Hijo de El Cronopio No. 80
Enanas marrones
Los astrónomos han descubierto tres nuevos tipos de enana marrón, estrellas en la
frontera entre planetas y soles, que jamás habían sido observados.
Las enanas marrones son objetos que intrigan a los científicos. Su tamaño y masa las
sitúan a medio camino entre las estrellas y los planetas. Mayores que Júpiter, no tienen
suficiente masa (el 8 por ciento de la del Sol) como para que puedan desencadenar
reacciones termonucleares en su núcleo.
Aunque comienzan brillando un poco, rápidamente se enfrían y se vuelven más y más
débiles, de aquí su nombre. No es éste un fenómeno raro: se cree que existen cientos de
enanas marrones en las cercanías del Sol. Su temperatura superficial va de 3,200 a 1,200
grados Centígrados. Pero, ¿existen enanas marrones aún más frías?
Si ello ocurriese, empezarían a formar grandes cantidades de metano, modificando el
aspecto de la enana marrón y proporcionando pistas de su existencia. Esto es
precisamente lo que ha permitido la localización de una nueva población más próxima a
la figura de los planetas gaseosos.
La primera estrella con una considerable presencia de metano fue descubierta en 1995,
girando alrededor de otra normal y relativamente cercana a nosotros. Muchas otras han
aparecido desde principios de 1999. Tres de ellas son particularmente interesantes.
Hasta ahora no se habían encontrado representantes de enanas marrones situadas a medio
camino entre ambos extremos, el grupo joven y más caliente y el otro más frío y que
presenta señales de la presencia de metano. Las nuevas tres enanas marrones halladas no
son idénticas sino que forman una secuencia propia, en el camino entre las más calientes
y semejantes a las estrellas normales y las que se parecen más a planetas gaseosos como
Júpiter.
Gracias a la astronomía infrarroja, tales objetos de transición, observados desde el
UKIRT y el Gemini Observatory y con temperaturas superficiales de 700 a 1,200 grados
C, han podido mostrarnos sus espectros particulares. El metano está más presente en el
grupo frío que en el caliente, mientras que la detección de monóxido de carbono implica
un comportamiento contrario. Las enanas marrones más frías se parecerían mucho a
Júpiter y Saturno poco después de su formación, hace 5,000 millones de años.
Información adicional en:
http://xxx.lanl.gov/abs/astro-ph/0004408
La Ciencia desde el Macuiltépetl/ René Descartes
Por Manuel Martínez Morales
Uno de los más notables constructores del método científico ha sido, sin duda alguna,
René Descartes. Nacido en Francia en 1596. Descartes dedicó su vida a la filosofía y a
las matemáticas. Conocido principalmente por su formulación de la geometría analítica,
puede afirmarse que sus preocupaciones científicas eran inseparables de su pensamiento
filosófico. Así, Descartes ambicionaba formular una ciencia generalizada que lo
explicara todo; por ello, se dedicó al estudio concienzudo de las más diversas disciplinas.
907
El Hijo de El Cronopio No. 80
Este brillante pensador hizo aportaciones a la óptica y a la fisiología, por mencionar
algunos de los campos que abordó en sus estudios.
Sin embargo, René Descartes es sobradamente conocido por su obra El discurso del
método, en la cual propone un audaz método de investigación que revolucionó la ciencia
y la filosofía de su época. Su método podría sintetizarse en cuatro reglas sencillas para
analizar las cosas:
1. Nunca aceptar como verdadero ningún conocimiento que no se haya sometido al
análisis riguroso.
2. Dividir todo problema en un conjunto de partes sencillas, fáciles de analizar.
3. Proceder siempre en orden de lo simple a lo complejo.
4. No dejar ningún elemento del problema sin ser analizado.
Su método no se limita a la aplicación mecánica de las reglas; antes bien, constituye una
meditación profunda sobre el conocimiento humano: “Pienso, luego existo” es una de las
frases más conocidas de Descartes, que resume con claridad las preocupaciones del
filósofo.
En otra de sus obras, Principios de filosofía, Descartes se empeña en realizar una
exposición lógica y rigurosa de todos los fenómenos naturales, partiendo de la física, la
química y la fisiología. Históricamente, la importancia de esta obra radica en que se
rechaza abiertamente toda explicación teológica en el campo de las ciencias. Por otra
parte, tratar de explicar los fenómenos naturales a partir de la mecánica, la relación entre
ésta y la geometría, así como el empleo de hipótesis en busca de generalizaciones, fueron
su contribución al pensamiento científico moderno.
Si bien es cierto que muchas de las ideas de Descartes han sido superadas, no por ello
deja de ser importante la obra del filósofo y matemático, más aún considerando que en su
época ya se hablaba de la “revolución cartesiana”. El gran sueño de lograr una ciencia
unificada no se ha perdido del todo; recordemos que ese sueño también fue largamente
acariciado por Albert Einstein, el más grande científico de este siglo.
El Cabuche (crónicas de la Facultad de Ciencias)/
La otra Fiesta del Chivo
La Fiesta del Chivo es el título de la más reciente novela de Mario Vargas Llosa, que la
editorial Alfaguarda sacó al público en el mes de febrero. Hace cosa de un mes el
peruano-español Mario Vargas Llosa estuvo en nuestro país para presentar su nuevo
libro. Estancia que, entre otras cosas, causó revuelo por sus declaraciones sin tapujos
respecto a que, el presidente que México necesita es Vicente Fox. Hasta hubo diputados
(la mayoría de nuestros diputados no se caracterizan por su prudencia y cultura) que le
querían aplicar el 33. La Fiesta del Chivo es una muy buena novela que trata los días
finales de la dictadura de Leonidas Trujillo en la caribeña isla de la República
Dominicana. Como sabemos, nosotros también tenemos un Chivo, que le vamos a hacer,
ni los dominicanos ni nosotros lo escogimos, simplemente llegó o ya estaba; en esas
circunstancias no queda más que acostumbrarse a ellos. En realidad el Chivo es buena
bestia, actualmente además de chambear en el instituto colabora en la edición de la
Revista Mexicana de Física, da una que otra clase en la facultad y pretende jugar softbol.
El Chivo es una rara especie que acostumbra deambular en bici; con su vestuario de los
908
El Hijo de El Cronopio No. 80
setenta vuelve a andar a la moda, y a pesar de estar más viejo sigue siendo el terror de las
comidas, lleve o no su toper. Hay quienes dicen que una fiesta sin el Chivo no es fiesta,
yo me guardo mi opinión. El Chivo también es doctor, como diría alguien: ¡ahí como lo
ven! Cuando se tituló de doctorcito (cosa que agradecimos pues traía a remolque a la HP
1000, acaparándola a tal grado que no dejaba trabajar), el Chivo hizo fiesta, y allí justo
allí, en La Fiesta del Chivo, logré vencer la maldición del brandy, recuperando mi
propiedad de garganta que había menguado por una sesión de exceso ocurrida en Puebla,
en la casa de barcatlán (léase Acatlán) que cohabitábamos con el piedras (profesor del
INAOE). Once años duró la maldición, que los antidioses a Baco fraguaron en mi contra.
Todo por haber tomado como agua una, o no sé cuantas, botella de fundador, hasta eso,
que el piedras tenía para llevar a su natal Ciudad Madero. Acabé dando tremendo show
en la sagrada casa de barcatlán en Puebla, que estaba situada en exclusivo
fraccionamiento de la capital poblana. Por supuesto pagué las consecuencias, un día de
mi vida completamente perdido. Desperté a las 8 de la tarde-noche del siguiente día, sí es
que a eso se le puede llamar despertar. Recorrí la casa sacado de onda, viendo los
resultados de la reunión del día anterior. En esa faena me encontraba cuando
repentinamente llegaron el Piedras, el Medellín y el Reyes (Medellín y Reyes, fueron y
uno sigue siendo, mis compañeros en la ahora Facultad de Ciencias), preocupados por el
estado en que por la mañana, cuando salieron a trabajar, me habían dejado. En esos
momentos me comencé a sentir de la fregada (que es poco) inundé, literalmente, con un
líquido completamente transparente mi cuarto, mismo que el Medellín se encargaba de
sacar a la calle con la escoba. El líquido al parecer era bilis; no podía retener
absolutamente nada, fuera agua o lo que se les ocurriera. Mi estado, al decir de mis
cuates, era grave y debatían en llevarme al hospital o esperar una milagrosa
recuperación. Sobreviví, y después de una cruda de cuatro días, casi fui el mismo de
antes, salvo que, todo lo que oliera a brandy me revolvía el estómago y me ponía medio
mal. Todo mi cuerpo, con sólo oler el brandy, reaccionaba defendiéndose de él como
gato boca arriba. Once años fue la misma historia, hasta que en la Fiesta del Chivo,
sucedió el milagro. El Chivo, poco usual en él, sacó una sendas botellas de buen licor,
wiskey y brandy de los buenos; claro el Morán, su asesor, le había advertido, -unos
buenos vinos, chivo. Así fue, al ver un Carlos I, creó, no estoy muy seguro (brandy,
aclaro), me animé a sentir su olor. Lo que es un buen vino, de entrada no lo rechacé.
Siguió el otro paso el Chivo me sirvió una copa de la cual repentinamente estaba
tomando. El brandy pasó, para quedarse, aunque no lo tomo mucho, prefiero un buen
mezcal. Pero hay que estar preparado para todo. Así, en La Fiesta del Chivo, el Chivo
contento festejaba su grado y yo mi recuperación. Seguimos con Silvio Rodríguez.
Una mujer se ha perdido/conocer el deliro y el polvo/Se ha
perdido esta bella locura/su breve cintura debajo de mi/Se ha
perdido mi forma de amar/Se ha perdido mi huella en su
mar/Veo una luz que vacila/y promete dejarnos a oscuras/Veo
un perro ladrando a la luna/con otra figura que recuerda a
mi/Veo más, veo que no me halló/Veo más, veo que se
perdió/La cobardía es asunto/de los hombres no de los
amantes/Los amores cobardes no llegan/ni a amores ni a
historias/se quedan allí/ni el recuerdo los puede salvar/ Que
me tenga cuidado el amor/que le puedo cantar su canción
909
Boletín
El Hijo de El Cronopio
Facultad de Ciencias
Universidad Autónoma de San Luis Potosí
No.81, 19 de junio de 2000
Boletín de información científica y
tecnológica de la Facultad de Ciencias
Publicación semanal
Edición y textos
Fís. José Refugio Martínez Mendoza
Parte de las notas de la sección Noticias de la
Ciencia y la Tecnología han sido editadas por
los españoles Manuel Montes y Jorge
Munnshe. La sección es un servicio de
recopilación de noticias e informaciones
científicas, proporcionadas por los servicios de
prensa de universidades, centros de investigación
y otras publicaciones especializadas.
Cualquier información, artículo o anuncio deberá
enviarse al editor. El contenido será su
responsabilidad.
e-mail: flash@galia.fc.uaslp.mx
Números anteriores del boletín, pueden
consultarse por Internet en la página de la
UASLP:
http://phobos.dtc.uaslp.mx/publi.html
Número
Especial
XVIII FIS-MAT
UASLP CIMAT UAZ
UGTO APDC
Gustavo del Castillo y Gama
En esta ocasión los trabajos del XVIII
Concurso Regional de Física y
Matemáticas están dedicados a una
personalidad que ha contribuido al
desarrollo de una de las instituciones que
organizan el Concurso.
Dr. Gustavo del Castillo y Gama
El Hijo de El Cronopio No. 81
El XVIII FIS-MAT como Reconocimiento a:
Gustavo del Castillo y Gama
El Dr. Gustavo del Castillo y Gama, potosino de origen, estudió química en la
Universidad Autónoma de San Luis Potosí, para después trasladarse a la Universidad de
Purdue en Estados Unidos en donde obtuvo su doctorado en física, siendo apenas el
quinto doctor en ciencias en la especialidad en el país y uno de los primeros, sino el
primero, físicos experimentales. Participó en el desarrollo y consolidación de la física
en México teniendo un reconocimiento a nivel mundial como científico. Fundó la
Escuela de Física de la UASLP, siendo apenas la tercera escuela de física del país. Por
su papel en el desarrollo de la, ahora Facultad de Ciencias de la UASLP, se le dedican
los trabajos del XVIII FIS-MAT.
Breve reseña
En la década de los cincuenta, el número de físicos profesionales en México era
prácticamente nulo, apenas existían dos escuelas de física en el país. Los pocos físicos
que existían se formaban en el extranjero.
Tal fue el caso de Gustavo del Castillo y Gama, con formación de ingeniero químico que
se trasladó a la Universidad de Purdue, en Estados Unidos, para realizar sus estudios de
posgrado, en donde obtuvo su doctorado. Fue allí donde planeó la creación de una
escuela de física en la universidad potosina.
tiempo después vio cristalizado su proyecto cuando, en el primer semestre de 1955 y,
solo con su presencia, comenzaron las actividades del Instituto de Física. Posteriormente,
en diciembre de 1955, el Consejo Directivo Universitario, aprobó la creación de la
Escuela de Física, misma que inició sus actividades el 5 de marzo de 1956.
En la mañana del 5 de marzo de 1956 a las 9:00 horas Gustavo del Castillo y Gama
inició su primera clase de física general con una breves palabras de bienvenida para los
alumnos y luego entró de lleno en el terreno de la ciencia.
Después del inicio de actividades de la Escuela e Instituto de Física de la Universidad
Autónoma de San Luis Potosí. Las actividades de investigación se iniciaron con un
proyecto sobre física nuclear de altas energías y otro sobre física nuclear de bajas
energías.
En el primer proyecto se trataba de utilizar la radiación cósmica como fuente de
partículas de alta energía para inducir interacciones nucleares en placas de plomo. Para
este fin se construyó una cámara de niebla, la primera construida totalmente en México,
con sistema de control electrónico. Las pruebas iniciales de funcionamiento del equipo se
hicieron a mediados de 1957. En este laboratorio se observaron, por primera vez en
México, trayectorias de partículas generadas al interaccionar la radiación cósmica con la
materia terrestre. En el artículo: Pruebas preliminares de la operación de la cámara de
Wilson y el equipo automático de control, quedaron descritos los resultados
911
El Hijo de El Cronopio No. 81
experimentales iniciales. El artículo se publicó en el número inaugural de la revista Acta
Científica Potosina, que publica la Universidad Autónoma de San Luis Potosí.
El segundo proyecto estaba encaminado a hacer estudios sobre los llamados coeficientes
de conversión interna de algunos isótopos radioactivos pesados. Para llevar a cabo este
proyecto fue necesario construir un espectrómetro de centelleo. Los resultados de esta
construcción quedaron descritos en el reporte titulado: Diseño y construcción de un
espectrómetro de centelleo, publicado en octubre de 1960.
Al iniciar las actividades, en 1956, de la Escuela de Física, hoy Facultad de Ciencias,
estas estaban relacionadas con el trabajo experimental. Se pensó que era necesario
incorporar a los alumnos de Física en el trabajo manual. Para estimular ese gusto por la
física experimental, a mediados de 1957, se puso en marcha un programa para el diseño
y construcción de cohetes.
A partir de entonces y durante más de una década, se trabajo intensamente en este
programa cuyos propósitos eran: 1) satisfacer la curiosidad científica de construir objetos
que pudieran elevarse más allá de las nubes. 2) aprovechar los artefactos para provocar la
lluvia, mediante la detonación de cargas explosivas en el seno de las nubes. 3) estimular
el desarrollo de dispositivos de telemetría y control.
Aunque el programa no llegó a cumplirse totalmente, el 28 de diciembre de 1957, se
lanzó por primera vez en México un cohete con fines científicos, el mismo año en que la
ex-Unión Soviética inauguraba la era espacial.
Este programa, además de satisfacer los objetivos educativos planteados, sirvió para
interesar a la sociedad potosina en las actividades de ciencia realizadas en la UASLP,
pues tan espectacular resultó el programa que los periódicos locales y en determinado
momento nacionales dieron cuenta, con descripciones detalladas de los experimentos y
fotografías espectaculares que dieron la vuelta al mundo, de los lanzamientos de cohetes
tan famosos de los estudiantes de física realizados en un lugar al que los periodistas
bautizaron como "Cabo Tuna". Esta actividad se inició en 1957 y persistió prácticamente
a lo largo de la década de los sesenta. Las noticias de los experimentos trascendieron los
límites de San Luis Potosí y se esparcieron por todo el territorio nacional.
La calidad de los trabajos de investigación y docencia llevados a cabo en los primeros
tiempos de existencia de la entonces Escuela de Física, ahora Facultad de Ciencias de la
UASLP, fueron posibles por la personalidad, el entusiasmo y el amor por la física y la
ciencia que caracterizan a Gustavo del Castillo y Gama.
Crónica de una tradición
LOS CONCURSOS REGIONALES DE FISICA Y MATEMATICAS
El pasado 26 y 27 de mayo se celebró la dieciocho edición del Concurso Regional de
Física y Matemáticas. Este concurso se realiza simultáneamente en las plazas de
912
El Hijo de El Cronopio No. 81
Guanajuato, Gto., Zacatecas, Zac., Saltillo, Coah., Cd. Valles, S.L.P., Rioverde, S.L.P.,
Matehuala, S.L.P. y San Luis Potosí, S.L.P. El concurso es organizado por el Centro de
Investigación en Matemáticas de Guanajuato, la Facultad de Matemáticas de la
Universidad de Guanajuato, la Escuela Secundaria de la Universidad Autónoma de
Zacatecas, la Academia Potosina de Divulgación de la Ciencia y es coordinado por el
Programa Estatal de Divulgación de la Ciencia de la Universidad Autónoma de San Luis
Potosí. Esta serie de concursos se inició en el año de 1975, cuando se celebró el I
Concurso de Física y Matemáticas para Escuelas Secundarias del Estado de San Luis
Potosí. El objetivo principal es el de motivar a la juventud estudiosa y a quienes tienen
inclinación por el estudio de las ciencias exactas.
La baja población de las carreras científicas, motiva a realizar actividades y emprender
estrategias para interesar a jóvenes estudiantes a estudiar una carrera científica.
En el año de 1974, en la entonces Escuela de Física de la UASLP, un grupo de
estudiantes preparaba un Encuentro Nacional de Escuelas e Institutos de Física y
Matemáticas; para tal efecto se llevaron a cabo reuniones previas en diferentes puntos de
la República. En San Luis Potosí se efectuó la mayoría de estas reuniones. Para la
reunión nacional se tenía prevista la asistencia del Dr. Linus Pauling, premio Nobel de
Química. En comunicaciones con Pauling, se platicó sobre la baja población de las
escuelas de Física y Matemáticas y las posibles estrategias para aumentar su matrícula.
De estas conversaciones surgió la idea de realizar un concurso de Física y Matemáticas,
que se efectuaría en San Luis Potosí durante el encuentro, apadrinado por el propio Linus
Pauling, quien presidiría la ceremonia de premiación. En este sentido, los compañeros de
la Universidad de Sonora tenían un par de años realizando concursos de Física y a nivel
internacional existían las Olimpiadas de Matemáticas y las Olimpiadas de Física. Se
decidió hacerlo primeramente para estudiantes del ultimo año de las escuelas secundarias
y para la organización nos encargamos, en 1974, cuatro alumnos del primer año de la
Escuela de Física de la UASLP. La tarea resultó bastante ardua pues fue necesario
recorrer, uno a uno, prácticamente todos los grupos de tercero de secundaria de todo el
estado de San Luis Potosí. El resultado no podía ser menor: 600 estudiantes de todo el
estado se presentaron en la Escuela de Física a participar en el concurso. El encuentro de
escuelas no se llevó a cabo y la visita de Linus Pauling se tuvo que suspender; sin
embargo, el concurso se llevó a cabo y a partir de entonces se realiza anualmente. Para
1976 se efectuó el II Concurso de Física y Matemáticas para Escuelas Secundarias y el I
Concurso de Física y Matemáticas para Escuelas Preparatorias del Estado de San Luis
Potosí. Los concursos se realizaron ininterrumpidamente hasta el año de 1978. En este
período se efectuaba separadamente el concurso de secundaria y de preparatoria. Durante
el período de 1980 a 1986 se efectuaron solamente dos concursos más. El balance en
estos primeros concursos puede considerarse positivo, pues la mayoría de los estudiantes
que ingresaron a la Escuela de Física de la UASLP, entre 1977 y 1982, lo hicieron
después de interesarse mediante su participación en los concursos, ya que antes de ello
no tenían pensado estudiar Física. En 1989 reinician los concursos celebrándose el VII
Concurso de Física y Matemáticas para Escuelas Secundarias y Preparatorias del
Estado de San Luis Potosí, que se efectuó durante la Semana de Física, donde se celebró
el 34 aniversario de la fundación de la ahora Facultad de Ciencias de la UASLP. Este
concurso fue organizado por el naciente Programa Estatal de Divulgación de la Ciencia,
programa que nace en torno a los concursos de Física y Matemáticas y que contempla
913
El Hijo de El Cronopio No. 81
diversas actividades de divulgación científica dirigidas al público en general, con énfasis
en el infantil y adolescente. En 1990 el concurso se efectuó a nivel regional y estuvo
abierta la participación a cualquier estudiante de secundaria o preparatoria del país. En
esa ocasión se celebró el VIII Concurso Regional de Física y Matemáticas, que partir de
este momento se celebra simultáneamente en los estados de Guanajuato, Zacatecas,
Coahuila y San Luis Potosí y se suman en la organización instituciones de investigación
y estudios superiores de estos estados, que son las que se mencionan anteriormente. En
los Concursos Regionales han participado, además de estudiantes de los estados
mencionados, estudiantes de los estados de Veracruz, Querétaro, Aguascalientes,
Durango, Nuevo León y Colima. Los objetivos siguen siendo los mismos y se consideran
como una forma de divulgar la ciencia con actividades extraescolares como apoyo al
sistema educativo formal. El número de participantes promedio en estos Concursos
Regionales es de 550 estudiantes.
Otros concursos a nivel nacional son las Olimpiadas Mexicanas de Matemáticas que
iniciaron en el año de 1987, organizadas por la Sociedad Matemática Mexicana, y las
Olimpiadas Nacionales de Física, las cuales iniciaron en el año de 1990 y son
organizadas por la Sociedad Mexicana de Física.
En la actualidad abundan certámenes de Física y Matemáticas a tal grado que podrían
considerarse una moda y no dudamos que aparezcan más concursos; sin embargo, los
Concursos Regionales encierran una tradición muy importante y se han consolidado
como eventos de calidad con una frescura que sólo la da la organización independiente.
Sus características únicas, en comparación con otros certámenes, lo son el que
simultáneamente estudiantes de varios estados, sin necesidad de trasladarse a un solo
lugar, concursan al mismo tiempo por lo que los ganadores no requieren presentarse a
varias etapas. Esta mecánica garantiza evaluar las habilidades y conocimientos de
estudiantes de varios estados al mismo tiempo y por lo tanto bajo las mismas
condiciones.
Los Concursos Regionales no pretenden ser un parámetro para evaluar la calidad de las
instituciones a las que pertenecen los estudiantes que participan en el Concurso. La
participación no es institucional, es individual y abierta, en la lista de resultados se
mencionan a las instituciones solamente como referencia. Los exámenes son diseñados
de tal forma que de ellos se pueda obtener información sobre puntos particulares en la
enseñanza de estas disciplinas. En nuestros archivos existe una valiosa información que
estadísticamente nos permite hacer estudios sobre la problemática en la enseñanza de la
Física y la Matemática en los diversos niveles educativos. De hecho el trabajo
desarrollado en la organización de los Concursos Regionales nos ha impulsado a
organizar otros eventos relacionados con la enseñanza de las ciencias como son los
Congresos Regionales de Enseñanza de Física y Matemáticas, que a la fecha se han
realizado en dos ocasiones, en 1990 y en 1993. Por lo anterior, los Concursos Regionales
de Física y Matemáticas no son simplemente un certamen aislado donde compiten
estudiantes para ver quién es mejor. Forman parte medular de un ambicioso programa de
divulgación y enseñanza de las ciencias. El nivel de competencia ha propiciado que,
tanto a nivel personal e institucional, exista una preparación especial incidiendo así en el
nivel de educación; ha propiciado además, que exista una reflexión sobre los contenidos
de estas materias en secundaria y preparatoria y la forma en que son abordados los
diversos temas.
914
El Hijo de El Cronopio No. 81
En los primeros concursos los participantes se enfrentaban a un examen tanto de Física
como de Matemáticas; a partir de la octava edición, a la fecha, se realizan separadamente
los exámenes de Física y Matemáticas; es decir, existen dos concursos para cada una de
las categorías (secundaria y preparatoria): el Concurso de Física y el Concurso de
Matemáticas. Estos se llevan a cabo en fechas diferentes por lo que un estudiante, de
secundaria o preparatoria, puede concursar en Física o en Matemáticas y si así lo desea
puede concursar tanto en Física como en Matemáticas. En la actualidad existen tres
categorías: Primaria, Secundaria y Preparatoria. En la categoría de primaria existe un
sólo concurso: Ciencias Naturales y Matemáticas, en esta categoría pueden concursar
exclusivamente estudiantes del sexto año. En las categorías de secundaria y preparatoria
existen dos concursos: Física y Matemáticas y pueden concursar estudiantes de cualquier
grado de secundaria y preparatoria, aunque el examen está dirigido a estudiantes del
último año de secundaria y preparatoria. Existen varios casos de estudiantes de segundo
y primero de secundaria que han obtenido primeros lugares en estos certámenes. Si bien
los exámenes se basan en los programas oficiales no es un compromiso, por parte del
Jurado Calificador, restringirse totalmente al estilo de evaluar estas materias en la
mayoría de las escuelas. El Jurado Calificador puede elaborar algunos problemas con un
nivel un poco más elevado a fin de detectar estudiantes con habilidades extraordinarias
en el manejo de conceptos de Física y Matemáticas.
Una manera de premiar el esfuerzo realizado por los estudiantes que logran sobresalir en
el concurso es el de ofrecer un reconocimiento público a los jóvenes que obtienen los
primeros lugares y entregarles un premio económico que se obtiene parcialmente de los
fondos que los propios estudiantes aportan con su cuota de inscripción. Un dato
importante es que en la lista de ganadores en los diez primeros lugares de cada categoría
aparecen estudiantes de todos los estados participantes, lo que refleja, el alto grado de
competencia logrado.
En el último concurso se abrió la participación a estudiantes del sexto año de primaria,
donde hubo una abundante participación. Con la mecánica presentada en estos concursos
regionales se permite a un estudiante participar sucesivamente desde primaria hasta
preparatoria. Desde este espacio invitamos a todos los estudiantes a participar y a los
maestros interesados a presentar y sugerir problemas y actividades para los concursos.
El Cabuche (crónicas de la Facultad de Ciencias)/ El padrino
Yo sé quién estará preparándose para darse por adulido, pero antes de iniciar quiero
aclararle que esta historia no tiene nada que ver con él; padrino al fin y muy a su orgullo,
yo lo sé, adora a su ahijada, pero no hablaré de él. Esta historia es una historia, que
aunque no está enterrada, sí tiene que ver con el curso de la Vía Láctea y marca el
principio de una aventura que continua hasta nuestros días. Año de 1974, muy presente
tengo yo, en un salón de la escuela… Ya hasta parece canción y aún no terminamos.
En el otoño de 1974 se llevaban a cabo en la entonces Escuela de Física, una serie de
reuniones de estudiantes de escuelas de física y de matemáticas de todo el país; las
reuniones se prolongaron durante algunos meses: La visita de consejos estudiantiles y
sociedades de alumnos en nuestra escuela, al parecer era impulsada por el Pozoles,
915
El Hijo de El Cronopio No. 81
Victor Araujo, al menos, por parte de San Luis, era de los más movidos en dichas
reuniones; quien conoce al Pozoles no se le hará extraña su dinámica. El objetivo de las
reuniones nacionales era el de crear un Consejo Estudiantil de Escuelas de Física y
Matemáticas de la República Mexicana, para lo cual se organizaría un Encuentro
Nacional de Estudiantes de Escuelas de Física y Matemáticas; a dichas reuniones asistían
prácticamente representaciones de todas las escuelas de física y matemáticas de la época.
Aunque algunas reuniones se programaron en otras entidades, nuestra Escuela-Facultad
se convirtió en el centro de operaciones. En septiembre de 1974 ingresamos a la Escuela
de Física, Medellín, Mora y yo, digo, de los que ustedes conocen, en realidad éramos 10
estudiantes que en menos de quince días se convirtieron en 60, debido al reacomodo de
rechazados de otras escuelas de la universidad; situación que fue muy común durante
muchos años, ahora hasta nosotros mismos tenemos rechazados. Para noviembre de 1974
empezó a circular un escrito impreso en cartulina con el título Importancia de las
Facultades de Ciencias, que después de un rollote, (esto dicho en el buen sentido ya que
el escrito es sumamente interesante y además de actualidad) era rubricado por el Consejo
Estudiantil de la Escuela de Física de la UASLP, el Consejo Estudiantil de la Facultad de
Física y Matemáticas de la Universidad Autónoma de Nuevo León y la Sociedad de
Alumnos de la Escuela de Matemáticas de la Universidad de Yucatán; pues sí, casi de
frontera a frontera pasando por San Luis. El cartel era adornado por el bonito escudo de
nuestra Escuela-Facultad; de acuerdo a mi maldita manía de guardar cosas aún conservo
uno de estos carteles. En ese inter se formó el Consejo Estudiantil Provisional de
Escuelas de Física y Matemáticas de la República Mexicana, que tenía como misión
organizar el encuentro y estructurar una representación estudiantil nacional; el consejo
estudiantil provisional quedó integrado por representantes de las Escuelas de: Física y
Matemáticas de la Universidad de Sonora, Facultad de Física y Matemáticas de la
Universidad Autónoma de Nuevo León, Escuela de Física de la Universidad Autónoma
de San Luis Potosí, Escuela de Física de la Universidad San Nicolás de Hidalgo de
Morelia, Michoacán, Escuela de Física y Matemáticas de la Universidad Autónoma de
Puebla, Escuela de Física y Matemáticas de la Universidad Veracruzana, Escuela de
Matemáticas de la Universidad de Yucatán y la Escuela de Física y Matemáticas del
Instituto Tecnológico de Estudios Superiores de Monterrey. Se fijan que memoria; y los
nombres de los representantes eran… ¡que dijeron! No es que tenga buena memoria lo
que pasa es que también tengo en mi poder algunas de las hojas tamaño oficio que se
imprimieron para correspondencia y comunicaciones necesarias, hasta uno que otro
sobre anda por ahí, aún. Nosotros, con la dura tarea de adaptarnos a la escuela, sólo nos
asomábamos a las reuniones de vez en cuando, esporádicamente entrábamos a escuchar
las discusiones y enterarnos de la problemática de las escuelas de ciencia del país. Por el
mes de noviembre de 1974 al intentar asomarnos al aula Enrico Fermí, que en el antiguo
edificio se encontraba casi a la entrada de la escuela, y que además era la más grande;
recuerden que una de ellas la P.A.M. Dirac ahora llamada el corral, funciona como
cubículo de un chivo y un conejo, decía que al intentar asomarnos, salió el Pozoles y
dirigiéndose a nosotros nos explicó parte de los planes que tenían para desarrollar
actividades y eventos académicos paralelos al famoso Encuentro Nacional de Estudiantes
que estaba en ciernes. Nos explicó que en pláticas con Linus Pauling, Premio Nobel de
Química, sobre la problemática de la baja matrícula en carreras como la física y la
matemática, Linus, nuestro cuate, sugería se realizara un concurso de física y
916
El Hijo de El Cronopio No. 81
matemáticas, explicaba que ese tipo de eventos había dado buenos resultados,
prácticamente en todo el mundo, no sólo como catalizador para elevar la matrícula de las
escuelas de ciencia, sino como agente para promover y elevar la calidad de la enseñanza
de las ciencias. El Pozoles entusiasmado nos trataba de enboletar en dicha empresa; -¿por
qué no se encargan ustedes, de ese rollo? –Pauling hablará mañana y necesitamos definir
el asunto. La idea, nos seguía sermoneando el Pozoles, es convocar a estudiantes de
secundaria o preparatoria a nivel nacional a que participen en un concurso, para eso la
raza de Sonora que ya organizan uno regional, les ayudaría; Linus Pauling, estará
trabajando con ustedes y apadrinará el evento, él entregará personalmente los premios
del concurso y dictará algunas conferencias dirigidas a los chavos. -Para que empiecen a
programar pueden organizar uno local, en el cual el mismo Pauling se involucraría. –
Decídanse y mañana se lo comunicamos a Pauling. Ahí, en caliente, a las afueras del
Enrico Fermi, alumnos del primer año nos echamos a cuestas la empresa de organizar
concursos de física y matemáticas y tener la oportunidad de trabajar apadrinados por
nada más y nada menos que el laureado con el Nobel, Linus Pauling. Ni tardos ni
perezosos iniciamos los preparativos; en principio todos los detalles de la organización y
la estructuración del concurso quedó en nuestras manos. Ahí nos tienen redactando una
convocatoria con los detalles de los requisitos para participar en el concurso y
prometiendo jugosos premios en efectivo para los tres primeros lugares. Como primer
paso se decidió realizar el concurso dirigido sólo a estudiantes de tercer año de
secundaria del estado; la segunda parte consistiría en organizar uno a nivel nacional. En
ambos eventos, tal como lo dijera el Pozoles, estaría participando junto con nosotros, a
manera de padrino, Linus Pauling. En poco tiempo teníamos la cartulina que
promocionaba el concurso que se llamó Primer Concurso de Física y Matemáticas para
Escuelas Secundarias del Estado de San Luis Potosí. El compromiso ya era oficial, sobre
todo lo prometido para los premios, los cuales ascendían a la friolera de cinco mil
pesotes, de aquellos. Posteriormente la realización del encuentro nacional fue
diluyéndose, bien a bien, no sé que derroteros fue tomando el asunto, pero eso significó
que los eventos académicos paralelos, fueran también quedando de lado. Nuestro
problema ahora era el famoso concurso; ¿qué pasaría con el concurso convocado? Como
el proyecto inició con cierta autonomía continuamos con nuestro trabajo; tan
entusiasmados estábamos que nuestro objetivo era culminarlo a como diera lugar; al
estar tan metidos en la organización y en la logística, las comunicaciones con Pauling se
interrumpieron. Decidimos seguir con la aventura, y hacer la promoción en todo el
estado; el resultado fue satisfactorio: un mar de disímbolos uniformes inundaron la
escuela, hubo necesidad de habilitar espacios para dar cabida a casi 600 estudiantes de
secundaria, de prácticamente todo el estado. Parte de la proeza estaba realizada, faltaba
lo bueno, la marmaja para los premios. Como el evento quedó completamente
independiente al no realizarse el encuentro nacional y al perder la comunicación con
Pauling, nos correspondía conseguir los cinco mil pesos. Ahí nos tienen tocando npuertas haciendo la coperacha para los premios. El Gobierno del Estado, como siempre,
participó sólo en los rollos. El Club de Leones se mochó con una buena feria y, hasta a
cenar nos invitaron en una de sus reuniones, claro tuvimos que chutarnos su sesión de
trabajo, pero respondieron como esperábamos; una buena cantidad de negocios aportaron
su granito de monedas y después de tres meses de estirar el pandero, logramos completar
los cinco mil pesos y cumplir con lo prometido. Tamaño ajetreo podría habernos
917
El Hijo de El Cronopio No. 81
inducido a dejar el asunto como una experiencia más; pero pudo más el placer de
involucrarse en una empresa que satisfacía nuestros ímpetus por contribuir a la difusión
de la ciencia y estimular a la juventud estudiosa del estado y a quienes tienen inclinación
en el estudio de las ciencias exactas, tal como rezaba el objetivo plasmado en el cartel de
promoción. Para el siguiente año se convocó al II Concurso de Física y Matemáticas para
escuelas Secundarias y al I Concurso de Física y Matemáticas para escuelas
Preparatorias; como uno no entiende nuevamente se ofrecieron los cinco mil pesos en
premios, aunque ahora dividido en ambos concursos. El éxito nuevamente fue
estimulante y de ahí pal real la aventura continuo a traspiés, pero continua hasta nuestros
días, cuando nos preparamos para celebrar el XVII Concurso Regional de Física y
Matemáticas (dedicado en esta ocasión al trabajo realizado por el Dr, Joel Cisneros
Parra, de todos conocido, y de Helga Fetter investigadora del CIMAT de Guanajuato), en
modalidades un poco diferentes a las iniciales, ahora se efectúa a nivel regional y se
realiza simultáneamente en los estados de San Luis Potosí, Zacatecas, Guanajuato y
esporádicamente en Coahuila y Chihuahua; coordinado por nuestra Facultad de Ciencias.
Ahora el concurso está dirigido a estudiantes de primaria, secundaria y preparatoria.
Aunque Linus Pauling, ya fallecido, tuvo una participación, a larga distancia y por
teléfono, lo seguimos y lo seguiremos considerando como el padrino de los concursos.
Como ya lo dijera Silvio Rodríguez, el cantor y el poeta.
Nació de una tormenta/en el sol de una noche,
el penúltimo mes;/fue de planeta en
planeta/buscando agua potable,/quizá buscando
la vida/o buscando la muerte, eso nunca se
sabe;/quizá
buscando
siluetas,
o
algo
semejante/que fuera adorable/o por lo menos
querible, besable, vaya, amable.
En las siguientes páginas del Boletín encontrarán la compilación de los
exámenes diseñados para este XVIII FIS-MAT, así como la lista de
resultados en todas las categorías y concursos que conforman esta edición
del FIS-MAT, dedicado al Dr. Gustavo del Castillo y Gama, fundador de la
Escuela e Instituto de Física de la Universidad Autónoma de San Luis
Potosí. La escuela ahora denominada Facultad de Ciencias de la UASLP.
918
Boletín
El Hijo de El Cronopio
Facultad de Ciencias
Universidad Autónoma de San Luis Potosí
No.82, 26 de junio de 2000
Boletín de información científica y
tecnológica de la Facultad de Ciencias
Publicación semanal
Edición y textos
Fís. José Refugio Martínez Mendoza
Parte de las notas de la sección Noticias de la
Ciencia y la Tecnología han sido editadas por
los españoles Manuel Montes y Jorge
Munnshe. La sección es un servicio de
recopilación de noticias e informaciones
científicas, proporcionadas por los servicios de
prensa de universidades, centros de investigación
y otras publicaciones especializadas.
Cualquier información, artículo o anuncio deberá
enviarse al editor. El contenido será su
responsabilidad.
e-mail: flash@galia.fc.uaslp.mx
Números anteriores del boletín, pueden
consultarse por Internet en la página de la
UASLP:
http://phobos.dtc.uaslp.mx/publi.html
Listo el primer mapa
del genoma humano
En un anuncio largamente
anticipado, los líderes científicos y
políticos de la carrera por el
desciframiento
del
genoma
humano anunciaron ayer la
consecución de un 'borrador de
trabajo' del instructivo molecular
de la vida
¿Agua en Marte? Sí,
es una posibilidad
Las huellas de posibles corrientes
de agua en el suelo marciano son
sugerentes, pero no hay que
apresurarse
Noticias de la Ciencia y la
Tecnología
El Hijo de El Cronopio No. 82
Noticias de la Ciencia y la Tecnología
* Science publicará reporte
Sonda espacial halla en Marte
indicios de agua
Ap, Washington, 21 de junio * La sonda Global Surveyor,
dedicada a la exploración de Marte, transmitió
información a la Tierra sobre posibles indicios de la
existencia de agua en la superficie del planeta rojo, lo cual
incrementa la posibilidad de hallar vida, de acuerdo con
versiones de expertos.
Las fuentes, que prefirieron mantener el anonimato,
confirmaron que Global Surveyor ha detectado pruebas
"de los efectos del agua superficial". Mayores detalles del
estudio serán publicados el fin de semana en la revista
Science, dijeron las fuentes que, sin embargo, advirtieron que los hallazgos son
preliminares y deben ser confirmados por investigaciones más profundas.
Un portavoz de la Agencia Nacional de Aeronáutica y del Espacio (NASA) declinó hacer
comentarios, al igual que la revista Science. La búsqueda de agua en Marte es el
principal objetivo de la NASA en su exploración de ese planeta. Si hubiese agua, señalan
los expertos, hay mayores posibilidades de que exista algún tipo de vida primario.
¿Agua en Marte? Sí, es una posibilidad
Las huellas de posibles corrientes de agua en el suelo marciano son sugerentes, pero no
hay que apresurarse
Por MARTIN BONFIL OLIVERA/ Reforma
Una de las desventajas del científico frente a quienes practican otras actividades más
espectaculares es que muchas veces tiene que decir "no sé" o "no es seguro". Es más: a
veces el científico, en su afán de ser cauto, se ve enfrentado con el periodista ansioso por
conseguir una noticia.
La observación viene al caso respecto a la noticia que circuló el pasado miércoles 22 de
junio por todo el mundo: la NASA tenía fotografías, obtenidas por la sonda espacial
Mars Global Surveyor, en la que se apreciaban formaciones geológicas que sugerían
fuertemente la presencia de agua corriente en el planeta rojo.
Aunque la información no debía hacerse pública sino hasta el próximo 30 de junio -cuando sería publicada, en forma de un artículo científico, en la revista Science, un
931
El Hijo de El Cronopio No. 82
"fuente no identificada" en la NASA dio a conocer el hecho a los medios, donde fue
publicada primero en internet y posteriormente en boletines, periódicos y noticieros.
Sin embargo, al parecer la información que circuló no era totalmente correcta. En un
comunicado emitido por Science, ante el alud de notas que aparecían por todo el mundo,
se afirmaba que las notas publicadas en los medios tenían "diversos grados de exactitud".
Por su parte la NASA misma precisó que las informaciones difundidas por varias páginas
de información espacial en internet habían sido "incorrectas en áreas significativas".
En vista de lo anterior, Science decidió poner el jueves 22 toda la información a
disposición del público, "debido a la extrema atención por parte de los medios y a las
inexactitudes presentes en algunos de los primeros reportes noticiosos". La NASA, por
su parte, organizó en la mañana del mismo día una mesa redonda en la que varios
expertos discutieron los hallazgos.
Los hechos
¿Por qué tanto escándalo? El artículo de Science presenta el análisis que realizaron
Michael S. Malin y Kenneth S. Edgett de más de 20 mil imágenes obtenidas por la
Cámara Orbital Marciana, a bordo de la sonda espacial Mars Global Surveyor, donde
detectaron alrededor de 150 imágenes de formaciones geológicas que resultan muy
similares a las que, en la tierra, son resultado de la erosión por corrientes de agua.
Las evidencia fotográfica, que incluye imágenes de canales y redes de pequeños valles en
las laderas de riscos marcianos, podría interpretarse como evidencia de que "agua líquida
podría haber sido estable en el ambiente de la superficie en algún momento del pasado",
reportan los científicos en Science.
De acuerdo con el investigador Miguel Ángel Herrera, del Instituto de Astronomía de la
UNAM, este tipo de hallazgo "no es novedoso; ese tipo de formaciones se conocen desde
hace años, desde las primeras imágenes de los setenta y tantos, con las sondas Mariner.
De hecho, el lugar al que se escogió enviar al Viking en 1975, con su laboratorio de
pruebas biológicas para detectar vida en Marte, se situó en la desembocadura de
supuestos ríos".
Sin embargo, los nuevos hallazgos resultan interesantes porque las imágenes analizadas
por Malin y Edgett apuntan a "una historia más compleja": los atributos de estas
formaciones incluyen tres características que son consistentes con un "movimiento de
masa impulsado por un fluido". Se trata de huecos en la parte superior de los riscos, de
los cuales surgen una serie de canales que terminan en estructuras inferiores en las que se
deposita el material transportado por el supuesto flujo. Este tipo de formaciones suelen
ser producidos por flujos del tipo de las cascadas o los ríos subterráneos que salen a la
superficie al encontrarse con un risco.
Más importante es el hecho de que estas estructuras parecen ser de formación reciente.
Esto se infiere del hecho de que las estructuras observadas no presentan huellas de haber
sido golpeadas por meteoritos, y en algunos casos parecen superponerse a otros relieves,
más antiguos, de la superficie marciana. "La ausencia de cráteres de impacto sugiere que
las formaciones son geológicamente jóvenes", afirman los autores del artículo.
"Geológicamente jóvenes", sin embargo, no necesariamente es poco tiempo. Según
declaró Malin en un comunicado de la Asociación Norteamericana para el Avance de la
Ciencia --editora de Science--, "estos barrancos podrían tener una edad del orden de un
millón de años, o podrían haberse formado ayer". Las estimaciones anteriores, como las
basadas en las imágenes obtenidas por la misión Mariner 9, de 1972, hacían suponer que
932
El Hijo de El Cronopio No. 82
pudo haber flujo de agua líquida en Marte hace no millones, sino miles de millones de
años.
Los problemas
El problema con la sugerencia de flujos de agua actuales o relativamente recientes en
Marte es que, debido a la tenue atmósfera de este planeta --y la consiguiente baja presión
atmosférica-- es imposible la existencia de agua líquida, pues ésta se evapora
inmediatamente.
Ésta es, en opinión de Herrera, una de las principales dificultades que plantean las
afirmaciones de Malin y Edgett: "Para formar canales así en un risco se necesitan miles
de años de flujo. Por lo que sabemos hasta ahora, la atmósfera no lo permite. Yo no lo
creería, así a prori. Se requiere mucho tiempo de flujo y un flujo muy grande, muy
considerable. Veo improbable que haya ocurrido en fechas recientes, a menos que la
atmósfera haya cambiado mucho en tiempos recientes".
En un texto que será también publicado en Science el 30 de junio, el geólogo Kenneth L.
Tanaka coincide: "si los análisis adicionales confirman las conclusiones de Malin y
Edgett… entonces algún evento muy inusual sucedió en Marte en el pasado reciente",
comenta, debido a que hasta ahora se pensaba que las condiciones que permiten la
existencia de agua líquida sólo estuvieron presentes durante los primeros miles de
millones de años de la historia del planeta.
Los autores del texto señalan que la gran mayoría de las formaciones se encuentran
presentes en latitudes del planeta donde la temperatura es más baja, lo cual ayudaría a
explicar por que el agua no se evaporaría tan rápidamente como en otros sitios, más
expuestos al calor solar.
El modelo
Para justificar sus afirmaciones, Malin y Edgett proponen un modelo "simplista" que
justifica su propuesta de que es el flujo de agua el responsable de las formaciones. En
este modelo, el agua estaría presente en una capa porosa subterránea de relativamente
poca profundidad --sugerencia que ya se había considerado anteriormente—, donde es
mantenida en estado líquido debido a la presión de las capas superiores del suelo
marciano.
Conforme esta agua fluye, llega a encontrarse con riscos, en donde surge produciendo las
depresiones superiores observadas en las formaciones marcianas. Este mecanismo
produciría también caída de material que se acumularía en la parte inferior de las
formaciones.
Conforme el agua surgiera, la baja temperatura marciana ocasionaría que se congelara,
formando una barrera de hielo que impediría la salida de más agua. Dentro de esta
barrera, la presión se iría acumulando hasta que se produjera una salida de una mezcla de
hielo, agua líquida y restos de roca, lo que podría explicar las formaciones observadas.
Donde hay agua, ¿hay vida?
Los hallazgos del Mars Global Surveyor, junto con las interpretaciones de Malin y
Edgett, proporcionan un incentivo más para continuar con la exploración de Marte. En el
2001, la NASA lanzará un orbitador espacial con óptica infrarroja que examinará --entre
otras cosas-- los supuestos sitios de salida de agua en busca de evidencia de su flujo. Y
es posible que en el 2003 se lance una misión a Marte que podría analizar también los
sitios señalados en el artículo de Science.
933
El Hijo de El Cronopio No. 82
La existencia de agua disponible en Marte podría ser de gran utilidad para establecer una
base en ese planeta, pues además de utilizarse para la supervivencia podría usarse en
celdas de combustible para generar energía en cantidades modestas, o descomponerse en
hidrógeno y oxígeno que servirían como combustible espacial.
Sin embargo, investigadores de la NASA, al igual que redactores en los diversos medios
de comunicación, se han apresurado a hacer afirmaciones que van mucho más allá. "La
presencia de agua líquida en Marte tienen profundas implicaciones para la cuestión de la
vida, no sólo en el pasado, sino incluso ahora", declaró en un comunicado Ed Weiler, de
la NASA. "Si alguna vez se desarrolló la vida ahí, y si sobrevive hasta el presente, estas
formaciones del terreno serían los lugares ideales para buscarla".
Ante declaraciones de este tipo, Miguel Ángel Herrera tiene su propia opinión: "Yo soy
muy escéptico en estas cosas; estamos en la época del show: se habla de que el universo
es plano, de que las estrellas más viejas son más viejas que el propio universo, de que un
meteorito contiene bacterias marcianas, y al final se demuestra que no había evidencia
fuerte. Hay que cuidarse mucho de esas noticias, hay que ser muy escéptico".
"Muchos científicos --continúa el también divulgador científico-- hoy están buscando
hacerse propaganda, hacerse famosos. Hay que tener mucho cuidado, porque hay una
fuerte tendencia a encontrar el lado espectacular de la noticia, más como noticia que
como información científica".
Listo el primer mapa del genoma humano
En un anuncio largamente anticipado, los líderes científicos y políticos de la carrera por
el desciframiento del genoma humano anunciaron ayer la consecución de un 'borrador
de trabajo' del instructivo molecular de la vida
Por JAVIER CRÚZ/ Reforma
En una reunión marcada por las conjunciones, el Presidente de Estados Unidos, el Primer
Ministro de la Gran Bretaña y los dos líderes hasta ayer en "competencia científica" por
el desciframiento del genoma humano emplearon 5 mil 541 palabras --en inglés-- para
describir una historia que cabe toda en un alfabeto de sólo cuatro letras: A, C, G y T.
"Estamos aquí para celebrar la compleción del primer mapa del genoma humano entero",
anunció el Presidente de los Estados Unidos, Bill Clinton, desde la Casa Blanca,
acompañado mediante un enlace vía satélite por el Primer Ministro de la Gran Bretaña,
Tony Blair, y en persona por Francis Collins, director del Instituto Nacional de
Investigaciones del Genoma Humano, y Craig Venter, presidente de la compañía Celera
Genomics.
"Sin duda alguna, este es el mapa más importante, más maravilloso jamás producido por
la humanidad", celebró Clinton. En México, el doctor Francisco Bolívar Zapata, del
Instituto de Biotecnología de la UNAM, dijo a REFORMA que "este desarrollo es
trascendente para la preservación de las especies, incluyendo a la humana". Al
acercarnos al punto de conocer los 80 mil genes del genoma, dónde están y de qué
proteínas son responsables, dijo, nos acercamos también a mejores tratamientos para
afecciones tales como la diabetes o el mal de Alzheimer.
"Curación" se escribe con cuatro letras
En el léxico de la genética, con esas cuatro letras --que representan a sendas bases
químicas: Adenina, Citosina, Guanina y Timina-- se "escribe" el instructivo entero del
934
El Hijo de El Cronopio No. 82
código genético de lo que llamamos raza humana, codificado en secuencias que forman
"palabras": los genes.
Conocer esas palabras y el orden preciso en que aparecen en el genoma -apropiadamente llamado "el libro de la vida"-- ha sido la meta del Proyecto del Genoma
Humano (PGH) desde su concepción, a mediados de los años 80.
Gracias a los avances tecnológicos generados por el propio proyecto, y a la competencia
que en los últimos 18 meses ha significado la incorporación a la carrera de la empresa
privada Celera Genomics, las metas iniciales han ido cumpliéndose de forma anticipada.
En un comunicado, el PGH afirma que, a un ritmo de mil bases de secuencia "en bruto"
por segundo, 24 horas al día y 7 días a la semana, se ha alcanzado este "borrador de
trabajo".
"Aproximadamente 50 por ciento de la secuencia genómica está casi en 'forma
terminada' y 24 por ciento ya lo está", informa el documento. "A lo largo del genoma, un
segmento promedio de ADN reside en una secuencia continua, sin interrupciones, de
unas 200 mil bases. La precisión promedio de toda la secuencia de ADN en este
ensamblaje es de 99.9 por ciento".
La fecha para alcanzar la meta de convertir al borrador en la secuencia completa ha sido
adelantada al año 2003, en el entendido de que secuenciar el 3 por ciento restante será
casi tan difícil como haberlo hecho con el 97 por ciento que ya se tiene.
"Son secuencias altamente repetitivas", explicó Bolívar, lo cual dificulta distinguir su
ubicación y sus funciones.
Lo cual no obsta para que los científicos se precipiten, con optimismo y voracidad, sobre
el borrador.
"Más de una docena de genes, responsables de enfermedades que van de la sordera a los
malestar renales, al cáncer, ya han sido identificados durante el año pasado", dijo Collins.
Venter, por su parte, le echó más proteínas a su optimismo:
"Hay cuando menos el potencial para reducir a cero el número de muertes por cáncer
durante nuestras vidas", aventuró.
Las obligaciones
Un tema recurrente en las intervenciones de los políticos como de los científicos fue el
de las responsabilidades sociales por el uso de la información genético en beneficio de la
humanidad entera. "Todos nosotros compartimos la obligación de asegurar que la
propiedad común del genoma humano sea usada libremente para el bien común de toda
la raza humana", dijo el Primer Ministro Blair.
"Para asegurar que se haga uso (de la información) para transformar la medicina, y no
abuso para hacer del hombre su propio creador o para invadir la privacía individual".
Tecnología contra el robo
Los ladrones lo van a tener mucho más difícil para robar un coche a partir de ahora.
Incluso antes de que usted descubra que su automóvil ha sido sustraído, el ladrón podría
haber sido ya atrapado por la policía. Al menos esto es lo que promete una nueva
tecnología de comunicaciones vía satélite desarrollada por ingenieros del TechnionIsrael Institute of Technology. Coches y máquinas expendedoras, pero también líneas
eléctricas y tuberías de transporte de gas, por ejemplo, pueden ahora ser controladas
935
El Hijo de El Cronopio No. 82
constantemente desde una unidad central. Cualquier cambio en su situación será
rápidamente notificado, permitiendo tomar las medidas oportunas.
El invento consiste en una unidad compacta que crea una red global de seguimiento, sin
que sea necesario utilizar las líneas telefónicas habituales o Internet, ya que emplea
directamente satélites para las interconexiones. Esto reduce en gran media los retrasos de
minutos e incluso horas que implican la recepción de mensajes a través de otros medios.
Las empresas son cada vez más grandes y operan de una forma más global, de manera
que necesitan métodos de vigilancia de su infraestructura. Las compañías eléctricas
disponen de transformadores, líneas, etc., en lugares relativamente remotos que es
preciso tener bajo control. Los satélites, conocidos por su capacidad de envío de grandes
cantidades de datos, también pueden ser empleados para transmitir información menos
abundante pero al mismo tiempo crítica. Esto puede llevarse a cabo mediante pequeñas
antenas y transmisores de baja potencia. Un modem especial es capaz de enviar la
información hacia el satélite y de allí a la estación central en cuestión de segundos, y
también recibir instrucciones con la misma celeridad. El modem, llamado Smart 2000,
tiene un coste inferior a los empleados en la actualidad para conexiones vía satélite y es
totalmente programable.
En su aplicación como antirrobo, se denomina Car-Smart 2000 y actúa en combinación
con una alarma y un receptor GPS. Cuando se produce un robo, la alarma se dispara,
activando el modem y enviando una señal a través del sistema de satélites hasta el centro
de recepción. La señal contiene información constantemente actualizada de la posición
del vehículo gracias al receptor GPS, de manera que la policía puede localizarlo de
inmediato.
El sistema puede emplearse también para controlar los movimientos de cargas que
debamos enviar a grandes distancias, ya sea por mar o por vía aérea, para vigilar
máquinas expendedoras, para localizar excursionistas extraviados, para aplicaciones de
seguridad doméstica, etc.
Información adicional en: http://www.ats.org/v2/News/2000_News/ns052000/ns052000.html
http://www.technion.ac.il
Imagen: http://www.ats.org/v2/News/2000_News/040700p1.jpg
(El modem, junto a su inventor, Zvi David.) (Foto: Shlomo Shoham)
Una razón mas para dejar de fumar
El consumo de tabaco tiene una consecuencia adicional que implica la supresión de
algunas de las defensas naturales frente a las enfermedades cardíacas.
El riesgo de ataque al corazón se incrementa exponencialmente cuando nuestras arterias
quedan bloqueadas. Los fumadores parecen sufrir con mayor frecuencia este tipo de
enfermedades, de manera que los médicos han intentado encontrar una relación entre
ambos.
El resultado es esclarecedor. El tabaco no produce directamente los ataques al corazón,
pero sí colabora para que el cuerpo no pueda defenderse ante su amenaza.
Según la American Heart Association, el riesgo de ataques en los fumadores duplica el
de los no fumadores. Un estudio estadístico de 596 personas que sufrieron enfermedades
coronarias ha permitido descubrir una crucial diferencia entre ambos: los fumadores
poseían una mucho menor concentración del antioxidante paraoxonasa en la sangre.
936
El Hijo de El Cronopio No. 82
Los antioxidantes tienen una función muy importante, ya que se ocupan de controlar la
actividad de los radicales libres, moléculas inestables que se producen durante la
oxidación. Estos radicales pueden dañar las células. Por ejemplo, cuando ciertas grasas
como el colesterol son oxidadas, producen placas que obturan los vasos sanguíneos,
aumentando la probabilidad de un infarto.
Los fumadores ven reducida la cantidad de antioxidantes en su sangre, de modo que el
colesterol incrementa su presencia. Por fortuna, los niveles de paraoxonasa vuelven a
crecer rápidamente en cuanto se deja de fumar, de manera que en un par de años el
cuerpo puede volver a defenderse de manera natural contra la acción del colesterol. El
daño producido, sin embargo, puede ser ya irreparable.
El tabaco, pues, continúa siendo uno de los principales factores de riesgo para contraer
enfermedades del corazón. Además de reducir la presencia de antioxidantes, produce por
sí mismo radicales libres que incrementan la oxidación del colesterol, lo que empeora
aún más la situación.
No sólo los fumadores poseen niveles bajos de antioxidantes. También los diabéticos o
las personas de avanzada edad pueden verse afectados, de manera que su probabilidad de
sufrir infartos es superior a la media.
Retrato de familia
Aprovechando la reciente alineación planetaria, el satélite SOHO ha fotografiado varios
de los componentes del sistema solar en una sola imagen.
La alineación planetaria que se ha estado produciendo durante las últimas semanas ha
hecho correr ríos de tinta. Para los científicos del programa de investigación del
observatorio SOHO, sin embargo, ha sido sólo una oportunidad más de demostrar las
capacidades de su vehículo.
Una de las particularidades de la alineación es que varios de los planetas se encuentran
muy juntos en el cielo, pero demasiado próximos al Sol en apariencia como para ser
observados directamente. Por fortuna, el SOHO es un satélite diseñado precisamente
para fotografiar nuestra estrella y sus instrumentos pueden orientarse hacia ella sin
ningún problema. Gracias a ello, la cámara LASCO C3 ha podido obtener un raro retrato
en el que Mercurio, Venus, Júpiter y Saturno (junto al Sol), pueden ser contemplados
dentro del mismo campo de visión.
La imagen se obtuvo el 15 de mayo. La cámara LASCO está dotada de un sistema
especial (coronógrafo) que enmascara la luz solar, permitiendo apreciar claramente el
espacio inmediato que rodea al astro. Ha sido este dispositivo el que ha posibilitado el
descubrimiento de cometas cayendo sobre la superficie del Sol. Su campo de visión,
unos 15 grados, ha resultado ser además lo bastante ancho como para que los cuatro
planetas citados puedan aparecer simultáneamente en su interior.
El SOHO, construido en Europa para la Agencia Espacial Europea y la NASA, se
encuentra situado a 1,5 millones de kilómetros de la Tierra, en una posición estable que
le permite una visión continua y sin obstáculos del Sol. En la imagen, Mercurio es el
planeta más cercano, a 60 millones de km de distancia (Venus se encuentra al otro lado
del Sol), y Saturno el más alejado (1.400 millones de km).
Información adicional en: http://sohowww.estec.esa.nl/hotshots/
http://sci.esa.int/content/news/index.cfm?aid=1&cid=1&oid=18595
http://sci.esa.int/content/news/index.cfm?aid=14&cid=2097&oid=12363
937
El Hijo de El Cronopio No. 82
Imagen: http://sohowww.estec.esa.nl/hotshots/2000_05_03/lasco_c3v3.jpg
(El retrato de familia.) (Foto: ESA/NASA)
http://sohowww.estec.esa.nl/hotshots/2000_05_03/diagram1.jpg
(Posiciones de los planetas en el momento de la observación fotográfica.) (Foto: ESA)
Volcán submarino activo
Los científicos han encontrado un volcán activo al este de la isla de Samoa. Su principal
característica es que se encuentra bajo el océano.
Geólogos marinos de la Woods Hole Oceanographic Institution y de la Scripps
Institution of Oceanography han confirmado la existencia de un volcán submarino que
presenta una clara actividad.
El volcán, que ha sido bautizado como Vailulu'u por estudiantes locales, se encuentra al
este de Samoa, a unos 45 km de la isla de Ta'u. Según los cálculos, se eleva unos 5.000
metros sobre el lecho oceánico, quedando su cima a unos 600 metros por debajo del
nivel del mar.
La gran montaña había sido ya investigada el año pasado, pero los científicos retornaron
a la zona en marzo para confirmar que efectivamente se encuentra en plena erupción.
Para ello se empleó un barco situado sobre la vertical del volcán, el cual arrastró un
instrumento ideado para medir el grado de turbiedad de las aguas (el número de
partículas en suspensión en la columna de agua). En efecto, el volcán presenta una
especie de halo semejante al "smog" de las grandes ciudades que se extiende más allá de
7 km a la redonda.
El barco utilizado es el U.S.Coast Guard Icebreaker Polar Star, un rompehielos que
acababa de regresar de la Antártida. Los helicópteros del Polar Star recogieron a los
científicos en Fiji, el 19 de marzo, y al día siguiente llegó sobre la vertical del Vailulu'u.
Las mediciones indican que su cráter tiene unos 2.000 metros de diámetro y unos 400
metros de profundidad.
Además del grado de turbiedad de las aguas, se midió la temperatura y la salinidad. La
capa de "smog" fuera del cráter quedó situada entre los 600 y los 800 metros de
profundidad. Las corrientes oceánicas se encargan de dispersarlo constantemente. Se
recogieron muestras de agua para analizar su contenido químico. Asimismo, se
desplegaron cinco hidrófonos (micrófonos subacuáticos) sobre el volcán, incluyendo la
base del cráter. Dichos micrófonos escucharán los posibles terremotos que se produzcan
hasta que vuelvan a ser recogidos esta primavera.
Si es posible organizar otra expedición, los científicos desean ahora utilizar submarinos y
vehículos operados de forma remota. Se buscarán salidas de gases calientes y quizá
comunidades biológicas asociadas. Se trazarán también mapas de los flujos de lava, que
se solidifica en cuanto entra en contacto con el agua, para ayudar a conocer mejor cómo
estos procesos pueden llegar a producir nuevas islas.
Información adicional en: http://www-pacer.ucsd.edu/avon/pressreleases.htm
Imagen: http://www-pacer.ucsd.edu/avon/images/Faafafine.180m.3D.smnt.jpg
Virus para su teléfono móvil
La creciente sofisticación de la telefonía móvil la hace al mismo tiempo vulnerable a
sufrir ataques semejantes a los que padecen los ordenadores conectados a Internet.
938
El Hijo de El Cronopio No. 82
Las compañías de desarrollo de la próxima generación de teléfonos móviles nos han
prometido grandes sorpresas. Su funcionalidad será muy avanzada. Para ello, serán
dotados de sistemas de programación que facilitarán el acceso a Internet, el pago
electrónico, la grabación de conversaciones, etc.
Sin embargo, esta sofisticación tendrá un precio. Los especialistas en ordenadores
advierten que los teléfonos móviles serán entonces vulnerables a futuros virus
informáticos. La grabación de conversaciones podría efectuarse de forma involuntaria,
por ejemplo, y su contenido enviado a terceras personas sin nuestro conocimiento.
Además, el dinero de nuestros monederos electrónicos podría desaparecer o alguien
podría cargar sus facturas telefónicas a la nuestra.
En un mundo donde el uso del teléfono móvil está creciendo de forma exponencial, la
propagación de un virus sería muy rápida. Estos pueden atacar cualquier dispositivo que
sea programable, y extenderse si existen enlaces entre ellos. Los teléfonos móviles, por
tanto, son candidatos para sufrir esta amenaza a corto plazo, de manera que sus
diseñadores deberán prestar una atención especial a los elementos de seguridad.
Una de las opciones es que los programas que gobiernen los teléfonos, o al menos los
más importantes, estén grabados en memoria de sólo lectura, de modo que los virus no
puedan modificarlos. El problema, por supuesto, es que entonces el aparato no puede ser
actualizado. Peor aún, los teléfonos necesitan memorias que sí podamos escribir, ya que
querremos almacenar números de teléfono y otros datos. Un virus podría modificar un
número (el de nuestra propia madre) y hacer que llamemos sin saberlo a otro situado al
otro lado del mundo, con las nefastas consecuencias económicas que ello implicaría.
Una posible solución para evitar que los virus se propaguen es hacer que los programas
del teléfono estén completamente separados. Así, un programa no podría iniciar otro, y
de la misma manera, el virus no podría efectuar una llamada y con ello extenderse e
infectar a otras personas.
La tendencia, por desgracia, no es ésta. Los fabricantes se ven bajo la presión comercial
de añadir cada vez más funcionalidades a los teléfonos, y eso implica una mayor
capacidad de programación (y un aumento de las oportunidades de infección). (New
Scientist)
Espejos de material inteligente
Los telescopios espaciales del futuro poseerán espejos muy diferentes a los actuales.
Los telescopios que hacen su trabajo desde el espacio en la actualidad aún emplean
espejos ópticos rígidos. Su peso y características limitan su capacidad ya que los cohetes
no pueden satelizar vehículos demasiado grandes.
Para solucionar este problema, los ingenieros de los Sandia National Laboratories están
desarrollando un material ultraligero que puede realizar el mismo trabajo que los espejos
tradicionales, e incluso mejorarlo.
Tammy Henson, especialista en este proyecto, explica que se trata de un material
piezoeléctrico capaz de formar delgadas películas desplegables. Sus propiedades
piezoeléctricas permiten que cambie de forma cuando es sometido a un chorro de
electrones (campo eléctrico) disparado por un cañón electrónico controlado por
ordenador.
Así, el espejo ultraligero será plegado e introducido en un contenedor, siendo lanzado al
espacio por un cohete de bajo coste. Una vez en órbita, y tras el despliegue inicial, el
939
El Hijo de El Cronopio No. 82
cañón de electrones actuará y obligará al espejo a adaptar su forma perfecta final. El
mismo cañón puede emplearse para corregir la forma del espejo con una precisión de 10
millonésimas de pulgada, suficiente como para que el espejo pueda tener aplicaciones
ópticas.
El espejo resultante pesa muy poco, apenas 1 kg por metro cuadrado, frente a los 15 kg
del que se empleará en el futuro New Generation Space Telescope o los 250 kg por
metro cuadrado del actual Hubble.
Esta gran eficiencia en términos de masa sugiere que podremos obtener espejos de
enorme diámetro (más de 20 ó 30 metros) con un gasto reducido de lanzamiento. Esto
ayudará a recoger una mayor cantidad de luz y ver más lejos en el espacio. Los
materiales tradicionales no servirían para ello ya que no hay cohetes adecuados para
lanzar un espejo rígido tan voluminoso (y probablemente caro).
El uso de un cañón de electrones es fundamental en la nueva solución. La excitación de
materiales piezoeléctricos mediante este sistema se debe a John Main, de la University of
Kentucky. Controlado por ordenador, dicho cañón deberá ser operado bajo las órdenes de
un algoritmo muy sofisticado que ahora mismo está siendo desarrollado.
Los espejos flexibles pueden ser fabricados bajo demanda y en un plazo de pocos meses.
El pulido del espejo del telescopio espacial Hubble, en cambio, precisó de varios años.
La flexibilidad del material del espejo, que podrá ser usado también en misiones
militares (a bordo de satélites espía, los cuales usan telescopios para obtener fotografías
de gran resolución), implicará la corrección de su forma tras su apertura en el espacio.
Ello se logrará mediante sensores láser ópticos, que proporcionarán la información al
ordenador y éste al cañón de electrones, el cual actuará sobre el material piezoeléctrico
otorgándole la estructura definitiva. El cañón podría tener que actuar cada pocas horas o
días para mantener siempre una forma perfecta.
Información adicional en: http://www.sandia.gov/media/NewsRel/NR2000/mirrors.htm
Imagen: http://www.sandia.gov/media/NewsRel/NR2000/images/jpg/henson.jpg
(Henson examina una pieza de material piezoeléctrico ultraligero.) (Foto: Randy
Montoya/Sandia Labs.)
La primera línea de defensa
Las autoridades canadienses van a luchar contra la entrada de un peligroso virus
manteniendo en alerta una línea de centinelas muy particular.
El virus que llamamos "del Nilo Occidental" infecta principalmente a los pájaros, pero
también puede ser transmitido a los humanos por medio de las picaduras de los
mosquitos. Las personas que se ven afectadas, sobre todo los ancianos, pueden
desarrollar encefalitis.
El pasado verano, 46 personas del área de la ciudad de Nueva York enfermaron debido a
este virus, y 7 de ellas acabaron muriendo. La consiguiente campaña anti-mosquitos
costó unos 10 millones de dólares pero resultó efectiva, ya que no se ha informado de
nuevas infecciones en humanos desde entonces. Sin embargo, los especialistas ya han
encontrado algunos de estos insectos que aún portan la enfermedad, pasando el invierno
en la misma zona. Con la llegada de los meses cálidos, podría desencadenarse otra
situación de crisis.
El virus probablemente llegó a Nueva York a través de un pájaro exótico importado. Las
autoridades canadienses están preocupadas sobre este asunto y han decidido tomar
940
El Hijo de El Cronopio No. 82
medidas para evitar que la enfermedad cruce sus fronteras procedente de los Estados
Unidos.
Para ello, se han buscado una compañía de guardianes muy curiosa. Los centinelas serán
pollos distribuidos a lo largo de todo el perímetro que va de Saskatchewan hasta el
Atlántico. Serán sólo unos pocos ejemplares en cada provincia, pero estarán distribuidos
de forma equilibrada a lo largo de los 2.500 km de frontera con el vecino estadounidense.
Los pollos serán médicamente examinados cada semana (el virus no crea síntomas
externos visibles en ellos). En cuanto el virus cruce la frontera, infectará a los animales y
entonces las autoridades sabrán que deben tomar otras medidas, en este caso no de
prevención sino de combate. El dispositivo de alerta inmediata, aunque muy particular,
será altamente efectivo. O al menos esto es lo que se espera... (New Scientist)
La medicina del pasado
El retorno de un valioso libro nos da la oportunidad de conocer algo más sobre cómo era
la medicina medieval.
Para celebrar el retorno de un manuscrito medieval perdido durante largo tiempo, la
National Library of Medicine (NLM) ha organizado una exposición en la que se
muestran algunos de los documentos clave de la medicina de esta época (desde los siglos
XI al XV), así como libros impresos de los siglos XV al XVII. La exposición estará
abierta hasta el 30 de junio.
El manuscrito latino perdido se titula "Tratados de Medicina" y fue escrito en Inglaterra
en el siglo XII, sobre piel de cordero. Desapareció misteriosamente de la biblioteca de la
NLM hace 50 años y sólo ahora ha podido ser recuperado. Richard Aspin, de la
Wellcome Library, lo identificó, y la familia Rootenberg, que se había hecho con él por
cauces no aclarados, lo ha devuelto a la NLM.
El tratado, a veces conocido como "Recepta Varia" o "Manuscrito 8", contiene 40 textos
de diferentes autores. Se trata de un caso típico de intento medieval de compilar todo el
conocimiento médico de la época. Los autores realizan un mayor énfasis en las
cuestiones prácticas y menos en las de mera especulación. Los textos van de guías para la
diagnosis del pulso o la orina, a recetas, listas de sustancias médicas y discursos
relacionados con cirugía. El tratado también contiene algunas curas mágicas, así como
referencias a astrología y adivinación, si bien el tono predominante es el racional. La
reunión de textos se completa con varios himnos y la historia de un monje errante que la
Virgen María salvó de la condenación eterna.
La importancia del manuscrito radica en que representa la transición entre la enfermería
monástica y la facultad de medicina en la universidad. Supone asimismo un paso
intermedio entre el arte de la curación y la ciencia localizada en los libros.
La exposición de la NLM presenta otros 25 libros y manuscritos, incluyendo uno
espléndidamente ilustrado del siglo XIII, un texto en árabe de 1094 (el más antiguo de la
colección) y varias copias de los Aforismos de Hipócrates, uno de los puntales de la
medicina. Muchos de los consejos de Hipócrates pueden ser reconocidos ahora como el
más sencillo sentido común. Por ejemplo, nos habla de prevención, estilo de vida y
medicina dietaria, y no de soluciones mágicas. Fue de los primeros médicos en reconocer
la importancia en la salud de la edad, el sexo, la estación del año, la dieta, etc.
Recomendó la moderación en la dieta y que los cambios se hagan de forma gradual.
Información adicional en: http://www.nlm.nih.gov/
941
El Hijo de El Cronopio No. 82
Ciberseguridad
Los agentes inteligentes se perfilan como los mecanismos de programación que evitarán
la infección de los ordenadores con virus como el famoso "I Love You".
En la película "The Matrix", agentes de seguridad inteligentes pero malévolos,
personificaciones de programas de ordenador capaces de aprender, defienden una
diabólica red mundial.
Los científicos de los Sandia Labs. trabajan en algo parecido, pero con fines mucho más
edificantes. Según estos investigadores, si cada nodo en Internet estuviese controlado por
uno de estos agentes, el virus "I-Love-You" jamás hubiera pasado de la primera
máquina.
En marzo, una coalición de estos ciberagentes consiguió proteger cinco ordenadores en
red durante dos días de trabajo completos frente al ataque de una fuerza de cuatro
personas, cuatro hackers denominados "Red Team". Este grupo de Sandia tiene la misión
de probar las defensas de los sistemas de ordenadores del gobierno.
El ciberagente prototipo se encuentra todavía en fase de laboratorio. Se trata en realidad
de un colectivo de agentes, un programa distribuido que funciona sobre múltiples
ordenadores en una red. Por supuesto, en Sandia la preocupación radica más en los
ataques cibernéticos de gobiernos enemigos que en los de jóvenes hackers. Sin embargo,
el programa será igualmente apto: reaccionará con sospecha cuando detecte intentos de
escudriñar todos los puertos de entrada del ordenador (direcciones que permiten la
penetración para diversas funciones), aunque éstos se efectúen a lo largo de un largo
período de tiempo, como un año.
El programa "agente" actúa poniendo en marcha un colectivo que constantemente
compara notas para determinar qué solicitudes u órdenes poco usuales se han recibido de
fuentes externas o internas. Por ello, la respuesta del sistema no se limita a esperar hasta
que alguien diseñe una defensa o active el antivirus.
El gran problema del mundo informático es que hay una gran cantidad de nuevo material
apareciendo constantemente, material que ni siquiera sabíamos que existía y que por
tanto el software no reconoce. El agente, en cambio, no sólo reconoce virus concretos,
sino que además detecta ataques, bloquea servicios, cierra puertos, busca medios de
comunicación alternativos, etc.
El agente de Sandia integra las funciones de seguridad con los servicios habituales (ftp,
www, etc.). Es lo bastante sensible como para recoger y almacenar en memoria intentos
muy sutiles realizados por los hackers para aprender algo del funcionamiento de un
ordenador, una táctica que después les servirá para realizar el ataque final.
Un sistema de reconocimiento de patrones puede desactivar ordenadores en los que se
hayan instalado ya "Caballos de Troya" (programas secretos que serán operados más
adelante mediante un control externo hostil). Esto permite retirar de una red el ordenador
afectado, evitando la progresión del incidente. También puede cerrar las puertas del
sistema para protegerlo de solicitudes repetitivas que en otros casos han acabado
bloqueándolo. Y se puede prohibir, por supuesto, que un ejecutable llegue a penetrar en
el sistema de correo.
No hay una autoridad central que opere el agente. Al contrario, el control descentralizado
del algoritmo que funciona en cada uno de ellos los hace tan autónomos como
cooperantes. Un único punto de ataque no puede derribar al colectivo.
942
El Hijo de El Cronopio No. 82
El programa estará disponible para su uso general dentro de unos tres años, aunque una
versión dirigida a aplicaciones específicas en negocios muy importantes o del gobierno
podrá empezar a utilizarse el año que viene.
Una persona sola frente a un terminal, demasiado lenta, no puede protegernos de un
ataque procedente de Internet. Por eso, nunca hay que enviar a un hombre a hacer el
trabajo de una máquina. Los ciberagentes serán la policía de la red del futuro.
Cuando Internet se prolongue al espacio y los satélites y sondas interplanetarias estén
conectados a la red, estos agentes serán indispensables para evitar que un hacker o un
gobierno interesado trate de hacer fracasar sus misiones. Parecidos a una vida artificial
con su propio genoma, será posible descargar uno de ellos y conectarlos al resto del
colectivo para proteger a los ordenadores cuya conexión a Internet sea constante.
Información adicional en: http://www.sandia.gov/media/NewsRel/NR2000/agent.htm
Imagen: http://www.sandia.gov/media/NewsRel/NR2000/images/jpg/agents.jpg
(Los agentes vigilarán la red.) (Foto: Laurence Phillips y Shannon Spires)
El cometa que paso desapercibido
Los astrónomos han constatado con nerviosismo que no todos los cometas son
descubiertos cuando deberían.
Revisando los datos almacenados y generados por el observatorio solar SOHO, los
astrónomos de la ESA y la NASA han descubierto la presencia de un nuevo cometa que
pasó cerca de la Tierra en 1997.
Llamado provisionalmente C/1997 K2, dicho cometa ha resultado ser más brillante que
cualquiera de los encontrados durante los seis meses anteriores. Sorprendidos, los
astrónomos se preguntan cómo es posible que un astro así haya podido pasar
desapercibido por nuestros instrumentos.
El suceso no sería demasiado relevante si no fuera por el nerviosismo que implica que un
objeto de ese tamaño pueda pasar excesivamente cerca de nuestro planeta, o incluso
chocar contra él, sin que tengamos el suficiente tiempo para prepararnos.
Teniendo en cuenta los miles de aficionados que escrutan cada noche el cielo y los
numerosos observatorios astronómicos dedicados a la catalogación de cuerpos menores,
esta situación sólo podría esperarse de un cuerpo extremadamente débil.
No obstante, su brillo es un concepto relativo, ya que aunque no llegó a ser visible al ojo
desnudo, los telescopios de aficionados podrían haberlo descubierto con facilidad. La
única explicación lógica es que nadie estaba interesado en lo que ocurría en el cielo
durante el período de su visita: la espectacular llegada del cometa Hale-Bopp, visible a
simple vista, eclipsó cualquier otra observación posible.
Es cierto que el SOHO detectó el cometa K2, pero lo ocurrido nos hace reflexionar sobre
que la búsqueda y detección de asteroides y cometas cercanos a la Tierra dista mucho de
haber alcanzado un punto óptimo. Los recursos dedicados a dicha actividad son aún
insuficientes y probablemente lo continúen siendo durante bastante tiempo. Nadie sabe
si, con ello, estaremos dando una oportunidad a que un objeto desconocido nos dé algún
día el susto que no quisiéramos tener nunca.
943
Boletín
El Hijo de El Cronopio
Facultad de Ciencias
Universidad Autónoma de San Luis Potosí
No.83, 3 de julio de 2000
Boletín de información científica y
tecnológica de la Facultad de Ciencias
Publicación semanal
Louis Armstrong,
enormísimo
cronopio. Centenario de su
nacimiento
Satchmo, uno de sus apodos, rompió con el estilo
Nueva Orleáns
Edición y textos
Fís. José Refugio Martínez Mendoza
Parte de las notas de la sección Noticias de la
Ciencia y la Tecnología han sido editadas por
los españoles Manuel Montes y Jorge
Munnshe. La sección es un servicio de
recopilación de noticias e informaciones
científicas, proporcionadas por los servicios de
prensa de universidades, centros de investigación
y otras publicaciones especializadas.
Cualquier información, artículo o anuncio deberá
enviarse al editor. El contenido será su
responsabilidad.
e-mail: flash@galia.fc.uaslp.mx
Números anteriores del boletín, pueden
consultarse por Internet en la página de la
UASLP:
http://phobos.dtc.uaslp.mx/publi.html
En 1917 Estados Unidos entró a la Primera Guerra
Mundial, y la Marina de ese país, para guardar la
moral de las tropas, decretó el cierre de los bares,
prostíbulos y garitos de la zona de tolerancia de Nueva
Orleans, conocida como Storyville. La medida dio
lugar, junto con la pobreza imperante, a la primera
gran migración en la historia del jazz. Los músicos
negros y blancos que habían derivado el ragtime, el
Dixieland y el blues hacia las formas primitivas del
jazz decidieron partir hacia Chicago, la Ciudad
Airosa . Para 1920, el jazz ya había instalado allí sus
reales, convirtiéndose en la música más exitosa de la
década a pesar de la prohibición , y entre los migrantes
se encontraba un joven de 20 a ños que había sido
llamado por la banda de más renombre, la de Joe
Oliver. Se trataba de Louis Armstrong. Satchmo,
contracción de Satchelmouth o Bocón , presumía de
haber nacido el 4 de julio de 1900. No sólo quería ir
con el siglo, sino también aprovechars e de las leyes
estadunidenses que eximían del servicio militar a todo
aquel que hubiera nacido en el aniversario de la
independencia. Hijo de una prostituta de Storyville,
sin haber conocido a su padre, se crió prácticamente
en la calle. Producto legítimo de la misma mezcla que
dio origen al jazz sexo, alcohol, pobreza, música y
reventón , Louis Armstrong encontró su camino hasta
que fue a dar a la cárcel. En las fiestas de navidad de
1913 tomó prestada una pistola y echó unos tiros al
aire. Fue suficiente para encerrarlo en el reformatorio.
Allí se unió a la banda de internos y comenzó a tocar
la corneta instrumento de aire sin pistones propio de la
milicia hasta el punto en que, luego de dos años de
internado, salió para unirse a las bandas que entonces
recorrían las calles de Storyville
El Hijo de El Cronopio No. 83
Noticias de la Ciencia y la Tecnología
Primer aniversario de SETI@home
La más ambiciosa iniciativa relacionada con el análisis y búsqueda de señales de
inteligencia extraterrestre cumple su primer año de funcionamiento.
Los científicos dedicados en cuerpo y alma a la búsqueda de señales extraterrestres se
han quejado a menudo de las limitaciones de sus medios de observación. El cielo es muy
grande y los soles candidatos a ser examinados ("escuchados") aunque sólo sea por unos
minutos, alcanzan un número casi infinito.
Pero los especialistas del programa SETI (Search of Extraterrestrial Intelligence) no sólo
tienen el problema de la escasez de tiempo y medios de observación (radiotelescopios).
El análisis posterior de las señales captadas se ha convertido en una dificultad aún más
abrumadora, que sólo puede empeorar si se logra abarcar un cada vez mayor número de
estrellas. Para identificar un indicio de inteligencia en dichas señales se necesita un
análisis por ordenador muy sofisticado, y tiempo para llevarlo a cabo. Por supuesto, de
nada sirve recolectar señales si no van a poder ser examinadas.
Conscientes de esta situación, un grupo de especialistas de la University of Berkeley
idearon una estrategia maestra. ¿Por qué no aprovechar la capacidad de computación de
miles de usuarios voluntarios distribuidos por todo el mundo?
El resultado de esta inquietud tiene un nombre: SETI@home. Se trata de un programa
que es capaz de recoger paquetes de información (en realidad, fragmentos de señales
captadas, por ejemplo, mediante el radiotelescopio de Arecibo), analizarlos y devolverlos
a una sede central, todo ello a través de las redes telemáticas e Internet.
Lo que se inició hace tan sólo un año como un simple experimento ha superado todas las
previsiones posibles. Ya son 2 millones los voluntarios que participan en dicho programa
(200.000 se suscribieron a las 48 horas de darse a conocer). Su mayor atractivo es que el
software no resulta molesto: actúa como un salvapantallas y sólo funciona cuando el
ordenador está libre.
La magnitud de la empresa arroja números realmente espectaculares. Durante el pasado
año, los usuarios de SETI@home aportaron desinteresadamente el equivalente a 280.000
años de tiempo de computación. De forma indirecta, los promotores de la iniciativa han
creado la mayor supercomputadora del mundo.
Sin duda, SETI@home se ha beneficiado de la fascinación que produce todo lo que tenga
que ver con la búsqueda de inteligencia extraterrestre. Sin duda, a nadie desagradaría ser
la primera persona que detectase algo tan importante como la presencia de seres vivos
inteligentes en otro lugar del universo.
La información que nutre al programa SETI@home procede de un instrumento llamado
SERENDIP-IV (Search for Extraterrestrial Radio Emissions from Nearby Developed
Intelligent Populations), un receptor que actúa en el radiotelescopio de Arecibo,
paralelamente a otras investigaciones astronómicas.
A pesar de todos los esfuerzos, no se ha detectado hasta la fecha ninguna señal
convincente. Todos los picos encontrados han sido antes o después relacionados con
emisiones de satélites, interferencias, etc. Pero la búsqueda sólo acaba de empezar.
Durante los últimos 20 años se han realizado grandes progresos. Hemos pasado de
"escuchar" 100 bandas de radio de forma simultánea a hacer lo propio con 100 millones.
945
El Hijo de El Cronopio No. 83
La tecnología mejora y se espera aumentar esta cifra en un factor de 1 a 1.000 millones.
Conforme se avanza en la recepción de más y más frecuencias y la observación de más y
más cuerpos estelares, la cantidad de señales a analizar se incrementa también, pero
afortunadamente, el poder de computación de los ordenadores domésticos también crece
de manera constante, y cada vez se unen a la iniciativa más voluntarios dispuestos a
participar.
La fase actual del proyecto supone que ésta finalice dentro de aproximadamente un año.
Para entonces, la antena de Arecibo habrá observado la misma área del cielo tres o cuatro
veces. Se tratará entonces de hacer lo mismo desde otros instrumentos, si es posible
situados en el hemisferio sur.
Información adicional en: http://setiathome.berkeley.edu
Las plantas se adaptan a la luz
Biólogos de Yale han estudiado cómo las plantas saben ajustarse y crecer en función de
las condiciones de luz imperantes.
Es obvio que las plantas necesitan de la luz para realizar su crucial actividad
fotosintética. Una disponibilidad variable de luz implica cambios y ajustes bioquímicos
de acuerdo con el medio ambiente.
Según Xing-Wang Deng, del Department of Molecular, Cell and Developmental Biology
de la Yale University, existe un factor de desarrollo clave que les dice a las plantas lo que
deben hacer cuando varían las condiciones de iluminación. Este factor es una especie de
interruptor biológico que parece estar también presente en los humanos y que explicaría
en parte las condiciones experimentadas por las personas en ciertas ocasiones, como la
depresión invernal o el famoso jet-lag.
Las plantas crecen de forma diferente dependiendo de la dirección de la que provenga la
luz, del período luz-oscuridad al que son sometidas, de la intensidad lumínica y de la
longitud de onda (color) de la luz. Frente a ello no crecen necesariamente más rápido o
más despacio, sino que lo hacen de la mejor manera posible en función de la luz solar
que se les proporciona.
Durante las investigaciones se ha empleado un tipo de planta habitual en el laboratorio,
la Arabidopsis, cuyas semillas han sido obligadas a crecer bajo una variada lista de
condiciones lumínicas. El resultado ha sido una igualmente larga lista de patrones de
crecimiento. Así, en condiciones de luz intensa, la Arabidopsis crece más corta, pero más
fuerte y verde. En condiciones más oscuras, se hace mas alta, pero con hojas amarillentas
y troncos delgados.
Las semillas, al crecer, presentan múltiples fotorreceptores que perciben las señales
lumínicas y envían esta información a dos componentes proteínicos (COP1 y HY5),
quienes a su vez regulan el desarrollo de la semilla. Este control es el que da forma a los
diferentes patrones de crecimiento.
Así, las plantas pueden medir y cuantificar el medio ambiente lumínico que les rodea y
modificar su desarrollo de acuerdo con ello, optimizando la fotosíntesis, el proceso
esencial que convierte la energía de la luz en energía química.
Sabiendo esto, los agricultores podrán en el futuro modificar sus cultivos para que
crezcan mejor a pesar de hallarse bajo condiciones de iluminación menos favorables. Las
plantas de invernadero podrán también crecer más saludables y fuertes durante la primera
fase de la primavera, cuando la luz disponible es menos abundante.
946
El Hijo de El Cronopio No. 83
Información adicional en: http://www.yale.edu/opa/newsr/00-05-24-01.all.html
Nueva isla volcánica
Un grupo de investigadores australianos ha tenido la fortuna de presenciar el nacimiento
de una isla en el Pacífico.
Aunque no es un hecho desconocido, la aparición de una nueva isla en pleno océano es
sin duda un acontecimiento científico poco habitual. Como también lo es la circunstancia
de que el nacimiento pueda llegar a ser contemplado por científicos especializados.
Esto es lo que ha ocurrido recientemente, durante la aparición de una isla volcánica cerca
de las Salomón, en el Pacífico. El dramático momento fue observado por una expedición
situada a bordo del buque Franklin, del CSIRO australiano.
El Franklin había estado realizando un crucero en busca de actividad volcánica y de
formación mineral asociada, tanto en el mar de Bismarck como en el océano Pacífico.
Durante la primera fase de este viaje, los científicos lograron "capturar" una chimenea
del fondo del Bismarck, una formación natural por la que ascienden gases de origen
volcánico. Durante la segunda fase del crucero, tuvieron la suerte de constatar que, tras
un período de calma que ha durado unos nueve años, el montículo marino de Kavachi
había entrado en el período de formación de una isla.
El barco llegó a la zona y los expedicionarios encontraron olas chocando contra la base
del cono volcánico, mientras las erupciones se sucedían cada cinco minutos. Dichas
erupciones expulsaban lava a hasta 70 metros de altura sobre el nivel del mar. Las
emanaciones sulfurosas, por su parte, alcanzaban los 500 metros. Durante la noche, el
brillo rojizo de las erupciones explosivas producían el efecto de unos espectaculares
fuegos de artificio.
Los científicos pudieron aproximarse a unos 750 metros del centro eruptivo. El volcán
había crecido mucho desde que fue medido por última vez, en 1984.
El Franklin ha sido utilizado últimamente para encontrar muestras de rocas procedentes
de las laderas de volcanes submarinos en erupción. Los efectos de tales erupciones en la
química y turbiedad del océano han sido a su vez medidos por un equipo del New
Zealand Institute of Geological and Nuclear Sciences.
Información adicional en: http://www.csiro.au/page.asp?type=mediaRelease&id=Prvolcano
Imagen: http://www.csiro.au/images/mediaReleases/Kavachi1m.jpg
(La isla de Kavachi en formación.) (Foto: CSIRO)
La ventana cósmica mas limpia
Se ha obtenido la primera imagen de una parte del cielo nocturno sin la interposición de
elementos propios de nuestra galaxia.
Miremos hacia donde miremos, la visión de los telescopios astronómicos se ve siempre
ligeramente perturbada por la presencia de polvo y estrellas pertenecientes a nuestra
propia galaxia, la Vía Láctea.
Nuestro sistema solar se encuentra en uno de sus brazos espirales, de modo que es muy
difícil encontrar un punto del cielo completamente libre de la interferencia de estos
elementos que podríamos llamar locales. Esto no quiere decir que nuestras observaciones
del espacio profundo, en dirección a otras galaxias, sea estéril en términos científicos. Lo
que ocurre es que a los astrónomos les gustaría tener más limpio el "parabrisas" de su
947
El Hijo de El Cronopio No. 83
ventana cósmica, ya que algunos fenómenos, situados muy lejos de nosotros, son muy
débiles y complicados de observar debido a la injerencia del polvo interestelar y de otros
elementos extraños y pertenecientes a nuestro propio barrio galáctico.
Tras una búsqueda que se ha prolongado durante años, un equipo de treinta astrónomos
procedentes de cuatro países creen haber logrado la primera imagen completamente libre
de este tipo de interferencias. Utilizando el radiotelescopio australiano de Parkes, han
dirigido su mirada hacia una zona del cielo que no parece sufrir de su presencia. Como
hemos dicho, esto no ha sido fácil, ya que como una banda que cruza el cielo nocturno,
la Vía Láctea nos bloquea directamente la visión del 15 por ciento de la esfera celeste,
perjudicando de forma sustancial la contemplación del resto.
El hallazgo de un "agujero" por el que mirar es destacable, ya que ha permitido descubrir
muchas galaxias lejanas hasta ahora desconocidas, así como nubes frías de hidrógeno, el
material del que se forman las estrellas. Esto permitirá definir mejor la cantidad de
materia que existe en el universo.
El programa de observación se llama HIPASS, el HI Parkes All-Sky Survey. Es tan
sensible y cubre tanta superficie del cielo que puede detectar 100 veces más hidrógeno
que otros de este tipo. Se han localizado objetos que no emiten prácticamente luz,
incluyendo nubes de gas casi opacas con masas de decenas o cientos de veces la de
nuestro Sol. Podría tratarse de protogalaxias, galaxias en plena fase de formación o restos
de la construcción de otras más evolucionadas.
Se trata de materia que hasta ahora había pasado más o menos desapercibida y que debe
ser contabilizada para dar mayor precisión a la magnitud otorgada a la que no puede
verse normalmente y que podría suponer el 90 por ciento de toda la materia del universo.
Otra conclusión es que existen más galaxias enanas o débiles de las que se creía
inicialmente. Se espera localizar entre 5 y 10.000 objetos, de los cuales una cuarta parte
serán nuevos.
Información adicional en:
http://www.csiro.au/page.asp?type=mediaRelease&id=cosmicwindow
Imagen: http://www.csiro.au/images/mediaReleases/parkes_sm.jpg
(El radiotelescopio de Parkes.) (Foto: CSIRO)
Así se evitarán las quemaduras solares
Un nuevo invento aplicado a nuestra piel o ropa ayudará a delatar el momento en que
empecemos a correr peligro por la influencia de los rayos ultravioleta.
A partir de ahora, evitar las quemaduras solares mientras tomamos el Sol será mucho
más fácil. Científicos israelíes han desarrollado un parche adhesivo que, unido a la piel o
a una pieza de ropa, cambia de color cuando los efectos de la luz ultravioleta han
alcanzado un límite que empieza a resultar peligroso. El parche se llama Sticker y ha sido
concebido por Skyrad, una empresa originada en el Technion-Israel Institute of
Technology.
La sobreexposición a la luz ultravioleta es un problema creciente, sobre todo con la
disminución de la protección natural que supone la presencia de la capa de ozono, ya que
puede producir quemaduras y cáncer.
Para defendernos mejor de esta amenaza, debemos ser conscientes de cuándo nuestra piel
está recibiendo demasiada luz ultravioleta. El Sticker hace precisamente esto, midiendo
la dosis acumulada de este tipo de radiación que ha absorbido nuestro cuerpo. Los
948
El Hijo de El Cronopio No. 83
dosímetros actuales miden la densidad de los UV, no la dosis acumulada. El uso de
cremas solares, por otro lado, causan a veces una impresión de falsa seguridad, ya que
con ellas se necesita más tiempo para sentir los efectos de la quemadura.
El Sticker se empleará en dos versiones, dependiendo de si usamos o no crema de
protección solar, y para seis tipos de piel distintos (de muy clara a muy oscura). En cada
caso, su acción ha sido ajustada para avisar cuando la dosis acumulada de UV se vuelve
peligrosa. Por ejemplo, el Sticker para un tipo de piel 2 se "quemará" en una cuarta parte
del tiempo del que necesitará para el tipo de piel 4. Los elementos fotocromáticos que
posee provocan un cambio de color gradual, de azul a plateado o de púrpura a amarillo,
en función de si la radiación UV alcanza un nivel predeterminado o no (siempre uno
inmediatamente anterior al que supone una muy ligera quemadura solar).
Si el usuario cambia de localidad y pasa del sol a la sombra en poco tiempo, el color del
Sticker se ajusta de forma conveniente.
Información adicional en:
http://www.ats.org/v2/News/2000_News/ns052400/ns052400.html
Imagen:
http://www.ats.org/v2/News/2000_News/ns052400/052400p1.jpg
(Los niños son los más afectados por las quemaduras solares.) (Foto: American Technion
Society)
Algoritmo cuántico para búsquedas inteligentes
Un nuevo método informático permitirá localizar rápidamente lo que buscamos en una
base de datos incluso cuando los criterios de búsqueda sean algo vagos.
Aunque hasta ahora sólo se han construido ordenadores cuánticos muy rudimentarios,
este tipo de tecnología muestra un gran potencial para el futuro. En este campo, los
investigadores aplican conceptos de la física cuántica para construir máquinas más
eficientes y rápidas.
Es en este contexto que Lov Grover, un ingeniero de los Bell Laboratories, ha
desarrollado un algoritmo de búsquedas en bases de datos que promete resultados
revolucionarios. Dicho algoritmo utiliza un procedimiento llamado "sampleado" que los
expertos en estadística usan para resolver problemas en ausencia de información
adecuada. Por ejemplo, podría utilizarse para encontrar con rapidez, por nombre y
número de teléfono, a una persona que hayamos conocido brevemente pero de la cual
hayamos medio olvidado su nombre. Pongamos por caso que recordamos que se llama
Juan, pero que, sin conocer su apellido, sí sabemos que era uno muy común, como
García o Martínez. Otorgaremos una probabilidad de que se llame García del 50 por
ciento, y de un 20 por ciento para Martínez. Por otro lado, recordamos que vive cerca de
la Sagrada Familia de Barcelona, en un apartamento, y que su tarjeta de visita muestra un
número de teléfono cuyos cuatro últimos cuatro números coinciden con los de nuestro
médico.
En la actualidad, encontrar a la persona indicada con esta información tan dispersa sería
una tarea increíblemente compleja. Con el nuevo algoritmo y una computadora cuántica,
en cambio, la búsqueda será rápida y sencilla.
949
El Hijo de El Cronopio No. 83
Aunque el ejemplo citado parece algo rebuscado, en realidad la naturaleza de los
problemas que presenta es casi idéntica a la de los que se deben afrontar a menudo en
estadística y ciencia de los ordenadores. Lo fundamental es hallar el algoritmo adecuado
que sea más rápido que lo que permite un computador convencional.
En el campo de la informática cuántica existen de momento pocos algoritmos
disponibles, ya que son difíciles de escribir y por qué la ciencia es aún demasiado joven.
Trabajos como los de Grover no hacen sino acercarnos al día en que este tipo de
máquinas pueda ser empleado de forma general.
El Grover Search Algorithm es pues una serie de instrucciones que al ser ejecutadas por
un ordenador cuántico pueden localizar un objeto en una gran base de datos más
rápidamente que cualquier ordenador convencional. En una base de datos de un millón
de elementos, un ordenador normal necesitaría 500.000 pasos para identificar el correcto.
En cambio, en un ordenador cuántico, la cifra se reduce a 1.000 pasos. El sistema
funciona incluso cuando el nivel de información primaria es muy limitado.
Información adicional en: http://www.lucent.com/press/0500/000523.bla.html
http://www.bell-labs.com
Cinturón ecuatorial
Los precursores de los animales modernos pudieron haber sobrevivido a una era glacial,
hace 600 millones de años, gracias a un cinturón de agua situado alrededor del ecuador.
A finales de la era Proterozoica (hace entre 600 y 800 millones de años) se produjo el
más importante período de evolución para las criaturas multicelulares. Sin embargo, fue
en esta misma época cuando la Tierra permaneció cubierta de hielo.
Evidencias geológicas y paleomagnéticas indican que el planeta sufrió períodos
alternativos durante los cuales los continentes y los océanos quedaban helados y
cubiertos de hielo, para pasar después a experimentar momentos más cálidos en los que
éste se deshacía. Se hace difícil explicar cómo la vida pudo resistir y soportar tales
tensiones.
Según los oceanógrafos Richard Peltier, William Hyde, Thomas Crowley y Steven
Baum, el secreto estuvo en la presencia de un cinturón de agua ecuatorial que se mantuvo
como reducto habitable durante todo este tiempo crucial. Para llegar a esta conclusión, se
han empleado diversos modelos de sistemas climáticos, semejantes a los que se piensa
reinaban entonces, en simulaciones por ordenador.
Durante el período examinado, el Sol iluminaba con una intensidad menor (un 6 por
ciento). Esto fue tenido en cuenta en el modelo, así como los niveles de concentración de
dióxido de carbono atmosférico. En la mayoría de las simulaciones, el análisis revelaba
la presencia de un cinturón abierto de agua cercano al ecuador, confirmando que este
cinturón fue seguramente el refugio en el que se escondieron los seres multicelulares
cuando el resto de la Tierra quedaba cubierta de nieve y hielo.
Si esto es cierto, estaremos ante nuevas pistas sobre cómo surgió y evolucionó la vida.
Extremos climáticos como el mencionado habrían ejercido una presión muy fuerte sobre
los organismos para adaptarse y evolucionar más rápidamente. Con la aparición de
nuevas especies, éstas tuvieron que buscar nuevos hábitats, lo que fomentó la explosión
del Cámbrico, cuando el planeta volvió a mostrarse cálido y confortable para la vida.
950
El Hijo de El Cronopio No. 83
El período del Proterozoico tardío contempló la formación de los supercontinentes
Rodinia y Pannotia, que después se desmembraron. Situados sobre el polo sur, en la
posición de la actual Antártida, dichos supercontinentes estaban hechos de las masas de
tierra que hoy denominamos África, Sudamérica, Antártida, Australia, Groenlandia,
Laurentia y partes de Asia. Este alto grado de continentalidad polar, dejando libre el
ecuador no helado, propició la supervivencia de las especies de vida más evolucionada.
Información adicional en: http://www.newsandevents.utoronto.ca/bin/000524b.asp
Radar y sonido contra las minas
La tecnología para la búsqueda y desactivación de minas explosivas sigue avanzando a
pasos agigantados.
Siempre serán pocos los esfuerzos encaminados a localizar los miles de minas que se
ocultan bajo las zonas que han sido escenarios de cruentas guerras y que ahora, quizás
después de varios años, aún siguen amenazando a la población con su poder destructor.
Si bien las tareas de búsqueda no cesan, los equipos de expertos artificieros no pueden
avanzar tan rápido como quisieran, de modo que se hace necesario aplicar toda la
tecnología posible para acelerar el proceso.
Investigadores del Georgia Institute of Technology han desarrollado un nuevo método de
detección que combina diferentes sistemas de localización.
Las más de 100.000 minas enterradas a lo largo del mundo causan unas 26.000 muertes y
personas heridas cada año. Los detectores actuales no funciona bien bajo determinadas
condiciones, y tienen particulares dificultades en localizar las pequeñas minas
antipersonales que han sido fabricadas casi en su totalidad en plástico.
Para solucionar estos problemas, los ingenieros del GIT utilizan un transductor que
genera ondas sísmicas que viajan a través del suelo minado. Estas ondas elásticas hacen
que el suelo y todo lo enterrado en él de desplace ligeramente. Este pequeño movimiento
en la superficie, menos de un micrómetro, puede ser detectado mediante ondas
electromagnéticas como las de un sistema de radar.
Las propiedades de la mina son muy diferentes a las del suelo que la rodea, por eso el
desplazamiento a su alrededor es también distinto. Las ondas interaccionan muy fuerte
con ella.
La técnica permite también diferenciar entre las minas y otros objetos enterrados, como
rocas o palos, a causa de las diferentes propiedades mecánicas que ostentan.
Se han hecho ya pruebas experimentales en fosos llenos de arena, y se ha demostrado
que el sistema puede detectar siete tipos de minas enterradas, desde una mina
antipersonal a una mina antitanque, que suelen estar a mayor profundidad.
El radar, además, puede ser empleado sobre zonas cubiertas de vegetación o niebla. Su
aplicación práctica, sin embargo, no será inmediata. Aún deben hacerse más pruebas con
una gran variedad de suelos y condiciones medioambientales distintos. También habrá
que acelerar el proceso de identificación, ya que ahora el radar debe hacer varias pasadas.
Se está hablando incluso de usar una nueva técnica ultrasónica.
Información adicional en: http://www.gtri.gatech.edu/res-news/MINES.html
http://www.gatech.edu/; http://www.ece.gatech.edu/
Imagen: http://www.gtri.gatech.edu/res-news/mine3_b.jpg
951
El Hijo de El Cronopio No. 83
(Waymond Scott y Christoph Schroeder ensayan su método de detección de minas.)
(Foto: Georgia Tech.)
Mercurio desconocido
Astrónomos americanos han obtenido nuevas imágenes tomadas desde la Tierra del
planeta más próximo al Sol.
Si algo caracteriza a Mercurio, el planeta más cercano a nuestra estrella, es su relativo
escaso tamaño y su semejanza externa a nuestra Luna. Sin embargo, esta información,
muy incompleta, procede de una sola misión interplanetaria realizada hace más de 25
años. Desde que la sonda Mariner-10 sobrevolara su superficie, fotografiándola,
Mercurio se ha mantenido tan misterioso como siempre, debido sobre todo a las
dificultades que presenta su observación desde la Tierra.
La tecnología, por fortuna, ha avanzado mucho, y ya es posible intentar fotografiar la
superficie de este planeta con un cierto detalle, a pesar de que el brillo del Sol dificulta
en gran media las observaciones.
Han sido astrónomos de la Boston University quienes acaban de presentar nuevas
imágenes de Mercurio, tomadas el 29 de agosto de 1998, las cuales muestran zonas que
jamás habíamos tenido la oportunidad de ver (la Mariner-10 sólo fotografió un
fragmento del planeta).
Las citadas nuevas imágenes demuestran que Mercurio posee cráteres brillantes y mares
oscuros semejantes a los de la Luna. Para obtenerlas, se usó una cámara digital instalada
en el observatorio del Monte Wilson, en California.
Las sesiones de fotografía se realizaron poco después del amanecer, antes de que el Sol
empiece a calentar la atmósfera y se produzcan excesivas turbulencias que puedan
distorsionar las imágenes.
Las exposiciones, además, fueron muy cortas, de 1/60 de segundo, durante un período de
90 minutos. Se obtuvieron así 340.000 fotografías, seleccionándose 30 ó 60 de entre las
mejores. Después, mediante ordenador, se las unió para crear un exposición de duración
suficiente (0,5 a 1 segundo), lo que aportó el detalle deseado de la superficie de
Mercurio.
La selección de las imágenes primarias entre tantas otras obligó a usar técnicas de
computación que identifican automáticamente aquellas que fueron tomadas durante las
mejores condiciones de visibilidad.
El equipo de astrónomos desea realizar otra campaña este otoño, durante la cual se
tratará de fotografiar incluso la débil atmósfera del planeta. Dicha atmósfera se produce
debido a la expulsión de átomos procedentes de su superficie, un proceso que también
ocurre en la Luna. El sodio es uno de los elementos que se desea detectar en primer
lugar, aunque para ello se requerirá construir un detector más sensible.
Información adicional en:
http://www.bu.edu/csp/imaging_science/planetary/mercury/baumgardner.html
Imagen:
http://www.bu.edu/csp/imaging_science/planetary/mercury/baumgardner.fig3.gif
(La combinación de varias imágenes nos proporciona el detalle requerido.) (Foto:
Baumgardner/Boston University)
952
El Hijo de El Cronopio No. 83
Astrovirtual
Los archivos astronómicos acumulados con el paso del tiempo pasan estar a disposición
de la comunidad científica de una forma ordenada y universal.
Los archivos de datos astronómicos acumulados hasta la fecha podrían ser comparados
con verdaderas minas de oro de información. El proyecto ASTROVIRTEL tiene la
intención de explotar este potencial permitiendo que los científicos tengan acceso a él
como si los archivos fuesen telescopios virtuales.
La competición por conseguir tiempo de observación de grandes telescopios como el
Hubble o el Very Large Telescope, del ESO, es muy intensa. De media, menos de una
cuarta parte de las solicitudes lo consiguen.
El científico afortunado que obtiene tiempo de observación disfrutará después de un
período de un año durante el cual podrá estudiar y utilizar los datos obtenidos de forma
exclusiva. Una vez transcurrido éste deberá ponerlos a disposición de sus colegas.
Teniendo en cuenta que buena parte de esta información retiene su valor mucho después
de su primer aniversario, se hace necesario organizar de algún modo la gran cantidad de
datos acumulados durante décadas.
Este es el caso de la valiosa información almacenada en los archivos del European
Southern Observatory (ESO) y de la Space Telescope-European Coordinating Facility
(ST-ECF). Muchos astrónomos saben que algunas observaciones pueden ser útiles en
otros campos distintos a los que inicialmente se consideraron, de manera que se requiere
un esfuerzo para mantenerlas disponibles en todo momento, ya que evitarán la repetición
y duplicación de esfuerzos.
El proyecto ASTROVIRTEL (Accessing Astronomical Archives as Virtual Telescopes)
está apoyado por la Comunidad Europea y se ha convertido en el primer telescopio
astronómico virtual de carácter profesional. Por ahora se encuentra en el ESO/Space
Telescope-European Coordinating Facility Archive, en Garching, Alemania, y contiene
datos obtenidos por el Hubble Space Telescope (HST), el Very Large Telescope (VLT),
el New Technology Telescope (NTT), y el Wide Field Imager (WFI), así como por otros
relacionados, como el archivo del Infrared Space Observatory (ISO).
Los científicos interesados en usar esta información sólo tienen que visitar las
instalaciones y utilizar las herramientas de software que estarán disponibles para explorar
sus contenidos. Para los astrónomos, será como si accedieran a un nuevo observatorio, en
el que, en vez de solicitar tiempo de observación, obtendrán directamente lo que buscan a
partir de los archivos acumulados durante años. Dicho archivo llegará a tener más de 100
terabytes de datos disponibles (100.000.000.000.000 bytes) en el plazo de los próximos
cuatro años.
Información adicional en: http://www.stecf.org/astrovirtel
http://www.eso.org/outreach/press-rel/pr-2000/pr-09-00.html
Imagen: http://www.eso.org/outreach/press-rel/pr-2000/astrovirtel-logo.jpg
(El logo de Astrovirtel.) (Foto: Astrovirtel)
953
Boletín
El Hijo de El Cronopio
Facultad de Ciencias
Universidad Autónoma de San Luis Potosí
No.84, 10 de julio de 2000
Boletín de información científica y
tecnológica de la Facultad de Ciencias
Publicación semanal
Edición y textos
Fís. José Refugio Martínez Mendoza
Parte de las notas de la sección Noticias de la
Ciencia y la Tecnología han sido editadas por
los españoles Manuel Montes y Jorge
Munnshe. La sección es un servicio de
recopilación de noticias e informaciones
científicas, proporcionadas por los servicios de
prensa de universidades, centros de investigación
y otras publicaciones especializadas.
Cualquier información, artículo o anuncio deberá
enviarse al editor. El contenido será su
responsabilidad.
e-mail: flash@galia.fc.uaslp.mx
Números anteriores del boletín, pueden
consultarse por Internet en la página de la
UASLP:
http://phobos.dtc.uaslp.mx/publi.html
A los lectores:
Les recordamos, que durante el
periodo del 3 de julio al 14 de
agosto, el Boletín contendrá
solamente la sección
Noticias de la Ciencia y la
Tecnología.
A partir del 21 de agosto aparecerá
en su edición completa,
conteniendo sus secciones:
La Ciencia desde el Macuiltépetl
El Cabuche/Crónicas de la
Facultad de Ciencias
El Garambullo (Los polvos de
esos caminos)
El Xoconoztle (personajes
potosinos)
El 24 y 31 de julio no aparecerá el
Boletín.
El Hijo de El Cronopio No. 84
Noticias de la Ciencia y la Tecnología
Sensor submarino
Un nuevo sensor ayudará a analizar los gases expulsados por las chimeneas volcánicas
del fondo de los océanos.
Investigadores de la University of Delaware y de la empresa Analytical Instrument
Systems han desarrollado un analizador electroquímico que es capaz de detectar e
identificar los productos químicos que emanan de las chimeneas super-calientes que se
encuentran en el fondo de los océanos, a más de 1,5 km de profundidad.
El analizador ha sido montado en el submarino Alvin, de manera que cuando éste es
"aparcado" en las cercanías de una de estas chimeneas, puede ser usado para medir las
concentraciones de gases sulfurosos que proceden de la corteza terrestre.
Se trata de gases tóxicos para nosotros, pero que algunos microorganismos utilizan como
hábitat. Los biólogos están muy interesados en saber más de las características
medioambientales de estos lugares, ya que la vida presente en ellos puede ser beneficiosa
para el Hombre.
Desde luego, es la primera vez que un sistema de esta naturaleza es operado a tales
profundidades y presiones. Hasta la fecha, se ha probado incluso a 2.500 metros de la
superficie, bajo presiones de hasta 200 atmósferas. El analizador ha funcionado bien en
un amplio rango de temperaturas, desde la práctica congelación hasta los más de 100
grados Celsius presentes en la boca de las chimeneas volcánicas.
El submarino Alvin posee brazos articulados. En uno de ellos está situado el analizador,
de manera que es posible su colocación en el punto más apropiado para realizar las
mediciones. Estas permiten detectar varios componentes químicos de forma simultánea.
En uno de los últimos viajes de exploración, el aparato confirmó que la detección de dos
compuestos particulares (H2S y FeS), puede ser un factor importante a la hora de delatar
la presencia de vida microscópica. Ambos compuestos reaccionan para formar pirita
mineral y gas hidrógeno. Este último proporciona la energía que los microbios necesitan
para crecer.
Información adicional en: http://www.udel.edu/PR/experts/sniff.html
Imagen: http://www.ocean.udel.edu/newscenter/hiwand.jpg
(El submarino con su brazo robótico, bajo el agua.) (Foto: U. of Delaware)
El estado de la niña
La corriente que llamamos La Niña continúa dominando el océano Pacífico. Según
puede apreciarse en las últimas imágenes transmitidas por el satélite TOPEX/Poseidon,
el patrón oceánico llamado La Niña continúa comportándose en la zona del Pacífico de
una forma muy similar al año pasado.
El satélite ha informado sobre una altura de la superficie marítima inferior a lo normal, lo
que indica temperaturas más frías en las costas del continente Americano y ahora
también en la zona tropical. En contraste, se pueden ver alturas superiores a lo normal en
el Pacífico occidental.
El agua más fría detectada tiene una altura entre 8 y 24 centímetros menor a la media.
Por su parte, el agua más caliente se encuentra entre 8 y 24 centímetros por encima.
955
El Hijo de El Cronopio No. 84
El seguimiento del nivel del mar es esencial para comprender cómo afectarán las actuales
condiciones oceánicas en el Pacífico durante la primavera y el verano a zonas como la
mitad sur de los Estados Unidos, que seguramente sufrirán un período de sequía más
prolongado. En el noroeste del Pacífico, en cambio, las lluvias serán más intensas.
Los científicos siguen debatiendo si existe o no una Oscilación del Pacífico cuyo patrón
de repetición sería de unos 10 años. Este patrón a largo plazo, influyendo sobre la mayor
parte del océano Pacífico, tendría importantes implicaciones en el clima global, y en
especial para Norteamérica.
Información adicional en: http://www.cpc.ncep.noaa.gov/
http://www.jpl.nasa.gov/elnino/20000118.html; http://topex-www.jpl.nasa.gov/
http://www.jpl.nasa.gov/elnino/
Imagen: http://www.jpl.nasa.gov/files/images/browse/p50700.gif
(El océano Pacífico, visto desde el satélite TOPEX/Poseidon, y la corriente de La Niña.)
(Foto: JPL)
El ojo deslumbrante
La nebulosa planetaria NGC 6751 es un astro realmente inusual.
Brillando como un ojo gigante en la constelación del Águila, la nebulosa planetaria NGC
6751, fotografiada por el telescopio Hubble, es una nube de gas expulsado hace varios
miles de años por una estrella caliente visible en su centro.
La calificación de "nebulosa planetaria" induce a confusión, ya que estas estructuras
estelares no tienen nada que ver con planetas. El término sólo se refiere a las formas
redondeadas que poseen, aunque las haya de diversos tipos. Se trata de las capas
exteriores de gas de las estrellas que han llegado al final de sus días, expulsadas debido a
violentas explosiones. La pérdida de estas capas deja expuesto al espacio el núcleo de la
estrella, cuyas fuertes emisiones en el ultravioleta hace que el gas en expansión brille
como un fluorescente. Dentro de 6.000 millones de años, nuestro Sol pondrá en marcha
el mecanismo que lo dotará de su propia nebulosa planetaria.
Las imágenes de NGC 6751 son especialmente bellas. Fueron tomadas en 1998 por la
Wide Field Planetary Camera 2 (WFPC2) y muestran diversas formas que no
entendemos demasiado bien. Las regiones más azules corresponden al gas más caliente,
el cual forma un anillo más o menos circular alrededor de la estrella. El naranja y el rojo
muestran la posición del gas más frío, el cual tiende a formar estructuras menos
uniformes. El origen de este tipo de gases es incierto pero parece que son afectados por
el viento estelar procedente de la estrella. La temperatura de ésta en su superficie se
estima en unos 140.000 grados Celsius.
La nebulosa se expande a una velocidad de unos 40 km/s, de manera que las
observaciones previstas para el año 2001 deberían mostrar cambios en su forma general.
Estas medidas permitirán calcular con precisión la distancia que nos separa de NGC
6751, aunque ya suponemos que se encuentra a unos 6.500 años luz de la Tierra. El
diámetro de la nebulosa es de unos 0,8 años luz, unas 600 veces el de nuestro propio
sistema planetario.
Información adicional en: http://heritage.stsci.edu; http://oposite.stsci.edu/pubinfo/pr/2000/12
Imagen: http://oposite.stsci.edu/pubinfo/pr/2000/12/content/0012w.jpg
(La nebulosa planetaria NGC 6751.) (Foto: NASA, The Hubble Heritage Team,
STScI/AURA)
956
El Hijo de El Cronopio No. 84
Medidor de nivel computarizado
Conocer cuánto combustible resta en un tanque cerrado será más sencillo a partir de
ahora.
Ingenieros de la Penn State University han desarrollado un procedimiento de visión por
ordenador que sirve para medir con mayor precisión y claridad los contenidos de un
depósito de combustible.
Los actuales medidores dependen de un sensor dotado con piezas por las que circula un
bajo voltaje y que están en contacto con el combustible. Se sospecha que este tipo de
dispositivos pueden haber contribuido a hacer posibles dramáticas explosiones a bordo
de aviones en vuelo.
Srivatsan Chakravarthy es el responsable principal del nuevo método, que no necesita de
nada en interior del depósito excepto el propio combustible. Dos pequeñas ventanas de
cristal transparente situadas en la cima del depósito proporcionan todo el acceso
necesario para determinar la profundidad del líquido en su interior. Una de las ventanas
posibilita que una fuente de luz emita flashes sobre dos líneas cruzadas sobre la
superficie del líquido, mientras que la otra permite a una cámara unida a un ordenador
grabar la posición de las líneas.
El trabajo verdadero lo hace un programa de procesamiento de imágenes, el cual ha sido
"entrenado" durante el proceso de calibración que implica el llenado gradual de los
tanques y el consecuente cambio de posición de las líneas cruzadas. La correspondencia
entre las diferentes profundidades en la imagen tridimensional actual y la imagen
bidimensional grabada por la cámara es establecida mediante un proceso llamado "digital
mapping". El ordenador puede entonces calcular el cambio de profundidad del líquido
cuando cualquiera de las unidades (o píxels) de la imagen proporcionada por la cámara
(de las líneas) se ve modificada.
Los problemas matemáticos envueltos en determinar la profundidad en un espacio
tridimensional a partir de una imagen bidimensional producida por una cámara forman
parte de casi todas las aplicaciones de visión por ordenador. Es el caso de un robot
equipado con una sola cámara que debe desplazarse en un mundo tridimensional. El
método más simple para obtener las soluciones buscadas es la triangulación.
El sistema será instalado en los futuros aviones, automóviles y otro tipo de vehículos y
máquinas que necesitan maximizar la seguridad en su funcionamiento.
Información adicional en:
http://www.engr.psu.edu/news/News/2000%20Press%20Releases/April/gauge.html
El cerebro continua creciendo tras la pubertad
En contra de lo que se pensaba hasta ahora, el cerebro se desarrolla incluso después de
sobrepasada la etapa inicial de madurez.
Un estudio sencillo sobre las pautas de crecimiento de varios cerebros de rata ha añadido
peso a la idea de que este órgano sigue evolucionando después de que se llega a la etapa
adulta. Aunque su tamaño general puede no cambiar, la composición de ciertas fibras
nerviosas en un área clave sí lo hace.
Los científicos de la University of Illinois han examinado la porción posterior del
llamado corpus callosum de una rata, una masa que conecta los dos hemisferios del
cerebro, y lo han hecho durante diferentes momentos de su desarrollo, a 60, 120 y 180
957
El Hijo de El Cronopio No. 84
días de edad. A partir de los 40 días, momento en que una rata alcanza la pubertad, los
especialistas han visto que los axones (las fibras nerviosas) continúan siendo recubiertos
por la materia blanca (mielina) que los aísla, aumentando al mismo tiempo la velocidad
de transmisión de los impulsos entre las neuronas. De forma simultánea, el número de
axones no recubiertos decrece.
Esta es la primera demostración de que un proceso claro de evolución del cerebro sigue
hasta los 180 días y quizá más. Por tanto, el corpus callosum cambia su tamaño a edades
más tardías de lo que se creía.
Dado que 120 días de edad en una rata equivale a unos 25 años en un ser humano, es de
esperar que para nosotros la pubertad tampoco sea el punto final para el crecimiento del
cerebro. El proceso antes mencionado puede suponer un incremento en la cantidad de
información visual transferida entre ambos hemisferios. Al contrario, una falta o la
pérdida de mielina provoca enfermedades como la esclerosis múltiple y otros desórdenes
metabólicos e inflamatorios.
Información adicional en: http://www.admin.uiuc.edu/NB/00.04/braintip.html
Las expresiones faciales son contagiosas
Incluso a nivel de subconsciente, una sonrisa o una mueca de enfado en otra persona
pueden verse reflejadas de inmediato en nuestro propio rostro.
Cuando alguien nos sonríe, es fácil que nos sintamos inclinados a corresponder de igual
forma. Por el contrario, si nuestro interlocutor nos mira ceñudo, nuestra respuesta será
seguramente otra mueca no mucho más agradable. Parece como si las expresiones
faciales fueran contagiosas, incluso a un nivel involuntario.
Sin embargo, que nuestra reacción sea puro mimetismo o el verdadero reflejo de un
sentimiento, aún es demasiado pronto para decirlo. Ulf Dimberg, de la Uppsala
University, ha investigado este asunto y ha presentado recientemente sus conclusiones.
Darwin decía que las expresiones faciales de emoción tenían una base biológica, siendo
controladas por una especie de "programas" específicos. Investigaciones con primates
muestran que las reacciones emocionales se desencadenan gracias a la actuación de
neuronas concretas que responden selectivamente a un estímulo facial. Por ejemplo, un
encuentro con otro simio en actitud facial agresiva desencadena a la vez una respuesta
concreta y precisa de forma natural.
Si las expresiones faciales humanas son generadas por programas proporcionados de
forma biológica, podría esperarse que tales programas operasen automáticamente,
activando diversas reacciones musculares en el rostro de forma espontánea e
independientemente de cualquier proceso consciente.
Para comprobar esto, Dimberg midió la actividad muscular facial de 120 estudiantes
voluntarios, en especial de aquellos músculos que intervienen en la sonrisa y en el
movimiento de las cejas, durante sesiones en las que los sujetos eran sometidos a la
visión de fotografías con caras alegres y enfadadas. La exposición de estas fotografías
era muy breve, apenas 39 milisegundos, de manera que los estudiantes no llegaban a ser
conscientes de lo que estaban viendo.
El estudio muestra que sí es posible evocar patrones faciales negativos o positivos sin
que el individuo sea consciente del estímulo que los provoca. Parece pues que las
reacciones faciales iniciales son controladas por "programas" de intervención rápida y
actuación independiente del proceso cognitivo.
958
El Hijo de El Cronopio No. 84
Esto apoya la teoría de que importantes aspectos de la comunicación emocional cara a
cara pueden ocurrir a un nivel de subconsciente. Es posible que la respuesta muscular
automática e inconsciente frente a otras expresiones sea sólo el primer paso de una
reacción en cadena, y que esta respuesta sea después seguida por las acciones
conscientes.
El mecanismo podría tener sus raíces en el pasado remoto, cuando el hombre primitivo
respondía por instinto a un rostro amenazador con otra expresión del mismo tipo, en
parte como mecanismo de defensa, para después dejar paso al raciocinio y a la decisión
definitiva consciente (huir o afrontar el peligro con un ataque).
Posible agujero negro oculto
El nuevo telescopio espacial Chandra descubre un posible agujero negro que hasta ahora
había pasado desapercibido.
La capacidad del telescopio espacial Chandra de observar procesos invisibles para otros
instrumentos radica en su potencia y sensibilidad en la gama de los rayos-X.
En septiembre de 1999, el Chandra observó una galaxia situada a 2.500 millones de años
luz de la Tierra, durante la fase de calibración de su instrumental. Bajo telescopios
ópticos, la galaxia aparece totalmente normal; en cambio, el Chandra halló en ella una
fuente de rayos-X inusualmente poderosa.
La citada fuente se encuentra en el corazón galáctico y podría ser un claro ejemplo de
agujero negro oculto. Hasta ahora, los astrónomos creían que buena parte de las galaxias
poseen un agujero negro central, pero dado que muchas no muestran en el rango óptico
señales claras de actividad, no era posible afirmar que el fenómeno esté presente en todas
ellas.
El hallazgo del Chandra, sin embargo, sugiere que puede haber galaxias cuyo agujero
negro central no será aparente si no es mediante la utilización de instrumentos que
abarquen otras longitudes de onda, como los rayos-X, y que por tanto el censo realizado
por los astrónomos está incompleto.
La imagen óptica de la galaxia se ha superpuesto a la obtenida con el Advanced Charged
Coupled Imaging Spectrometer (ACIS) del Chandra, un instrumento muy sofisticado, lo
cual nos da una idea precisa de la posición y del aspecto puntual de la fuente de rayos-X,
llamada CXOUJ031238.9-765134.
Información adicional en: http://science.msfc.nasa.gov/headlines/y2000/ast21mar_1m.htm
Imagen:
http://www1.msfc.nasa.gov/NEWSROOM/news/photos/2000/2000images/0312_xray_o
pt_lg.gif
(La doble imagen óptica y en rayos-X de la galaxia.) (Foto: NASA/CXC/SAO/ESO/La
Silla)
Lo que los químicos pueden aprender del pasado
Aunque la medicina moderna ha desarrollado medicamentos eficientes para muchas
enfermedades, algunas de ellas ya fueron tratadas de forma eficaz en el pasado, mediante
simples métodos naturales. Si le preguntamos a un médico sobre si la medicina actual
tiene algo que aprender del pasado, seguramente nos dirá que no. Pero un científico de la
North Carolina State University opina todo lo contrario.
959
El Hijo de El Cronopio No. 84
El doctor John Riddle es profesor de historia en dicha universidad y un experto en el uso
histórico de medicinas derivadas de las plantas. Riddle cree firmemente que algunas
enfermedades eran tratadas de forma eficaz en la antigüedad a través de medios naturales
y que la medicina haría bien en aprender algo de ellos, ya que proporcionarían a los
médicos formas alternativas para combatirlas, sobre todo teniendo en cuenta la
intolerancia química de algunos pacientes frente a ciertos medicamentos o sus efectos
secundarios.
Hay diversos casos que apoyan esta propuesta. En Estados Unidos son bastante
populares los suplementos de hierbas medicinales, como la de St. John, que se emplea
para tratar la depresión sin que seamos realmente conscientes de su verdadero potencial.
Riddle ha estudiado su uso en la historia y ha encontrado que fue utilizada por primera
vez en el año 800 de nuestra era como antiséptico para tratar heridas y para los
problemas de vejiga. En algunos casos produjo nacimientos prematuros. Nada de ello
aparece en la literatura moderna sobre esta hierba antes de 1998, momento a partir del
cual los fabricantes empezaron a advertir sobre su no consumo por parte de mujeres
embarazadas.
Riddle cree que hay muchas otras hierbas medicinales cuyos efectos eran bien conocidos
por los antiguos y que ahora no son utilizadas en función de este conocimiento, en parte
porque dicha información se ha perdido o no se encuentra disponible.
La medicina debería estudiarlas porque su potencial ya quedó demostrado con
anterioridad y porque podrían proporcionar a los químicos farmacéuticos pistas
importantes sobre usos alternativos y efectos secundarios ya olvidados. Por ahora,
ningún químico ha empezado a estudiar la historia de un determinado componente con
esta intención.
El descubrimiento retrospectivo puede ser una herramienta útil porque aunque los nuevos
medicamentos son probados para demostrar su seguridad a corto plazo, los que contienen
productos químicos presentes en hierbas medicinales podrían disfrutar de pronto de un
bagaje experimental sin precedentes. Se podrían poner de manifiesto al mismo tiempo
diversos usos aún no determinados.
Esto queda claramente patente en un caso muy particular. Un producto llamado
Finasteride empezó a ser vendido bajo el nombre de Proscar para tratar problemas de
próstata en hombres de edad avanzada. Cuando la compañía fabricante, Merck, descubrió
que también propiciaba el crecimiento del cabello, disminuyó la dosis y empezó a
venderlo bajo el nombre de Propecia. Lo curioso es que el producto químico está
presente en diversas plantas, como la ortiga, y que los antiguos lo utilizaban para tratar
sus problemas urinarios y también para promover el crecimiento capilar. Si Merck
hubiera conocido la historia de la aplicación de la sustancia, hubiera sabido mucho antes
que tenía usos alternativos al que había previsto inicialmente.
El principal problema es que la comunidad académica desdeña en general el
conocimiento popular como fuente de información fiable, algo que no ocurre, por
ejemplo, con las culturas china e islámica.
Sin duda, la medicina antigua debía enfrentarse a muchas de las aflicciones modernas,
aunque no disponía del conocimiento del cuerpo humano actual, ni mucho menos de los
medios de investigación necesarios. A pesar de todo, textos del Próximo Oriente, de
Grecia, Roma y de las regiones occidentales durante la Edad Media describen el
tratamiento de la arterioesclerosis, la alopecia, la artritis, el cáncer, la depresión mental,
960
El Hijo de El Cronopio No. 84
etc. También se ejercía un control de la natalidad mediante el uso de contraceptivos y el
aborto provocado, por un lado, y de productos para mejorar la fertilidad, por otro. Una
buena parte de todas estas cuestiones están relacionadas con el sistema endocrino,
concepto médico que desconocían por completo los antiguos. A pesar de todo, los
papiros de Ebers y Kahun, del antiguo Egipto, escrituras griegas atribuidas a Hipócrates,
y otros tratados médicos posteriores, contienen sustancias empíricas administradas y que
nosotros hemos redescubierto recientemente como agentes efectivos. La moderna
bioquímica puede explicar ahora sus mecanismos de acción, pero sus efectos se conocían
mucho antes.
Información adicional en:
http://www2.ncsu.edu/ncsu/univ_relations/news_services/press_releases/00_03/70.htm
Imagen: http://www2.ncsu.edu/ncsu/univ_relations/news_services/press_releases/00_03/riddle.jpg
(John Riddle.) (Foto: NC State University)
Minisatélites hechos por estudiantes
Varios alumnos de ingeniería en un curso del MIT se muestran muy interesados en el
vuelo en formación, y desean trasladar este interés al espacio.
El proyecto espacial SPHERES (Synchronized Position Hold Engage Re-orient
Experimental Satellites) tiene una particularidad que lo hace poco habitual: está siendo
llevado a cabo por estudiantes.
Los protagonistas son trece alumnos, los cuales están asistiendo a un curso especial en el
Massachusetts Institute of Technology. Su objetivo es conseguir un diseño para un
telescopio de mayor resolución que el actual Hubble, pero para que ello se haga realidad,
antes deben demostrar un concepto innovador.
El proyecto SPHERES consiste en el desarrollo y ensayo de tres satélites con el tamaño
de una pelota de voleibol. Su objetivo será probar una serie de tecnologías que hagan
posible el vuelo en formación en el espacio. La idea principal es demostrar que, en vez
de lanzar un gran satélite como el Hubble, es posible hacer lo propio con varios mucho
más pequeños, los cuales, evolucionando en formación y actuando al unísono, puedan
obtener el mismo o superior provecho científico.
Dos de los minisatélites, que son capaces de comunicarse entre sí y con un ordenador,
fueron ensayados recientemente a bordo de un avión KC-135 de la NASA. Dicho avión
realiza una serie de parábolas que proporcionan unos segundos de ingravidez a sus
ocupantes. En febrero, los estudiantes del MIT probaron dos SPHERES a un tiempo en
el interior del KC-135, registrando importante información sobre su funcionamiento.
Para crear un telescopio de mayor resolución que el Hubble, se lanzarían al espacio
varios minisatélites individuales, mucho más económicos y sencillos, cada uno de ellos
dotado de un espejo propio. Las imágenes conjuntas obtenidas mediante interferometría
serían mejores que las del famoso telescopio espacial, pero ello sólo sería posible si las
posiciones de los minisatélites entre sí pudiesen ser determinadas con extrema precisión.
El proyecto SPHERES servirá para validar las tecnologías necesarias para que esto sea
viable.
El proyecto SPHERES también es una herramienta educativa, ya que proporciona
experiencia a los estudiantes sobre cómo trabajar en la industria aeroespacial. Los
minisatélites que produzcan serán usados en el espacio a bordo del Space Shuttle y la
estación internacional ISS, de manera que los científicos podrán ensayar los diferentes
961
El Hijo de El Cronopio No. 84
parámetros relacionados con el vuelo en formación. Realizar pruebas con los satélites en
el interior de las astronaves tiene sus ventajas, ya que no deberán ser diseñados para
soportar los rigores del vacío cósmico, con lo que serán más baratos.
Información adicional en: http://web.mit.edu/newsoffice/nr/2000/commsatellites.html
Imagen: http://web.mit.edu/newsoffice/nr/2000/newman2.jpg
(Pruebas en vuelos parabólicos.) (Foto: NASA)
Descubrimiento del nuevo asteroide "Catalonia"
El 25 de mayo pasado la Unión Astronómica Internacional nominó CATALONIA al
asteroide 13868 recién descubierto.
Desde ahora el nombre de Catalunya figurará para siempre en el espacio en la forma de
un asteroide. Se trata de un cuerpo rocoso de unos 9 km de diámetro, situado entre las
órbitas de los planetas Marte y Júpiter, que da una vuelta al Sol cada 4,09 años.
El asteroide fue descubierto por Joan Guarro Flo desde su observatorio de Piera
(Barcelona). Joan Guarro es miembro del Grup d'Estudis Astronòmics (G.E.A.), de la
Fundació Observatori Esteve Duran (F.O.E.D.) y del Observatori Astronòmic de
Mallorca (O.A.M.).
Cuando un asteroide es catalogado definitivamente se le asigna un número de orden y
además su descubridor tiene la facultad de poderlo bautizar con un nombre. A propuesta
de Joan Guarro y de los miembros del G.E.A., se solicitó a la Unión Astronómica
Internacional que se le asignase el nombre de "Catalonia" al nuevo asteroide 13868.
Si bien hay asteroides con órbitas que se acercan peligrosamente a la Tierra, la mayor
parte de estos cuerpos, suelen desplazarse alrededor del Sol entre las órbitas de los
planetas Marte y Júpiter, en el conocido cinturón de asteroides. A principios de siglo
Comas Solá descubrió 11 asteroides desde Barcelona. En aquella época no existían los
medios actuales, pero mediante placas fotográficas acopladas a los telescopios y largos
tiempos de exposición llegaron a descubrirse muchos de los de mayor tamaño. 804
Hispania fue el nombre que se dio al primer asteroide descubierto por Comas Solá en el
año 1915, al que siguieron con posterioridad 925 Alfonsina en 1920 y 945 Barcelona en
1921. 925 Alfonsina fue denominado así en honor al rey Alfonso X el Sabio y
encubiertamente también a Alfonso XIII (las normas prohíben dar el nombre a
personajes políticos o militares hasta pasados 100 años de su fallecimiento), y el 945
Barcelona fue nominado en recuerdo de su ciudad natal. De los asteroides con
numeración definitiva descubiertos desde España hasta el presente, 14 lo han sido desde
Cataluña (12 desde la ciudad de Barcelona), 6 desde Mallorca, 3 desde Almería
(Observatorio Hispano-alemán de Calar Alto), 1 desde Madrid y 1 desde Canarias
(Observatorio europeo de La Palma).
Aunque la creciente contaminación lumínica dificulta en gran manera la detección de
estos cuerpos, hoy en día las cámaras digitales CCD y programas informáticos
específicos permiten detectar asteroides mucho menores, no únicamente en el cinturón
principal de asteroides sino mas allá de la órbita de Neptuno, en el conocido como
cinturón de Kuiper. Existe un gran interés en catalogar y conocer los movimientos de
estos pequeños planetoides, para descartar y prevenir a la Tierra de posibles colisiones,
estudiarlos a fondo pues están compuestos por el material primitivo del que se formó el
sistema solar, así como también para el caso de organizar futuras expediciones en busca
de recursos minerales. Una muestra del interés científico que despiertan los asteroides es
962
El Hijo de El Cronopio No. 84
la actual misión espacial NEAR (Near-Earth Asteroid Rendezvous), una nave de
exploración lanzada hacia el asteroide 433 Eros en 1996 con el objetivo de explorarlo
concienzudamente durante 3 años. Tras un fracasado intento a principios de 1999, el 14
de febrero del 2000 se situó en órbita de este pequeño cuerpo al que está estudiando
mediante seis tipos de experimentos distintos.
En España, el Observatorio Astronómico de Mallorca, pionero de la moderna astrometría
CCD de nuestro país, cuenta ya con 6 descubrimientos oficiales, el 9453 Mallorca, el
9900 Llull en 1997, denominado así en memoria de Ramon Llull con motivo del 700
aniversario de su obra "Tractatus Novus" de Astronomía, publicada en París en 1297, el
11350 Teresa, el 13424 Margalida y los 14097 y 14967 todavía sin nombre.
Debido a que muchos de esos pequeños planetoides pueden observarse una vez, perderse
y no recuperarse más, el Minor Planet Center, organismo dependiente de la Unión
Astronómica Internacional, que es el encargado de calcular, designar y catalogar esos
cuerpos, solamente confirma el descubrimiento y permite asignar un nombre propio al
asteroide cuando ha sido observado durante unas cuantas oposiciones, o períodos en los
que el astro pasa cercano a la Tierra. Por término medio se requieren de 4 a 6
oposiciones, lo que en ocasiones puede suponer que transcurran bastantes años hasta
conseguir numerar definitivamente un asteroide (catalogarlo oficialmente de forma
definitiva) detectado mucho tiempo atrás, pero eso permite ajustar y conocer con gran
precisión su órbita en el futuro.
1999 YZ8, como fue designado provisionalmente este nuevo asteroide, ha pasado a ser el
13868 Catalonia. A propuesta de su descubridor y de los miembros del GEA se solicitó
al comité de asignaciones de la Unión Astronómica Internacional que fuera inscrito como
"Catalonia", nombre latinizado de Catalunya, que también es la forma más utilizada
internacionalmente, en una clara intención de llenar el vacío histórico y geográfico que
dejó Comas Solá entre los asteroides 804 Hispania y 945 Barcelona. No obstante, otro de
los asteroides de Comas Solá ya fue bautizado como 1188 Gothlandia, alusión
mitológica a los orígenes de Catalunya.
Asteroides numerados descubiertos desde España
Hasta mayo del 2000, tan sólo 21 asteroides descubiertos en España han sido numerados
de forma definitiva (en realidad hay 4 más descubiertos por astrónomos alemanes e
ingleses desde los Observatorios internacionales de Calar Alto y de La Palma). El primer
asteroide descubierto en España lo fue en 1915 por parte de Comas Solá desde el
Observatorio Fabra de Barcelona. Desde entonces y hasta el descubrimiento de 13868
Catalonia, en los 85 años transcurridos sólo se habían descubierto otros 18, la mayoría
durante el primer tercio de siglo.
Con posterioridad también han sido catalogados definitivamente, los todavía sin nombre,
14097 y 14967, siendo de destacar que 7 de los 8 últimos asteroides descubiertos lo han
sido por parte de la red de observatorios del Grup d'Estudis Astronòmics, que en menos
de 3 años desde que inició este trabajo, se ha apuntado el 30% del total de asteroides
españoles catalogados hasta el presente.
963
El Hijo de El Cronopio No. 84
Historias unidas
El descubrimiento de varios moluscos fósiles en Alaska ha permitido enlazar las historias
del océano Ártico y el istmo de Panamá.
En ocasiones la casualidad rinde grandes servicios a la ciencia. Un investigador de la
National Science Foundation encontró dos moluscos fósiles en una colección de
California, y gracias a ello cree haber identificado también un punto de conexión entre la
historia del istmo de Panamá y la del océano Ártico.
Según Louie Marincovich, adscrito a la California Academy of Sciences, la aparición del
istmo provocó la inversión del flujo del agua que pasa por el estrecho de Bering. Este
empezó entonces a moverse hacia el norte, y no hacia el sur, afectando de este modo al
océano polar Ártico.
Los fósiles examinados habían sido localizados en Alaska en los años setenta pero
habían pasado desapercibidos hasta ahora. Los moluscos de su especie habían vivido
sólo en el Ártico y en el Atlántico norte, hasta que se abrió el estrecho de Bering.
Su descubrimiento en rocas de Alaska de hace unos 5,5 millones de años sugiere que el
estrecho se abrió aproximadamente en dicha época. Para poder ser encontrados en el sur
de la península, los moluscos tuvieron que migrar a través del estrecho.
Pero unos 2 millones de años después, hace 3,6 millones de años, moluscos instalados en
el Pacífico empezaron a migrar hacia el norte a través del estrecho de Bering, hacia el
Ártico y el Atlántico norte.
Esto implica una inversión del flujo del agua en esta época, un cambio que se cree fue
debido a la aparición del istmo de Panamá, después de muchos millones de años durante
los cuales un paso marítimo amplio separaba las dos Américas. La formación del istmo
tropical causó drásticos cambios en las corrientes oceánicas del hemisferio norte y creó
el flujo de la corriente del Golfo. Los modelos por ordenador ya habían predicho estas
circunstancias, pero hasta el estudio de los moluscos fósiles no se había podido datar con
precisión cuándo se habían producido tales cambios.
Información adicional en: ftp://204.144.241.6/pub/geology/28-551.pdf
http://www.nsf.gov/od/lpa/news/press/00/pr0041.htm
Imagen: http://www.nsf.gov/od/lpa/news/press/images/webastarte.jpg
(Los moluscos encontrados.) (Foto: Marincovich/CAS)
La gran estrella polar
Un nuevo instrumento de medida ha permitido caracterizar de forma más exacta las
propiedades físicas de la famosa estrella de los navegantes.
Ha sido necesario esperar a la aparición de un sistema altamente sofisticado para poder
otorgar a la Estrella Polar su verdadera grandeza. Grandeza física, puesto que la mítica la
posee ya desde hace mucho tiempo: situada en el extremo de la constelación de la Osa
Menor y en un punto que coincide aproximadamente con la prolongación del eje de
rotación de la Tierra, Polaris ha sido desde tiempos inmemoriales una de las guías más
importantes para los navegantes y exploradores. Su posición nos señala la ruta hacia el
norte, una referencia fundamental para poder orientarnos sobre la superficie terrestre.
Astronómicamente hablando, sin embargo, Polaris no era demasiado bien conocida.
Ahora, especialistas del United States Naval Observatory han empleado un nuevo tipo de
telescopio que nos ha permitido conocer más cosas de su interior. El Navy Prototype
964
El Hijo de El Cronopio No. 84
Optical Interferometer (NPOI) es en realidad un grupo de telescopios que al actuar de
forma simultánea y mediante técnicas interferométricas proporcionan un poder similar al
de un sistema único de 38 metros de diámetro, suficiente como para que seamos capaces
de medir el diámetro real de la estrella.
La principal conclusión es que Polaris tiene un tamaño 46 veces más grande que el de
nuestro Sol, una medición directa de su radio sin precedentes. La estrella se encuentra a
431 años luz de nosotros y es considerada como una variable Cefeida, un tipo de estrella
pulsante que cambia su brillo de una forma muy regular y periódica. Los astrónomos
saben que existe una relación entre la longitud de dicho período y la emisión total de luz
(luminosidad), y que también hay una relación entre el período y el radio de la estrella.
Con todo ello, las cefeidas pueden ser usadas como patrones para determinar distancias,
y ya que éstas son más brillantes o menos en función de su cambiante diámetro, resulta
de gran interés precisar este último al máximo.
Las observaciones del NPOI han permitido apreciar además que Polaris es una Cefeida
extraña. No toda su atmósfera se mueve en la misma dirección y al mismo tiempo
cuando varía su diámetro durante las pulsaciones.
El NPOI, situado en el Observatorio Lowell, tiene forma de "Y" y está formado por
varios telescopios de medio metro de diámetro. Combinando la luz que reciben, han
medido ya los radios de un centenar de estrellas. En el caso de la Polaris, las teorías
indicaban que su radio debía ser unas 38 veces mayor que el radio solar. Las diferencias
encontradas permitirán ajustar los parámetros que cataloguen a la estrella como un tipo
más concreto de pulsante Cefeida.
Información adicional: http://www.usno.navy.mil/pao/press/npoi0607.html
Imagen: http://www.usno.navy.mil/pao/press/figure2.gif
(La estrella Polar compara su diámetro relativo con el de otras, incluyendo nuestro Sol.)
(Foto: Dr. Tyler Nordgren/U.S. Naval Observatory)
No tan verdes como parecen
Los embalses para explotaciones hidroeléctricas pueden llegar a ser más perjudiciales
para la atmósfera que una central térmica de carbón.
Se menciona a menudo el uso de la energía hidroeléctrica como una buena opción para
reducir la contaminación de la atmósfera durante la fase de producción. El agua mueve
las turbinas de los generadores, sin que sea necesaria combustión alguna para producir
electricidad.
Sin embargo, las centrales hidroeléctricas no son tan limpias como podrían parecer. De
hecho, en términos de contribución al fenómeno del calentamiento global, los embalses
necesarios para su funcionamiento podrían ser aún más dañinos que una central térmica
movida por carbón u otros combustibles fósiles.
La razón es simple, y es que el grado de contribución al calentamiento global se mide en
función de la cantidad de gases invernadero lanzados a la atmósfera, siendo los embalses
unos grandes productores de tales gases. Así lo cree una comisión mundial que ha
investigado el problema con gran atención y que está formada por científicos, ingenieros
y ecologistas.
El protocolo de Kyoto firmado en 1997 distingue entre tecnologías "verdes" y aquellas
que no lo son. Algunos ingenieros han estado últimamente presionando para situar a los
embalses en la primera categoría, pero el reciente informe parece llevarles la contraria.
965
El Hijo de El Cronopio No. 84
Si sumamos el área cubierta por los embalses y pantanos de todo el mundo, ésta se
acercaría a una superficie cercana a la que ocupa un país como Francia. Las mediciones
indican que estas acumulaciones de agua emiten dióxido de carbono y metano en grandes
cantidades. Ello es debido a que el agua estancada provoca que la vegetación se degrade
y emita metano. El metano es un gas invernadero 20 veces más potente que el CO2 (el
dióxido de carbono surge del agua cuando existe oxígeno en ella), y un embalse produce
más gas de este tipo que el río que circulaba antes de su construcción.
La materia orgánica arrastrada al interior de los pantanos por la corriente que procede de
río arriba se acumula y produce metano en grandes cantidades. La cifra es superior a la
producida por los bosques locales cubiertos por las aguas durante la formación del
embalse. El problema es especialmente grave en los que se encuentran en los trópicos,
sobre todo en aquellos que tiene aguas poco profundas. Así ocurre, por ejemplo, en el de
Balbina (Brasil), con zonas de menos de 4 metros de profundidad. Este pantano genera
112 megavatios de electricidad pero también está produciendo 3 millones de toneladas
de carbono anuales durante sus primeros 20 años de vida. En el mismo período de
tiempo, una central de carbón de la misma capacidad produce 0,35 millones de toneladas
anuales.
Los estudios se han hecho de momento en apenas un puñado de embalses en cuatro
países, de manera que se supone que hay muchos más candidatos. Las emisiones, a pesar
de todo, son erráticas y pueden variar en un factor de 500 por unidad de electricidad.
Lo que sí resulta claro es que la hidroelectricidad contribuye al calentamiento de la
atmósfera y que su calificación como energía "verde" deberá ser seguramente revisada.
(New Scientist)
Super-visión
Los científicos no sólo trabajan para mejorar los defectos visuales de las personas, sino
también para aumentar aún más la agudeza de las que están perfectamente sanas.
Los astrónomos utilizan desde hace años una tecnología nueva que emplea sistemas
ópticos adaptables, los cuales se amoldan a las condiciones atmosféricas variables (como
las turbulencias) para mejorar la calidad de las observaciones.
El truco ha hecho milagros y ha permitido fotografiar objetos celestes muy débiles. La
aplicación de estas técnicas en personas con la vista sana podría suponer una mejora
sustancial, calificada a menudo como "super-visión".
Así, mientras las habituales gafas tratan de corregir ópticamente los defectos de la vista,
otro tipo de dispositivos servirán para superar la barrera de la normalidad para alcanzar
un grado superlativo.
Para conseguirlo será necesario avanzar en el uso de la óptica adaptable. Durante las
investigaciones, los expertos han dirigido un rayo de luz altamente enfocado hacia la
superficie del ojo de un sujeto voluntario. Un dispositivo mide entonces la luz reflejada
hacia el exterior, ofreciendo pistas sobre la topografía del ojo con un alto detalle, como
por ejemplo la existencia de imperfecciones o aberraciones que existan en la córnea o la
pupila.
El sistema detecta distorsiones visuales tan sutiles que los médicos no creían ni que
existieran. En la actualidad los oftalmólogos se centran sobre todo en el astigmatismo y
966
El Hijo de El Cronopio No. 84
en la falta de enfoque, mientras que el nuevo sistema puede medir hasta 65 aberraciones
distintas.
Las mediciones son enviadas luego hacia un espejo "deformable", un espejo que puede
adaptar su forma (en un margen de 1 a 2 micrómetros) de acuerdo con ellas y gracias a
37 minúsculos pistones movidos por un ordenador. Con este moldeo a medida, adaptado
al sistema óptico de cada persona, la luz resulta alterada de tal forma que equilibra las
distorsiones específicas y naturales del ojo. La corrección de las imperfecciones implica
una visión muy mejorada. Mirar a través de estos dispositivos de óptica adaptable
permitirá a algunas personas mejorar hasta seis veces la percepción del contraste. Todo
se aprecia más claro y vivo, no importa lo buena que fuera nuestra visión con
anterioridad. Los mejores resultados en cuanto a agudeza visual se obtienen en ambientes
de baja luminosidad, como cuando conducimos de noche. Un conductor, en tales
circunstancias, vería a un ciclista desde dos veces más distancia que antes.
Por ahora, sin embargo, el sistema de óptica adaptable es demasiado voluminoso para
llevarlo puesto como unas gafas. Se espera que algún día esto se resuelva y que cualquier
persona pueda disfrutar de la super-visión.
Información adicional en: http://www.rochester.edu
Infertilidad y conducción
Las personas que se pasan mucho tiempo al volante pueden estar expuestos a un
inesperado contratiempo. Expertos franceses creen haber confirmado la existencia de una
relación entre la infertilidad experimentada por algunos hombres y las largas horas que
dedican a la conducción de vehículos. Estudios anteriores indican que el número de
espermatozoides presentes en muestras proporcionadas por conductores profesionales es
más bajo de lo habitual. Las células presentan frecuentes anormalidades y a menudo las
parejas de los conductores tardan más tiempo en concebir. Para demostrar que todo ello
es debido a un aumento de la temperatura en el interior del escroto, donde se encuentra
los testículos, varios científicos establecidos en un centro de Toulouse han llevado a cabo
un experimento totalmente controlado. Nueve voluntarios sanos, vestidos con su
indumentaria habitual, fueron equipados con una serie de sensores, incluidos
termómetros diminutos adheridos a la piel del escroto y conectados a un sistema de
grabación fijado al cinturón. El aparato registraría la temperatura cada dos minutos. Los
voluntarios caminaron primero a lo largo de una ruta predeterminada y después
condujeron un automóvil durante 160 minutos sin emplear aire acondicionado. Un tercer
sensor midió la temperatura ambiental. El resultado indica que durante los 20 primeros
minutos de conducción, la temperatura media del escroto ascendió de 34,2 a 35,5 grados
centígrados. De los 20 a los 120 minutos, alcanzó los 36,2 grados y luego se estabilizó.
Una comparación de estas cifras con las obtenidas durante el período en que caminaron
normalmente mostró que la temperatura del escroto izquierdo se encontraba 1,7 grados
más arriba al conducir, por 2,3 grados el derecho. Según el doctor Roger Mieusset, este
incremento de las temperaturas durante la conducción puede ser una de las evidencias
más claras de que esta actividad afecta a la fertilidad en el hombre. A pesar de todo, aún
se necesitan más estudios para confirmar que un incremento temporal en la temperatura
del escroto basta para justificar la presencia de problemas en la formación de los
espermatozoides. Lo cual no obvia para suponer que los estilos de vida pueden influir
perfectamente en la fertilidad humana. Inf. adicional. en: http://www.eshre.com/home.asp
967
Boletín
El Hijo de El Cronopio
Facultad de Ciencias
Universidad Autónoma de San Luis Potosí
No.85, 17 de julio de 2000
CARTA
Boletín de información científica y
tecnológica de la Facultad de Ciencias
Publicación semanal
Edición y textos
Fís. José Refugio Martínez Mendoza
Parte de las notas de la sección Noticias de la
Ciencia y la Tecnología han sido editadas por
los españoles Manuel Montes y Jorge
Munnshe. La sección es un servicio de
recopilación de noticias e informaciones
científicas, proporcionadas por los servicios de
prensa de universidades, centros de investigación
y otras publicaciones especializadas.
Cualquier información, artículo o anuncio deberá
enviarse al editor. El contenido será su
responsabilidad.
e-mail: flash@galia.fc.uaslp.mx
Números anteriores del boletín, pueden
consultarse por Internet en la página de la
UASLP:
http://phobos.dtc.uaslp.mx/publi.html
Dear
flash@galia.fc.uaslp.mx,
This week's dramatic news on the sequencing of
the human genome has captured the interest of
scientists and non-scientists and has catapulted
researchers to a celebrity status normally
reserved for film stars and models. We at Nature
applaud the achievements of the Human Genome
Project and Celera Genomics and look forward
to the full publication of their research later in
the year, details of which are yet to be
announced.
In the meantime, Nature continues to report, and
publish, on all aspects of genomics. Our latest
issue contains a special news report on the
human genome sequence, covering the
immediate past, the present and the future of
human genome research. We give details on the
rapprochement between the private and public
efforts that allowed Monday's announcements to
be made; report on the reaction from key
political leaders and opinion formers; and
presage the task ahead--switching attention from
sequencing to "annotation" of the genome.
All this and more can be found on Nature's
Genome Gateway from today. The Genome
Gateway
(http://www.nature.com/genomics/)
provides the most up-to-date, comprehensive and
AUTHORITATIVE coverage of genomics.
Access to the Genome Gateway is free, allowing
you to stay abreast of science that will, according
to President Bill Clinton "have a real impact on
all our lives".
Richard Gallagher
Chief Biology Editor, Nature
El Hijo de El Cronopio No. 85
Noticias de la Ciencia y la Tecnología
Materia primordial
La lucha de los físicos por entender la materia y el origen del Universo no descansa. Los
avances teóricos tampoco cesan, pero son necesarios nuevos instrumentos que acerquen
las hipótesis al mundo real. Los científicos quieren utilizar estos instrumentos para crear
materia en un estado primigenio que creemos ya no existe de forma natural.
Las condiciones que reinaron durante el Big Bang, la gran explosión que pensamos dio
lugar al Universo, fueron tan extraordinarias que apenas sabemos cómo describirlas. De
hecho, cuando los físicos han activado su ficticia máquina del tiempo, no han podido
acceder aún al mismo inicio del estallido sino a lo que ocurrió unos escasos instantes
después.
Si queremos experimentar sobre dichas condiciones para comprenderlas mejor, no
tendremos más remedio que inventar modos de reproducirlas en el laboratorio. Es por
eso que los científicos están poniendo a punto nuevos instrumentos que prometen
revolucionar nuestro concepto del Universo y su origen.
La inquietud de nuestros investigadores ha permitido saber que los núcleos de los
átomos de la materia que ahora consideramos ordinaria se formaron unos tres minutos
después del Big Bang. En ese instante, las condiciones imperantes ya eran muy distintas
a las iniciales, ya que el Universo había perdido densidad y se había enfriado. Por eso,
para ver cómo era la materia antes de ese momento, se hace necesario intentar reproducir
su estado mediante sistemas que puedan proporcionar las densidades y energías que
dominaban la escena.
Los científicos del CERN europeo han conseguido prolongar ya nuestro conocimiento
gracias al programa Heavy Ion, que ha determinado cómo era el Universo a partir de
apenas 13 microsegundos después del Big Bang. La materia, en ese período previo a la
aparición de los núcleos de los átomos (neutrones y protones), se veía sometida a unas
condiciones en las que las partículas que conformarían a estos últimos (quarks y gluones)
no se encontraban confinadas sino que evolucionaban libremente en una especie de sopa
primordial o plasma.
Para conocer mejor las características de este plasma, el CERN prepara el Large Hadron
Collider. Fuera de Europa, el estadounidense Brookhaven National Laboratory compite
con el llamado Relativistic Heavy Ion Collider (RHIC), el cual ya ha empezado a
trabajar. El RHIC, a la sazón, está considerado como uno de los más importantes
experimentos que la ciencia moderna pretende llevar a cabo.
El objetivo de la máquina, por supuesto, es reproducir las condiciones adecuadas de
densidad y temperatura necesarias para obtener una muestra de plasma quark/gluón. Para
ello, se hacen chocar entre sí núcleos de átomos pesados (por ejemplo, oro) a velocidades
cercanas a la de la luz. Las colisiones nucleares de alta energía no hacen sino actuar
como un horno capaz de generar temperaturas y presiones cientos de miles de veces
mayores que las que existen en el centro de las estrellas. La meta del RHIC, pues, será
recrear las condiciones presentes en el Universo cuando éste tenía una edad de tan sólo 1
millonésima de segundo.
En el Universo actual, las partículas que llamamos quarks nunca se encuentran solas en
la materia ordinaria. Al contrario, siempre se hallan formando parejas o tríos, unidas
969
El Hijo de El Cronopio No. 85
entre sí por gluones. De esta forma, si queremos estudiar la sopa o plasma de
quarks/gluones que caracterizó al Universo primigenio, debemos utilizar aceleradores
que permitan colisionar núcleos pesados y obtener energías muy altas, suficientes para
garantizar la supervivencia individual de estas partículas. El RHIC produce colisiones 10
veces más poderosas que las obtenidas últimamente por el CERN. Se elimina así
incertidumbre que pudiera haber, produciendo señales indiscutibles de la deseada
presencia del plasma.
Las colisiones son estudiadas con cuatro de los más avanzados detectores para partículas
de alta energía diseñados hasta la fecha. Se llaman BRAHMS, PHENIX, PHOBOS y
STAR y han sido desarrollados por científicos pertenecientes a casi cien laboratorios y
universidades de todo el mundo.
Algunos expertos no dudan en calificar al RHIC como el "Hubble de la física nuclear",
refiriéndose a lo que ha supuesto el famoso telescopio espacial para al astronomía. El
acelerador revolucionará nuestra comprensión de la teoría de los quarks y los gluones,
llamada cromodinámica cuántica (QCD), de la cual desconocemos aún muchos detalles.
Las primeras colisiones en el RHIC se realizaron el 10 de junio y sus detectores han
empezado a producir espectaculares imágenes. El estudio de los resultados y la
divulgación de las conclusiones, sin embargo, aún tardarán un poco (principios de 2001).
Se espera entonces disponer de detallada información sobre la temperatura, energía,
densidad y entropía del plasma investigado, lo que a su vez ayudará a explicar los
orígenes de los protones, neutrones y otras partículas elementales, incluyendo por qué su
destino final ha sido formar la materia en el estado que la vemos hoy en día
(incluyéndonos a nosotros mismos).
El RHIC es en realidad dos aceleradores en uno. Se encuentra construido en un túnel
subterráneo de 3,84 km de circunferencia, y contiene dos anillos, cada uno equipado con
1.740 imanes superconductores. La aceleración independiente de dos "rayos" separados
es lo que proporciona su habilidad única de colisionar iones pesados con tan alta energía
de impacto.
En su primer ronda de funcionamiento, se consiguieron energías de hasta 30.000
electronvoltios por nucleón (protón o neutrón), cuatro veces más que las producidas en el
CERN. Se espera, sin embargo, llegar a los 100 GeV por nucleón en cada rayo. Con toda
esa energía concentrada en un espacio de apenas el tamaño de un núcleo atómico, los
iones que colisionan alcanzarán, durante una pequeña fracción de segundo, una
temperatura 100.000 veces superior a la existente en el centro de nuestro Sol, lo bastante
elevada como para "deshacer" los iones en sus componentes (quarks y gluones). El
estudio de los datos proporcionados por millones de estas colisiones de alta energía nos
dará la evidencia necesaria para confirmar que el plasma quark/gluón se formó y que por
tanto es posible empezar a entender sus propiedades.
Durante cada colisión se emiten miles de partículas. Estas son las que son estudiadas por
los detectores antes mencionados. Estos detectores han sido colocados en cuatro de los
seis puntos de colisión a lo largo del anillo. Los PHENIX y STAR son tan grandes que
miden varias plantas de altura. Los otros dos, BRAHMS y PHOBOS, son más pequeños
y especializados.
La construcción del RHIC no ha sido fácil. Se inició en 1991 y fue completada en 1999.
En este tiempo se han recibido las colaboraciones de más de 1.000 científicos situados en
19 países. Obviamente, no se trata de un experimento barato ni uno que se desee duplicar
970
El Hijo de El Cronopio No. 85
innecesariamente. De aquí que la colaboración internacional y la coordinación hayan
resultado esenciales. La culminación de años de intenso trabajo, por tanto, está a punto
de dar sus frutos.
Información adicional en:
http://www.rhic.bnl.gov; http://www.aip.org/releases/2000/rhic.html
http://www.pubaf.bnl.gov/pr/bnlpr060800.html
http://www.cern.ch/CERN/Announcements/2000/NewStateMatter; http://www.cern.ch
Imagen: http://www.pubaf.bnl.gov/photos/STARanimated.gif
(Animación de una colisión de iones de oro, vista por el detector STAR.)(Cortesía: BNL)
http://www.pubaf.bnl.gov/photos/E80frontHR.jpg
(Colisión de iones de oro, vista por el detector STAR.) (Foto: BNL)
http://www.bnl.gov/bnlweb/photos/large/stardetector.jpg (El detector STAR.)
¿Dónde va la energía que produce las mareas?
Los efectos de la gravedad lunar son claramente evidentes en el fenómeno que llamamos
mareas. La enorme cantidad de energía desplegada, sin embargo, tenía un destino final
poco conocido. Hasta ahora.
La presencia de un astro tan relativamente grande como la Luna en las cercanías de la
Tierra tiene diversas consecuencias. Consecuencias que han influido decisivamente en la
historia de nuestro planeta y en las condiciones que lo han hecho habitable. Uno de los
efectos más conocidos es sin duda las mareas.
La gravedad lunar aplica una muy considerable cantidad de energía sobre la Tierra,
haciendo que el agua de los océanos responda elásticamente a su acción atractiva. Pero,
¿dónde va a parar toda esa energía? Esta es una pregunta que se han estado haciendo los
científicos desde hace prácticamente dos siglos, sin que hasta ahora se haya llegado a una
conclusión clara.
Gracias a las mediciones altimétricas de gran precisión, sin embargo, parece que las
cosas están cambiando. Un satélite como el TOPEX/Poseidon, una colaboración entre los
Estados Unidos y Francia, puede sobrevolar toda la superficie terrestre de forma
constante y sin interferencias. Es posible así medir con una exactitud de pocos
centímetros la altura de los océanos respecto a una magnitud de referencia.
La acumulación de esta información durante seis años ha proporcionado a científicos
como Richard Ray, del Goddard Space Flight Center, y Gary Egbert, del College of
Oceanic and Atmospheric Sciences, de la Oregon State University, las herramientas
necesarias para afrontar la cuestión.
Gracias a ello, ahora sabemos que la disipación de la energía ocasionada por la influencia
de la gravedad lunar se lleva a cabo constantemente debido a la acción de las olas que
golpean las costas y al agua que se mueve en ellas en zonas no demasiado profundas. La
mayor parte de la energía se disipa debido a la fricción entre el agua y el fondo marino.
Una fracción más pequeña, quizá un 25 ó 30 por ciento, ocurre por la fricción en aguas
profundas (alrededor de un 1 billón de vatios).
La precisión altimétrica proporcionada por el TOPEX/Poseidon es tan elevada que
podemos conocer con gran exactitud el comportamiento de las mareas a escala global. Se
han obtenido mapas empíricos de la disipación de la energía de las mareas, y puede
apreciarse que la disipación en aguas profundas coincide con áreas de fondos abruptos
971
El Hijo de El Cronopio No. 85
(cadenas montañosas submarinas, etc.). La fricción ocasiona movimientos internos
dentro de la columna de agua, resultando en turbulencias localizadas.
La principal dificultad a la que se han tenido que enfrentar los científicos ha sido la
derivación de una serie de datos predictivos para un período de 16 días, datos que
después han tenido que coincidir exactamente con las observaciones vía satélite. El mapa
resultante muestra una visión sintética de cómo se mueven las mareas a lo largo y ancho
de los océanos de la Tierra.
Una importante implicación de todos estos trabajos tiene que ver con las posibles fuentes
de energía que parecen necesarias para mantener la circulación del agua oceánica a gran
escala, en especial el movimiento de las aguas calientes superficiales y su mezcla con la
existente en las profundidades abisales. Las corrientes que transportan agua caliente
hacia el fondo y agua fría hacia la superficie, actuando como una verdadera cinta
transportadora, son esenciales para el equilibrio térmico que caracteriza a los mares y que
en cierta manera garantiza la habitabilidad tanto de ellos como del resto del planeta. El
proceso, se estima, necesita de unos 2 teravatios de energía. Dado que el viento sólo
puede proporcionar 1 teravatio, ahora se piensa que la energía de las mareas muy bien
podría entregar el resto. Es otro ejemplo más de hacia dónde va la energía originada por
los efectos de la gravedad lunar. Si esto es así, no hay duda de que será necesario
profundizar en esta cuestión, puesto que puede tener considerables implicaciones a la
hora de crear futuros modelos del clima a largo plazo.
El satélite TOPEX/Poseidon se encuentra en órbita desde agosto de 1992 y ha superado
con creces sus objetivos originales. Aunque sus patrocinadores ya están preparando a su
sustituto, sigue en activo y aportando importantes informaciones sobre los océanos, en
particular de fenómenos tales como las corrientes del Pacífico que denominamos "El
Niño" y "La Niña" y cuyos efectos tanto se dejan sentir en continentes como el
americano.
Información adicional en: http://topex-www.jpl.nasa.gov/
ftp://www.gsfc.nasa.gov/pub/PAO/Releases/2000/00-71.htm
http://science.nasa.gov/headlines/y2000/ast15jun_2.htm
Imagen: http://science.nasa.gov/headlines/images/missingtides/dissipation.gif
(Animación sobre la disipación de la energía de las mareas.) (Foto: NASA)
http://science.nasa.gov/headlines/images/missingtides/oceantides.gif
(Animación de la actividad de las mareas.) (Foto: NASA)
Un rostro virtual que habla
Si no le gusta dar la cara, quizá muy pronto pueda confiar en una imagen virtual que lo
haga por usted. Su forma de hablar y expresiones tendrán poco que envidiar a un rostro
humano real.
Basta contemplar la cara de una persona cuando habla para darse cuenta de lo difícil que
resulta intentar reproducirla por medios artificiales. Aún más si la simulación debe ser
realista y convincente. Las entonaciones de la voz, las palabras, los estados de ánimo,
etc., proporcionan una variada y compleja paleta de colores para dar forma y aspecto a
un rostro humano. A menudo, los grandes artistas han sido calificados como tales por su
habilidad a la hora de representar una cara, especialmente de aquéllas que reflejan un
sentimiento u emoción complejos, con el mayor realismo posible.
972
El Hijo de El Cronopio No. 85
Si esto ya es considerado todo un reto, imaginen lo complicado que será proporcionar
una aureola de realidad a un rostro que además no se esté quieto, sino que hable y haga
muecas. La animación de una cara humana dibujada por ordenador, de conseguirse, es
una muestra más de los avances que está experimentado la ciencia del diseño y la
programación por computador.
La meta, sin duda, vale la pena. La obtención de un busto parlante digital tiene
numerosas implicaciones. En un futuro que se adivina repleto de cámaras para
videoconferencias, quizá prefiramos que sea nuestro yo virtual quien se ocupe de nuestra
representación, sobre todo si acabamos de levantarnos de la cama y aún no hemos podido
asearnos. La interacción con un ordenador que muestre nuestro rostro quizá haga
también más agradable la experiencia, sobre todo si debemos pedir consejo demasiado a
menudo al tradicional archivo de ayuda.
Para conseguir un yo virtual con un rostro mínimamente convincente, los ingenieros del
Jet Propulsion Laboratory emplean la unidad más pequeña del habla, el fonema, para
manipular los movimientos faciales en la pantalla. De este modo, es el lenguaje el que
domina la presentación gráfica y no los controles de animación. El programa, por ahora,
se encuentra en sus primeras fases de desarrollo, pero el objetivo es lograr un rostro
fotorrealísta de un individuo parlante siguiendo esta premisa.
La imagen de la cara se modifica en respuesta a la voz emitida, y por tanto no solamente
actúa en función de los fonemas que debe pronunciar sino también respetando las
inflexiones originales o algunos estados de ánimo (como la risa, etc.).
A diferencia de los dibujos animados, tal y como explica John Wright, del JPL, la técnica
implica el empleo de movimientos faciales procedentes de personas reales. Se ha
formado así un banco de datos con innumerables "ladrillos" que muestran las diferentes
posiciones de la boca y el resto de la cara según una larga lista de fonemas. El sistema se
llama Digital Personnel y posibilita que el rostro sintético hable de forma totalmente
natural.
Con el programa en nuestro ordenador, podremos recibir la llamada de un amigo a través
de la línea telefónica (bajo ancho de banda) y utilizarlo para verlo en la pantalla de
nuestro monitor, al mismo tiempo que sus palabras son capturadas e interpretadas para su
visualización virtual. El rostro sintético podría ser el de nuestro propio amigo o el de una
celebridad, pero siempre alguien con un aspecto agradable o atractivo, algo que la
videoconferencia real (además de las dificultades técnicas que implica) no puede
asegurarnos. El programa Digital Personnel será comercializado a través de la empresa
Graphco Technologies. Su primera aplicación será la generación de personajes virtuales
para presentaciones comerciales y ventas. Pero también se utilizará en video juegos,
educación a distancia, etc. La demanda de tecnología que permita una mejor relación
entre máquinas y personas crecerá en los próximos años, y este tipo de programas jugará
un destacado papel en el mercado. Por supuesto, las películas cinematográficas se
beneficiarán también del Digital Personnel. Será posible superponer el rostro parlante
del actor principal sobre el del extra que debe realizar una escena peligrosa, haciéndonos
creer en todo momento que el primero es realmente quien completa la acción. Hay quien
pronostica la llegada de personajes totalmente virtuales, sin presencia de actores y
actrices de carne y hueso, o la participación de estrellas de cine ya desaparecidas, cuyo
rostro volverá a aparecer en pantalla en productos totalmente nuevos.
Información adicional en: http://www.jpl.nasa.gov/releases/2000/digitalperson.html
973
El Hijo de El Cronopio No. 85
Imagen: http://www.jpl.nasa.gov/files/images/browse/digper1.gif
(Una imagen del programa Digital Personnel.) (Foto: JPL)
http://www.jpl.nasa.gov/files/images/browse/digper2.gif
(Una imagen del programa Digital Personnel.) (Foto: JPL)
La importancia de los márgenes oceánicos
Un proyecto de investigación europeo ha puesto de manifiesto cómo las costas donde se
encuentran ecosistemas muy productivos pueden ser también el escenario de procesos
complejos que afectan al cambio climático.
Los océanos influyen directamente sobre el clima del planeta. Poco se sabe de los
procesos que intervienen en el llamado ciclo global del carbono, en el que éstos juegan
un papel importante. Para paliar en cierta manera este desconocimiento, se ha iniciado un
proyecto europeo que ha examinado los márgenes oceánicos de zonas tan productivas
como la región nordeste del Atlántico.
El proyecto, patrocinado por la Unión Europea, se llama Ocean Margin Exchange
(OMEX) y en él han participado casi 40 instituciones de países que bordean el Atlántico
Norte. Su objetivo ha sido una mejor comprensión del mencionado ciclo del carbono en
los márgenes continentales, allí donde se separa el océano abierto de la zona costera.
Dada la complejidad del sistema, esta región ha sido raramente estudiada, a pesar de que
permanecen abiertas muchas preguntas sobre el papel que juega el ciclo del dióxido de
carbono a escala global y de la importancia de los procesos de intercambio del CO2 entre
el margen continental y la atmósfera (que a su vez influye en la fertilidad de la región).
El océano, en efecto, gracias a que cubre dos tercios de la superficie terrestre, tiene un rol
fundamental en el ciclo del carbono, sobre todo en el intercambio con la atmósfera. Los
más recientes resultados indican que más de un tercio del CO2 emitido por las
actividades humanas es transferido a través del océano. La reducción resultante en la
acumulación de CO2 en la atmósfera limita significativamente el calentamiento de la
Tierra y los cambios climáticos asociados.
Dos mecanismos se han presentado para explicar la transferencia del CO2 atmosférico
hacia el sistema marino y su almacenamiento en el océano durante al menos varios
centenares de años. Uno resulta simplemente de la disolución química de dicho gas, que
ocurre sobre todo en aguas frías, cerca de las dos regiones polares. El otro mecanismo, de
no menor importancia, se llama "bomba biológica", y significa que el CO2 disuelto en la
superficie del agua es consumido por el fitoplancton durante la fotosíntesis. Una parte de
esta producción es transferida por sedimentación a las aguas profundas y acaba
acumulándose en sedimentos.
La zona marginal representa un sistema particularmente productivo en este contexto.
Durante el proyecto OMEX se han estudiado dos lugares que contrastan entre sí: uno es
el nordeste del Golfo de Vizcaya, caracterizado por una ancha plataforma continental
adyacente a una pendiente pronunciada, y el otro es la costa ibérica del Atlántico Norte,
caracterizada por una plataforma continental muy estrecha en la que las corrientes
favorecen el ascenso de aguas profundas muy fértiles.
Para las investigaciones se han efectuado 60 cruceros oceanográficos, coordinados por el
Laboratorio de Oceanografía Química de la Universidad de Bruselas. Durante la primera
fase (Golfo de Vizcaya), las imágenes tomadas desde satélite han indicado la existencia
de una zona de agua fría desde la primavera al otoño que coincide con el margen
974
El Hijo de El Cronopio No. 85
continental, situado a una profundidad de 200 metros. Estas aguas ricas en nutrientes son
responsables de una mayor producción de fitoplancton, lo que apoya el desarrollo de una
gran actividad pesquera. Casi la mitad de la producción en el margen es exportada a las
profundidades del océano o a los sedimentos de la pendiente oceánica. Las medidas de
los flujos de gas indican que la bomba biológica está efectivamente transfiriendo CO2
atmosférico al océano. Por otro lado, la estratificación vertical de las masas de agua
debido al gradiente de temperatura constituye un elemento importante para evitar su
mezcla y la llegada de nutrientes. Así, es de suponer que el calentamiento global que
aumentará la estratificación resultará en una reducción de los flujos de nutrientes y por
tanto de la producción de fitoplancton en estas regiones. La bomba biológica disminuirá
entonces su eficiencia.
Mientras, la costa ibérica del Atlántico Norte es una de las más productivas de Europa
debido a la llegada de aguas profundas, proceso ocasionado en parte por los vientos del
norte desde la primavera al otoño. Dichos eventos ocurren a intervalos irregulares, y por
tanto devienen en sucesiones de alta producción y estratificación, durante las cuales las
actividades planctónicas se ven reducidas. Una buena parte de la producción es
consumida por los peces. En las Rías de Vigo y Muros, además, se lleva a cabo una
intensa acuicultura. Debido a la estrechez de la plataforma continental, la exportación de
materia orgánica hacia el océano abierto es relativamente importante. Los sedimentos
son transportados sobre todo a través de los numerosos cañones que cortan la pendiente
continental, con lo que la acumulación de carbono orgánico en la región ibérica es baja
en la plataforma pero mucho mayor en la pendiente que en el área del Golfo de Vizcaya.
Los resultados se han obtenido tras 7 años de trabajos en el marco del proyecto OMEX y
podrán ser extrapolados a otros sistemas de márgenes continentales. Esto ayudará a
calcular una estimación cuantitativa global del impacto que los procesos oceánicos tienen
en la moderación del cambio climático debido al ascenso de los niveles de CO2 .
Información adicional en: http://europa.eu.int/comm/research
http://modb.oce.ulg.ac.be/Colloquium/2000.html
http://www.pol.ac.uk/bodc/omex/omex.html
Imagen: http://www.pol.ac.uk/bodc/omex/overview/participantsmapleft.gif
(Mapa de la situación de los centros participantes en el programa OMEX.)(Foto: OMEX)
http://www.pol.ac.uk/bodc/omex/images/omeximap.gif
(Las zonas investigadas durante el programa OMEX.) (Foto: OMEX)
El sistema solar primigenio
El estudio de los cuerpos menores que pueblan nuestro sistema planetario nos está
permitiendo conocer mucho mejor cómo era éste durante su período formativo.
El Sol y su cohorte de planetas empezaron a formarse a partir de una nube de gas y polvo
hace al menos 4.500 millones de años. Ha pasado tanto tiempo que la mayoría de
cuerpos grandes del sistema solar ha sufrido grandes cambios. Tanto es así que de su
estudio directo no se pueden sacar muchas conclusiones sobre cómo era éste en sus
inicios.
Sin embargo, sí existen una serie de objetos que han cambiado poco desde entonces. Por
ejemplo, los cometas que han empezado a incursionar en las cercanías del Sol hace
relativamente poco tiempo. Procedentes de un reservorio casi prístino (nube de Oort),
muy lejos de nuestra estrella, no han sufrido apenas influencias exteriores, de manera que
975
El Hijo de El Cronopio No. 85
su composición se ha mantenido estable desde que se formaron, al mismo tiempo que el
resto de componentes del sistema planetario.
Los cometas los podemos estudiar desde lejos, y esperamos hacerlo también in situ más a
menudo, con misiones como la de la sonda europea Rosetta o la vieja Giotto. Sin
embargo, hay algunos objetos que ya hemos podido examinar de cerca y que han
empezado a aportarnos pistas sobre los orígenes de nuestro barrio cósmico. Estamos
hablando de algunos meteoritos que han caído sobre la Tierra, y de algunos asteroides
que, como el Eros, hemos tenido la fortuna de poder examinar desde puntos muy
ventajosos.
Precisamente, las informaciones que no está enviando la sonda NEAR Shoemaker, en
órbita alrededor de Eros, nos indican que este asteroide de más de 33 km de diámetro es
una reliquia de la época de formación del sistema solar. Cuando el 4 de mayo una
poderosa explosión sobre la superficie del Sol causó durante media hora una verdadera
lluvia de rayos-X sobre Eros, la NEAR estaba lista para utilizar su espectrómetro XGRS
y analizar de forma indirecta la composición del asteroide.
El área estudiada corresponde a una extensión de unos 6 km y los datos enviados desde
el instrumento XGRS acerca de ella sugieren que Eros tiene una composición similar a
las más primitivas rocas conocidas en el sistema solar, los meteoritos condríticos.
De hecho, este tipo de meteoritos no son sino los ladrillos básicos con los que se
construyeron los planetas del tipo terrestre, es decir, rocosos. Si los científicos tienen
razón, el sistema solar primigenio estaba constituido por muchos asteroides semejantes a
Eros, que poco a poco, con el paso del tiempo, fueron chocando y acumulándose debido
a la atracción gravitatoria para formar planetas como el nuestro. Por tanto, Eros y otros
como él, habrían existido incluso antes de la aparición de la Tierra.
Los condritos se habrían formado directamente a partir de la nebulosa de gas y polvo
original. Sucesivas colisiones entre las partículas de polvo provocarían la creación de
cuerpos mayores (planetésimos), que se unirían entre sí, atraídos por la mutua gravedad
para formar los planetas.
A pesar de que la aparición de planetas como Mercurio, Venus, la Tierra o Marte
absorbió una gran cantidad de estos objetos, algunos de ellos aún quedaron orbitando
alrededor del Sol en solitario, sin ser asimilados. Las fuerzas gravitatorias ejercidas por
Júpiter modificaron paulatinamente sus órbitas hasta que se formó un auténtico cinturón
de asteroides, donde algunos de los cuales aún pueden chocar entre sí, cambiar sus
trayectorias y caer sobre los demás planetas, incluida la Tierra.
Una indicación de su carácter primigenio la tenemos en que los condritos son una mezcla
homogénea de materiales ligeros y pesados, lo cual demuestra que no fueron sujetos a
ninguna fase de altas temperaturas y fusión. La falta de diferenciación (que suele
producirse por procesos de enfriamiento y calentamiento sucesivos y que proporciona
una estructura por capas, como la de la Tierra) convierte a Eros en un magnífico
laboratorio para conocer mejor qué aspecto tenían los ingredientes originales del sistema
solar. Pero como decíamos antes, no es necesario desplazarse hasta la órbita de un lejano
asteroide para aprender algo sobre este tipo de objetos. Algunos, mucho más pequeños,
pueden llegar a caer sobre la Tierra, fácilmente perturbados por la gravedad de otros
planetas. Si son lo bastante grandes, entonces pueden alcanzar la superficie de nuestro
mundo sin ser vaporizados en la atmósfera, y entonces son examinados por los
científicos.
976
El Hijo de El Cronopio No. 85
Esto es lo que están haciendo diversos investigadores de la University of Hawai, quienes
han estudiado a conciencia un meteorito de más de 4.560 millones de años de
antigüedad, descubierto en la Antártida en 1991. En él han encontrado metales como
hierro y níquel, lo que da nuevas pistas sobre cuál era la composición de la nebulosa
primigenia.
Los mencionados metales se formaron en el interior de la nebulosa mediante un proceso
denominado "condensación gas-sólido", donde los átomos se unen entre ellos para
formar partículas metálicas. A partir del estudio del meteorito antártico, el equipo de
investigadores ha concluido que los granos de metal debieron condensarse dentro de la
nebulosa en un plazo de pocas semanas, mientras esta última se iba enfriando a un ritmo
de 1 grado Fahrenheit por hora.
Por supuesto, este ritmo de enfriamiento es muy rápido para un sistema tan grande como
una nebulosa solar. Implica que el gas del disco debió haberse movido muy deprisa,
transportando los granos de metal del interior de la nebulosa hasta el exterior también en
apenas unas semanas. Podemos imaginar pues una nube muy dinámica, turbulenta y de
desarrollo super-veloz.
El descubrimiento confirma la gran relación existente entre la cosmoquímica y la
cosmología, dos campos de la ciencia que parecían relativamente distanciados.
Información adicional en: http://near.jhuapl.edu
Imagen: http://near.jhuapl.edu/iod/20000605/20000605.jpg
(Un mosaico de imágenes del asteroide Eros.) (Foto: APL)
http://near.jhuapl.edu/iod/20000530/small_ani.gif
(Animación de la rotación del asteroide Eros.) (Foto: APL)
http://near.jhuapl.edu/iod/20000619/20000619.jpg
(Un pequeño detalle de la superficie de Eros.) (Foto: APL)
Azúcar en el espacio
Los científicos han descubierto una nueva molécula orgánica en el espacio interestelar.
No es la primera ni la última, pero su naturaleza la hace cuando menos curiosa.
Las perspectivas de la existencia de vida en otros lugares del Universo se han tornado de
pronto un poco más dulces, gracias al reciente descubrimiento de una sencilla molécula
orgánica que puede considerarse una forma de azúcar.
La citada molécula se llama glicolaldehído y se ha encontrado en una nube de gas y
polvo gigante situada hacia el centro de nuestra galaxia, la Vía Láctea.
El hallazgo se ha llevado a cabo mediante un radiotelescopio instalado en Kitt Peak, en
Arizona, y sirve también para entender mejor el origen de la vida en nuestro planeta. Las
condiciones de la Tierra primitiva se asemejan en ciertos aspectos a las existentes en las
nubes interestelares, de modo que estudiar su química es útil para conocer cómo
aparecieron las biomoléculas esenciales para la vida. Algunos científicos sugieren que la
Tierra fue "sembrada" por este tipo de moléculas cuando un cometa, formado y
condensado a partir del material procedente de la nube interestelar que creó al Sistema
Solar, pasó cerca de ella.
El glicolaldehído es una molécula de ocho átomos compuesta por carbono, oxígeno e
hidrógeno, y puede combinarse con otras para formar azúcares más complejos como la
Ribosa o la Glucosa. La Ribosa es un componente principal de los ácidos nucleicos tales
como el ARN o el ADN, que transporta el código genético de los seres vivos.
977
El Hijo de El Cronopio No. 85
El glicolaldehído fue detectado en una nube de gas y polvo situada a 26.000 años luz de
distancia. De un diámetro fantástico, estas nubes constituyen el material a partir del cual
pueden después surgir las estrellas. Son también el escenario de complejas reacciones
químicas que se producen a lo largo de cientos a miles de millones de años. Tanto es así
que hasta la fecha se han descubierto en ellas unas 120 moléculas diferentes, la mayoría
con un número pequeño de átomos. El hallazgo del glicolaldehído implica que incluso
moléculas relativamente complejas pueden llegar aparecer en tales condiciones de baja
densidad, algo que no creíamos fuera posible.
La química prebiótica, pues, se halla cada vez más completa.
Información adicional en: http://www.nrao.edu
Imagen: http://www.aoc.nrao.edu/pr/ballstick.gif
(La molécula descubierta.) (Foto: NRAO); http://www.aoc.nrao.edu/pr/sugarcompare.gif
(Comparación de la molécula Glicolaldehído, con otras semejantes.) (Foto: NRAO)
La dieta de los Neandertales
El debate sobre si estos hombres prehistóricos eran o no carroñeros parece haberse
resuelto por fin.
A través de estudios químicos de los huesos fósiles de varios Neanderthales, los
científicos han llegado a la conclusión de que estos hombres primitivos consumían carne
semejante a la que comían otros carnívoros, como leones o lobos.
Que los Neanderthales consumieran carne de mamut, por ejemplo, es un hecho
significativo, ya que hasta ahora existía el debate abierto de si eran cazadores por
derecho propio o si se limitaban a buscar los restos abandonados por otros depredadores.
Con una dieta dominada por la proteína animal, tuvieron que ser cazadores efectivos, lo
que a su vez refleja una complejidad de comportamiento y organización social superiores
a los atribuidos normalmente a esta especie.
Los Neanderthales, pues, eran carnívoros de altísimo nivel, y vivían principalmente de la
carne de animales cazados. Se ha llegado a esta conclusión gracias al análisis de una
mandíbula y un fragmento de cráneo de dos Neanderthales de hace 28.000 años de edad.
Los fósiles fueron encontrados en la cueva de Vindija, al norte de la capital croata,
Zagreb. Su composición química comparada después con la otros animales europeos del
mismo período.
El hallazgo de herramientas de cacería y restos de huesos de animales en los lugares
donde vivían no era prueba suficiente de sus hábitos cazadores, ya que su dieta principal
podía ser otra. Ahora sabemos que comían casi exclusivamente carne.
Información adicional en:
http://www.niu.edu/pubaffairs/RELEASES/2000/june/carnivore.html
http://news-info.wustl.edu/headline.html
Imagen: http://www.niu.edu/pubaffairs/carnivore/hi-res/jawbone.JPG
(Una imagen de la mandíbula.) (Foto: Croatian Academy of Sciences and Arts)
Por la cara
El reconocimiento del rostro de un usuario se convertirá en el principal sistema de
seguridad para garantizar el acceso autorizado a la información contenida en un
ordenador.
978
El Hijo de El Cronopio No. 85
Investigadores de la University of Manchester han empezado a diseñar un sistema de
seguridad para ordenadores que utiliza la cara del usuario autorizado como la clave para
permitir el acceso a sus contenidos. Medidas de seguridad de tal calibre se hacen
necesarias cuando el mayoritario uso de Internet y el comercio electrónico ponen en
peligro la confidencialidad de nuestra información personal.
El proyecto permitirá a un ordenador reconocer nuestra cara, utilizándola como clave
única para proteger nuestros datos. Si funciona, ya no será necesario recordar una
contraseña, un sistema que siempre puede llegar a ser descubierto por piratas
informáticos.
Nuestra cara es un ente único e intransferible, y por tanto es ideal para nuestro propósito.
Recientes incidentes acaecidos en la red han propiciado que la Comisión Europea haya
decidido financiar la investigación y desarrollo de este nuevo sistema de seguridad. Sus
aplicaciones, por otro lado, serán amplias. Podrá usarse también, por ejemplo, para que
puertas inteligentes nos franqueen o no el paso.
El programa se llama UFACE (User Friendly Access Control) y se llevará a cabo en
cooperación con los italianos Giunti Interactive Labs y los griegos Netsmart, BioTrast y
SoSol. Se espera obtener un primer prototipo para dentro de un año.
La desaparición del texto impreso
Desde la invención del lenguaje escrito, los métodos de escritura han cambiado mucho.
Los grabados en piedras y las secuencias de bytes son los extremos más separados de
este progreso. Es muy probable que el siglo XXI sea el de la desaparición del texto
impreso.
Cuando Gutenberg inventó la imprenta, una nueva era se abrió para nuestra civilización.
Hasta entonces, el conocimiento se transmitía oralmente o por escritura manual, lo que
invalidaba su difusión más allá de unos cuantos afortunados. A partir de ese momento, el
almacenamiento y la transmisión del conocimiento aumentaron en progresión
exponencial. Los libros se editaron por tiradas. Aparecieron los periódicos y las revistas.
Se inventaron nuevas técnicas de impresión. Nacieron la máquina de escribir y la
fotocopiadora. Con la acelerada implantación de la informática y las comunicaciones
electrónicas en la sociedad industrializada, parece que nos hallamos cerca de un nuevo
umbral, que puede llevarnos a la completa desaparición del texto impreso sobre papel,
como se mostraba en la famosa película de ciencia-ficción "Farenheit 451".
En la década de 1980, el auge de los ordenadores personales y el abaratamiento de los
soportes de almacenamiento ya constituyeron los primeros síntomas de que iba a
iniciarse una revolución tan importante como la que desencadenó Gutenberg con su
invento. En los años noventa comenzó el principio del fin para el texto impreso, debido
sobre todo a la transformación técnica y social de Internet en un fenómeno cultural de
masas.
En todo este proceso, los costes de producción han jugado un papel decisivo. Cuando el
Hombre llegó a la Luna, la sociedad todavía se basaba en el papel impreso, siendo los
ordenadores una tecnología para campos muy específicos. Al finalizar la década de 1970,
la informática estaba más próxima a la realidad cotidiana de los ciudadanos en las
naciones industrializadas, pero su coste no podía aún competir con el del papel. Poco a
poco, el pulso entre ambos medios fue siendo ganado por el texto electrónico. Hace
979
El Hijo de El Cronopio No. 85
tiempo que el soporte informático es muchísimo más barato que el papel impreso. La
única contrapartida es la inversión inicial que supone adquirir un ordenador o
instrumento comparable y los accesorios necesarios para cada caso. Pero esta inversión
cada vez es menos costosa y goza de más aplicaciones prácticas adicionales.
Los hábitos de escritura y lectura de una parte cada vez mayor de la población de las
naciones industrializadas han cambiado. Ya no son fenómenos minoritarios el correo
electrónico, la lectura diaria de las publicaciones online favoritas, o el tener en casa un
ordenador para redacción e impresión de textos en lugar de una máquina de escribir.
Todavía hay personajes públicos que mantienen abiertamente una dura oposición al
soporte informático por considerar que la literatura depositada en él pierde su carisma, su
esencia, y sus valores artísticos, convirtiéndose en un producto desnaturalizado. Tan
singular opinión procede básicamente del completo o casi completo desconocimiento
que estos individuos tienen del fenómeno tecnológico y cultural que critican. Basta
recordar un debate televisivo en el que un conocido escritor manifestó airado que "el
encanto del texto escrito jamás desaparecerá ante el texto hablado de un CD-ROM". El
hombre, que sólo alcanzaba a identificar el disco compacto con la música, creía que un
CD-ROM de texto era un disco de audio en el que un locutor leía el texto. Esta anécdota
ilustra la ignorancia de quienes se oponen tan férreamente al texto electrónico. Su
oposición casi siempre viene determinada porque desconocen el medio y se han creado
ideas negativas equivocadas de lo que imaginan que es dicho medio.
Quizá el texto informatizado no tenga el encanto del impreso, pero no precisa talar
árboles para fabricar papel. Cada año se talan en el mundo varios millones de hectáreas
de bosque sólo para fabricar el papel de los periódicos. Es bien sabida la preocupación de
las organizaciones ecologistas al respecto. El papel reciclado, una iniciativa ecológica
loable, es útil en muchos casos, pero presenta el problema de su alto coste. El soporte
informático aventaja al papel en ambas cualidades: Precio y Protección Ecológica.
El placer de leer un buen libro tumbado en el campo bajo la sombra de un árbol, o el acto
cotidiano de hojear el periódico en el metro, reflejan el hecho de que el texto impreso es
portátil y manejable en pequeñas cantidades, cualidad que, hasta hace poco, no poseía el
texto informatizado, el cual, si bien más concentrado que el impreso, requería equipos
nada portátiles para su lectura. Pero la aparición de los ordenadores de maletín, los
lectores de bolsillo, y las nuevas generaciones de teléfono móvil con prestaciones para
lectura de textos, están contribuyendo a introducir el hábito de la lectura de páginas
electrónicas en todos aquellos casos en los que la única opción posible en cuanto a leer
parecía ser la brindada por el texto impreso.
Y lo mismo puede decirse del proceso de escribir. La agenda, el bloc de notas, y los
lápices o bolígrafos, están cada vez más desplazados por las agendas electrónicas o los
propios teléfonos móviles. Incluso para trabajadores que ejercen su actividad circulando,
haciendo entregas, tomando pedidos, realizando inspecciones de mantenimiento,
verificando mercancías, efectuando inventarios de existencias, consultando precios, y
recogiendo datos, el garabatear papeles y más papeles no es ya una condición inamovible
de su actividad. Para ellos, el papel se puede no sólo sustituir sino superar. Los
terminales portátiles de ordenador tienen el tamaño de una calculadora y pueden
traspasar a un ordenador de sobremesa toda la información que se les ha introducido
durante la jornada, o inclusive permanecer conectados con una computadora central
desde cualquier parte y en movimiento, mediante radioenlace telefónico.
980
El Hijo de El Cronopio No. 85
Hasta para los amantes de la escritura de puño y letra existen microordenadores sin
teclado, a los que se da instrucciones escribiéndolas o señalándolas sobre la pantalla con
un lápiz electrónico. El sistema refleja en la pantalla el mismo trazo que detecta sobre la
superficie de la misma. Estos ordenadores no sólo son capaces de entender la letra
manuscrita de cada persona, sino que pueden distinguirla de la de otras, siendo capaces
de reconocer la firma de su dueño y ponerse en funcionamiento sólo después de haber
identificado como auténtica la firma introducida.
En el terreno de los programas informáticos, también cabe destacar por su potencial
contribución a la desaparición del texto impreso los procesadores de texto activados por
voz. El funcionamiento de tales sistemas no puede ser más simple: se habla y el
ordenador escribe el texto dictado. La pereza de escribir que muchas personas tienen
puede moverles a abandonar el papel impreso y pasarse al medio informático, para
escribir con la voz en vez de con las manos.
Lo aparatoso de una biblioteca repleta de libros, donde a menudo es difícil encontrar el
tomo que buscamos, e imposible hallar una frase determinada entre tantos volúmenes,
difiere claramente de las características de ahorro de espacio físico y capacidad de
búsqueda de datos y procesamiento de los mismos que ofrece esa misma biblioteca si
está informatizada. Un CD-ROM puede albergar fácilmente el texto de entre seiscientos
y mil libros de extensión convencional. La inclusión de gráficos reduce el espacio
disponible, pero en cualquier caso hace viable tener en un cajón de una mesa una
biblioteca de cien mil libros. Y si repetimos estos cálculos con la capacidad de
almacenamiento de soportes como el DVD o los empleados para almacenar los datos
reunidos durante un viaje interplanetario, fácilmente podemos llegar a conclusiones
como que el texto de una pila de folios de ocho kilómetros de altura cabrá en el bolsillo
de una chaqueta.
Información adicional en: http://www.gutenberg.net
(Proyecto Gutenberg. Proyecto para crear una biblioteca universal en formato
electrónico, incluyendo libros clásicos.)
http://www.giga.com.ar/axxon/
(Axxon. Revista en formato electrónico pionera en lengua española. De temática en torno
a la ciencia-ficción y fantasía, incluye relatos, artículos y noticias.)
http://www.uni.edu/darrow/computers/history.html
(Página del Dr. Donald Darrow sobre la historia de los ordenadores y de Internet.
Enlaces a distintas páginas dedicadas a cuestiones concretas dentro del tema.)
Imagen: Desapar1.jpg
(La magia del libro impreso podría desaparecer muy pronto.) (Foto: J. Munnshe)
Desapar2.jpg
(El CDROM es uno de los nuevos formatos de almacenamiento de datos más utilizados.)
(Foto: J. Munnshe)
981
Boletín
El Hijo de El Cronopio
Facultad de Ciencias
Universidad Autónoma de San Luis Potosí
No.86, 14 de agosto de 2000
Boletín de información científica y
tecnológica de la Facultad de Ciencias
Repudian atentado
contra la libertad de expresión
Publicación semanal
Edición y textos
Fís. José Refugio Martínez Mendoza
Parte de las notas de la sección Noticias de la
Ciencia y la Tecnología han sido editadas por
los españoles Manuel Montes y Jorge
Munnshe. La sección es un servicio de
recopilación de noticias e informaciones
científicas, proporcionadas por los servicios de
prensa de universidades, centros de investigación
y otras publicaciones especializadas.
Cualquier información, artículo o anuncio deberá
enviarse al editor. El contenido será su
responsabilidad.
e-mail: flash@galia.fc.uaslp.mx
Números anteriores del boletín, pueden
consultarse por Internet en la página de la
UASLP:
Tras la destrucción del cuadro La
patrona del caricaturista de la Jornada
Manual Ahumada, realizado por dos
jóvenes católicos, que se exhibía en el
Museo del periodismo y las Artes
Gráficas de Guadalajara. Los
compañeros caricaturistas del autor
repudian el acto en una carta enviada a la
directora del periódico La Jornada
Señora directora: La destrucción del
dibujo La patrona, de Manuel Ahumada,
en el Museo del Periodismo en
Guadalajara, es un acto de intolerancia
que atenta contra la libertad de expresión
artística y de rechazo a la civilidad.
Si un sector se siente ofendido por la
obra, basta con que no la vea.
http://phobos.dtc.uaslp.mx/publi.html
Nuestra total solidaridad con Manuel
Ahumada.
Eduardo del Río (Rius), Rogelio
Naranjo, Helioflores, Rafael Barajas
(El Fisgón), Antonio Helguera,
Gonzalo Rocha, José Hernández y
Patricio Ortiz
El Hijo de El Cronopio No. 86
El Garambullo (Los polvos de esos caminos)/
La paradoja de Cerro de San Pedro
A veinte kilómetros al noreste de la capital potosina, se encuentra enclavado el histórico
Cerro de San Pedro, tan traído y llevado en los últimos años por el redescubrimiento de
su riqueza en oro. El descubrimiento del mineral de Cerro de San Pedro hace más de
cuatrocientos años por el capitán mestizo Miguel Caldera, provocó el establecimiento en
el Valle de Tangamanga del actual San Luis Potosí, asumiendo el nombre de las minas
del Potosí en Bolivia, al compararse la riqueza de las entrañas de San Pedro. A lo largo
de los siglos, tanto Monte Caldera, pequeña población antecesora de Cerro de San Pedro
que se encuentra a unos diez kilómetros de Cerro, y el propio Cerro de San Pedro fueron
cediendo su crecimiento y desarrollo a la futura capital del estado de San Luis Potosí en
plena puerta de la región Guachichila. El descubrimiento de Cerro de San Pedro propició
que se cambiará el asentamiento principal de la zona (capital española) de Mezquitic a
Cerro de San Pedro y posteriormente a San Luis Potosí. Al “agotarse” las explotaciones
mineras, como en todo gran pueblo minero, se echa al olvido. Esta no es la excepción en
Cerro de San Pedro, población semi abandonada, una especie de pueblo fantasma, al
igual de Real de Catorce, vaya que se echó al olvido. Pocas personas, antes de 1990, lo
visitaban, uno que otro pintor le daba vida recreando sus fachadas y callejones en lienzos
rematados por tenues colores. Por mucho tiempo, al menos en mi caso, era el
conocimiento que tuve de este añejo y abandonado pueblo minero. Antes de 1990, mi
hermano que estudiaba geología lo visitaba regularmente para realizar sus prácticas de la
carrera. Acampaban en esas noches de frío, dentro de la iglesia, para lo cual era menester
sacar borregos y cabras del lugar. Ni quien pelara a tan antiquísima y rica iglesia, que
albergaba grandes obras pictóricas. El abandono total.
En plena crisis de la industria minera la compañía Peñoles emprendió estudios
geológicos en la zona a fin de explorar la posibilidad de encontrar yacimientos de oro. En
esa época, mi hermano trabajaba para la compañía Minera las Torres en el mero
Guanajuato. De primera mano me enteré de los descubrimientos que el grupo de
geólogos de Peñoles realizaba en Cerro de San Pedro. Definitivamente había grandes
cantidades de oro, al menos lo suficiente como para emprender una explotación. En
mayo de 1989 iniciamos en el Planetario del Parque Tangamanga, el programa de
divulgación Domingos en la Ciencia, programa que tuvo mucho éxito y en el cual
nosotros mismos, los organizadores del Instituto de Física y de la Facultad de Ciencias ,
debutamos como expositores ante niños. Una de esas pláticas, me correspondió y tuvo
lugar en el mes de enero de 1990, el tema “El encanto de los cristales”, en la plática por
necesidad surgió el tema de la minería y al final de la misma, como era ya costumbre, se
tenía una reunión con la prensa de los diarios Momento y Pulso. En dicha reunión no
aguante la tentación y di la información que me había proporcionado mi hermano, acerca
del redescubrimiento de yacimientos de oro en Cerro de San Pedro. Al siguiente día
apareció una nota con el encabezado: San Luis, potencia mundial en la producción de
fluorita y como subtítulo: Sin embargo, hace falta más apoyo para avanzar en el estudio
de su utilización. Un día después aparece en el periódico Pulso, edición del martes 9 de
enero de 1990 la nota: Descubren yacimiento de oro en Cerro de San Pedro. Firme
posibilidad de que resurja el otrora emporio minero. Ya en el cuerpo de la nota aparecía:
un nuevo yacimiento de oro fue descubierto hace un par de meses en el Cerro de San
983
El Hijo de El Cronopio No. 86
Pedro y una empresa particular realiza los estudios previos a la explotación, con la
finalidad de determinar si el descubrimiento es importante y resulta rentable. Esta
información, por lo pronto, no tuvo una repercusión inmediata. Los directivos de Peñoles
declinaron entrarle a explotarlo y cedieron la información oficial al gobierno del estado.
Para entonces la vida de Cerro de San Pedro, seguía transcurriendo en el mismo
desinterés cultural y social. Esa remota pero real oportunidad de que Cerro de San Pedro
fuera el nuevo emporio minero del estado, no importó a ningún sector de la sociedad. El
asunto cambia cuando el gobernador en turno Horacio Sánchez, en gira por Canadá
ofrece la información a empresarios canadienses, entregada por Peñoles, de la
potencialidad del yacimiento de oro encontrado en Cerro de San Pedro. Minera San
Xavier aprovecha la oferta ofrecida por el gobierno potosino y se viene todo un reclamo
de parte de sectores de la población oponiéndose a su explotación. Comienza a
publicitarse a Cerro de San Pedro como patrimonio histórico y a la iglesia del lugar como
una de las joyas arquitectónicas y culturales que encierran más de cuatrocientos años de
historia. Aparece entonces por arte de magia un letrero en el anillo periférico y en la
carretera central que anuncia, con flecha acusatoria Templo de San Pedro, aunque aún
hay que sacar las cabras de su interior. Sin embargo, Cerro de San Pedro, el verdadero,
no el de papel, sigue en el abandono total. Nace un grupo plural, ecológico y anexas que
defiende a capa y espada invaluable patrimonio. Se pierde sospechosamente un retablo
del siglo XVII o XVIII y también sospechosamente se “suicida” el alcalde en turno.
Continua el desgarramiento de camisetas, por un lado, en la defensa del patrimonio
histórico que representa Cerro de San Pedro; imagínense nuestra santa cuna, y por el otro
la defensa de un desarrollo económico para el estado y la población. Las posturas se
radicalizan, la UASLP participa en un estudio que evalúa el posible deterioro ambiental
y la factibilidad de una explotación “sana”. Al conocerse los resultados que la
universidad emite, se cuestiona su calidad y su honestidad. Mientras, Cerro de San Pedro
sigue en el olvido y abandono; digan lo que digan, los grupos en conflicto. En ese inter,
me decido ir a conocer el mentado Cerro de San Pedro, lo encuentro casi como lo
imaginaba, resulta extraño conocer mucho tiempo después el lugar en el que se forjó
nuestra ciudad. Al igual que muchos potosinos, incluidos quienes participan en el dime y
direte, simplemente no lo conocía. Tanto se pregona, en el caso del pueblo minero, la
defensa a la ecología y al patrimonio histórico, que resulta paradójico que en pleno
pueblo, en una especie cañón-arrollo que pasa justo enfrente al templo, una cantidad
exagerada de basura se acumule indiscriminadamente, mientras en la gran ciudad se
debate su suerte, alegando un futuro deterioro ecológico. En la pasada semana de pascua,
regresé con mi familia a Cerro de San Pedro y Monte Caldera, sólo para descubrir que
después de un año de alegatos, confrontaciones y movilizaciones de grupos ecologistas,
Cerro de San Pedro siga descaradamente inundado de basura plástica; basura que lejos de
disminuir se ha ido acumulando en su lecho; ahora Cerro de San Pedro se puede
“vanagloriar”, mientras continua la eterna discusión, de contar además del cerro de oro
con ese otro más abundante cerro de basura. Definitivamente existen dos Cerros de San
Pedro, el real sobre el que no hay interés de desarrollarlo y que poco importa, no sólo su
deterioro, tampoco su deteriorada imagen causada por la basura. El otro el de la disputa,
en el que poco importa el pueblo en sí, sólo lo económico y lo político.
984
El Hijo de El Cronopio No. 86
El Xoconoxtle (Personajes potosinos)/ Semos los colectiveros
El título es prestado por Les Luthiers, ese grupo argentino de extraordinario sentido del
humor y no menos extraordinarias dotes musicales. En su candonga de los colectiveros,
según Les Luthiers, un híbrido de candombe y milonga opus 61 de Johan Sebastian
Mastropiero, recrea humorísticamente las diarias faenas al volante que los chufas de, lo
que aquí llamamos, camiones urbanos realizan impunemente con su “arma” llamada
colectivo. Al parecer en todas partes se cuecen habas, pero no con la temperatura que en
nuestras tierras altiplanas. Para nadie es ajeno el viejo problema del servicio de
transporte urbano que padecemos en San Luis. En estas tierras la impunidad de quienes
manejan el asunto del transporte han invadido esferas ajenas a la calle. Quince días
estuve fuera de la ciudad, justo cuando aparecieron por nuestras calles los nuevos
camiones DINA custodiados por patrullas y polimotocicletas, como si sobrarán, y
cuestionados por el pulpo-mafia camionero, la leve ausencia no me permite estar
informado de la evolución de acontecimientos, pero recién observo una huelga de
hambre en plena Plaza de Armas, perpetrada por las “víctimas”, sufridos servidores de la
sociedad en su diario deambular por calles potosinas. De acuerdo al “servicio” que
ofrecen, como que no les queda tremendo teatro, independientemente de la situación
legal de la concesión otorgada a DINA de Guadalajara. Sistemáticamente los
permisionarios regatean con el gobierno del estado componendas a su favor e igualmente
en forma sistemática burlan los acuerdos para mejorar el servicio. Que se quitan los
relojes checadores, para disfrazarse con personal colocado a lo largo de la ruta checando
la hora en una discreta libreta; Que se elevan los pasajes sólo en los camiones
seminuevos, para con una manita de gato disfrazar las tartanas de camión seminuevo y
cobrar la cuota alta; Que se uniformarán a los choferes, para seguir con el trato déspota
que los caracteriza. En fin, sería cuento de nunca acabar, de toda esta situación he sido
testigo por treinta años, el servicio sigue siendo pésimo, a tal grado que los camiones
urbanos representan un serio peligro para transeúntes, ciclistas, usuarios y automovilistas
que le dan vida a esta ciudad, y como su impunidad llega a los planos legales, pueden
con toda comodidad arrollar autos y uno que otro peatón o ciclista. Ya lo dicen Les
Luthiers: Corro siempre nunca aflojo/con coraje y con valor/si el semáforo está en
rojo/acelero sin temor/Pero no me olvido el freno/yendo a gran velocidad/con el
colectivo lleno/que porrazo de verdad.
En lo particular he tenido que sufrir amargas experiencias, tanto como automovilista que
como usuario, no hablo del pasado sino del presente, de vez en cuando tengo que usar el
camión y convertirme prácticamente en ganado transportado por los individuos
uniformados de café. A los usuarios que les puedo decir, lo viven en carne propia, día a
día; como automovilista, también que les puedo decir, más de uno ha de haber sufrido la
experiencia de ver como se lanzan contra uno tremendos monstruos de seis llantas.
Recorren a alta velocidad las calles indiscriminadamente agrediendo a la población, por
más que trata uno de buscar la excepción es trabajo difícil; ahora ellos se sienten
agredidos al entrar en concesión DINA de Guadalajara, que se tiene la esperanza de que
repercuta en una mejora sustancial al servicio de transporte público y que por fin tenga
la población un servicio digno y seguro; al margen de la situación legal esta concesión
encierra una esperanza, verde como sus camiones que espero redunde en un giro en la
organización y en si en el servicio que actualmente prestan los permisionarios potosinos.
985
El Hijo de El Cronopio No. 86
Noticias de la Ciencia y la Tecnología
Nuevo satélite joviano
Los astrónomos han descubierto el primer satélite exterior de Júpiter nuevo en 25 años.
El programa Spacewatch, ideado para localizar de forma sistemática asteroides y
cometas, nos ha proporcionado un hallazgo inesperado. En octubre de 1999, el viejo
telescopio situado en Kitt Peak fue dirigido hacia una zona del cielo cercana a Júpiter,
precisamente cuando el planeta se encontraba casi en su fase de mayor proximidad
respecto a la Tierra.
Es en estos momentos cuando Júpiter brilla más para nosotros, lo cual es igualmente
cierto para sus satélites, mucho más débiles. Intentando aprovechar esta circunstancia,
Jim Scotti programó diversas observaciones durante el mes, con la esperanza de obtener
información interesante sobre el sistema joviano.
Las imágenes electrónicas resultantes fueron enviadas después al Minor Planet Center,
donde serían estudiadas con atención. La zona presentaba varios asteroides, y así fueron
catalogados en las publicaciones profesionales habituales.
Sin embargo, uno de los objetos, designado 1999 UC18, se movía de forma algo
diferente. Lo hacía como un cometa, pero no parecía serlo. Esto propició nuevas
observaciones de confirmación. Meses después, el pasado 18 de julio, el análisis de
imágenes anteriores a las de octubre de 1999 ayudaron a profundizar en su verdadera
naturaleza.
Las predicciones no parecían encajar si se consideraba que el objeto giraba alrededor del
Sol. Entonces se consideró la posibilidad de que estuviera orbitando Júpiter. En ese
momento, todo encajó. Se trataba de un satélite joviano. Lo más interesante, sin
embargo, es que no era ninguna de las lunas conocidas. Dado que no se encontraron
referencias a una observación anterior, el cuerpo recibió el nombre provisional de S/1999
J 1.
Los análisis sugieren que el nuevo satélite pertenece a un subgrupo de las lunas
exteriores de Júpiter, las cuales giran alrededor de éste en órbitas irregulares a una
distancia media de unos 22 millones de kilómetros, siguiendo períodos de traslación de
unos dos años. La influencia gravitatoria solar convierte en muy erráticas estas órbitas.
Además, los citados satélites giran en sentido contrario a los demás, de manera que
seguramente fueron capturados hace mucho tiempo.
S/1999 J 1 es el primer satélite exterior de Júpiter descubierto desde 1974. Las
observaciones de esta luna sólo cubren el período de un mes, así que serán necesarias
otras para confirmar su existencia y características. Cuando ello ocurra, podremos decir
que Júpiter posee al menos 17 satélites, el más pequeño de los cuales (quizá unos 4 ó 5
km de diámetro) sería el descubierto recientemente.
Información adicional en: http://cfa-www.harvard.edu/cfa/ps/pressinfo/S1999J1.html
Groenlandia es el modelo
Si lo que queremos es conocer el estado del clima global, bastará con prestar atención al
hielo que rodea a la mayor isla de la Tierra.
986
El Hijo de El Cronopio No. 86
Múltiples son los factores que influyen en los procesos que gobiernan el clima mundial.
Por eso, controlarlo y estudiar su evolución no es sencillo.
Sin embargo, los meteorólogos creen que existe un paraje donde el cambio climático
puede seguirse con total precisión. Los científicos, en efecto, sólo tienen que medir el
comportamiento del hielo que rodea a Groenlandia para hacerse una buena idea de lo que
está ocurriendo a nivel global.
Durante un proyecto dirigido por Bill Krabill, de la Wallops Flight Facility, un equipo de
investigadores ha podido comprobar que el área helada que rodea a la mayor isla del
mundo está disminuyendo su grosor. En algunos lugares, el ritmo es incluso de 1 metro
al año.
Los científicos saben que la desaparición del hielo está directamente relacionada con el
aumento de las temperaturas sobre la Tierra. La principal consecuencia será un
apreciable aumento en el nivel de los océanos.
Siguiendo estimaciones conservadoras, se piensa que se está produciendo una pérdida de
51 km cúbicos de hielo al año, suficiente como para elevar 0,005 pulgadas el nivel del
mar. Esta cifra es un 7 por ciento de la magnitud global y ella sola no supone un especial
peligro para las costas. Los científicos creen que los glaciares son el principal origen del
hielo que penetra en los mares.
A pesar de todo, las mediciones proporcionan suficientes pistas como para darnos cuenta
de que la pérdida de grosor en la capa de hielo es ya un hecho incontestable, el resultado
de un proceso de cambio que no podemos ignorar.
Groenlandia tiene el 85 por ciento de su superficie cubierta por hielo, el cual alcanza
grosores de hasta 3 km en algunos lugares. Su punta sur penetra en latitudes templadas,
de manera que la vigilancia de esta región es ideal para detectar inmediatamente cambios
climáticos.
Se ha precisado un período de siete años para levantar un mapa completo de la capa
helada que cubre esta isla. Se han empleado altímetros láser a bordo de aviones, que han
medido la zona desde 1993. El mapa tiene ahora el suficiente detalle y precisión como
para que sea posible detectar pequeños cambios de elevación, una clara indicación de los
procesos de deshielo. En el futuro, será el satélite ICESat, cuyo lanzamiento está previsto
en 2001, quien se encargará de la tarea, ocupándose tanto de Groenlandia como de la
Antártida.
Información adicional en: http://aol.wff.nasa.gov/aoltm.html
http://www.earth.nasa.gov
Imagen: http://svs.gsfc.nasa.gov/imagewall/greenland.html
El robot que se alimenta de carne
Los ingenieros han desarrollado un robot móvil que no consume combustibles fósiles o
de otro tipo sino alimentos convencionales.
Chew Chew es su nombre. Su aspecto es extraño: parece un tren de pequeñas
dimensiones, dotado de varios vagones. A diferencia de la mayoría de sus congéneres,
Chew Chew es un robot que prefiere la comida a los combustibles para obtener su fuente
de energía.
987
El Hijo de El Cronopio No. 86
Se le llama también gastro-robot y estará listo en agosto. Su "estómago" es una célula de
combustible microbiana (MFC), un dispositivo que utiliza una amplia población de
bacterias, en este caso la conocida E. coli, para descomponer la comida y convertir la
energía química en electricidad. La carne sería el alimento ideal, en términos energéticos,
aunque ello requiere de procesos de captura complejos que consumen a su vez demasiada
energía.
Para el robot, coger vegetación es más sencillo, pero ésta no es tan "nutritiva" como la
carne. Según su inventor, Stuart Wilkinson, de la University of South Florida, los
sucesores de Chew Chew podrían ser empleados para cortar hierba, siendo totalmente
autónomos.
En su forma presente, consiste en tres vagones, totalizando 12 ruedas, cada uno de los
cuales mide 1 metro de largo. Por ahora, el "estómago" es alimentado con azúcar. Las
bacterias lo asimilan bien y apenas producen desechos.
Son los microbios quienes producen enzimas que descomponen los carbohidratos. Cada
vez que rompemos una molécula de glucosa en otras más pequeñas, liberamos
electrones. Estos electrones se utilizan para alimentar una batería gracias a una reacción
de reducción/oxidación. El resultado es electricidad y un poco de agua y dióxido de
carbono.
Por supuesto, si el robot consumiera vegetación o carne, los desechos serían más
cuantiosos. Pero serán necesarios este tipo de alimentos ya que el azúcar no proporciona
suficiente energía como para que Chew Chew pueda moverse constantemente. Hay que
esperar a que las baterías se carguen en su totalidad antes de que funcionen los motores.
El futuro de los robots que se autoalimentan está cada vez más claro, pero aún falta
mucho tiempo para que podamos verlos en nuestros hogares. Por ejemplo, la energía
necesaria para mover un vehículo es demasiado elevada. En cambio, quizá podrían
usarse más fácilmente bajo el agua. Podríamos así imaginar un robot que se alimentase
de peces y que patrullara las costas para defenderlas de los tiburones. (New Scientist)
La forma de las proteínas
Los científicos se preguntaban desde hace mucho por qué las proteínas adoptan formas
en espiral. La respuesta a esta cuestión ayudará a identificar las funciones de las
proteínas humanas.
Jayanth R. Banavar, un profesor de física de la Penn State University, y varios colegas
americanos e italianos creen haber encontrado una explicación a la curiosa forma
adoptada por las proteínas, las cuales se estructuran como las espirales geométricas.
De hecho, dicha explicación se basa solamente en principios de geometría. Las proteínas
tienen el aspecto de filamentos en las que destaca una espina dorsal hecha con
aminoácidos. Son el producto de genes y también la materia estructural de las células y
los tejidos. Como cualquier herramienta, la forma de cada proteína juega un importante
papel a la hora de determinar su función. Así, Banavar y sus compañeros han preguntado
en lenguaje matemático qué forma puede llevarnos a ciertas propiedades conocidas de las
proteínas.
Muchas secuencias de aminoácidos se retuercen siguiendo las mismas o similares
estructuras, lo que sugiere que éstas tienen más importancia que la propia secuencia de
988
El Hijo de El Cronopio No. 86
aminoácidos. Por tanto, es lícito preguntarse por qué las proteínas adoptan unas formas
concretas en cada caso y no otras. Los investigadores han formulado diversas cuestiones
matemáticas sobre su forma óptima de trabajo, incluyendo el máximo espacio posible
alrededor de cada aminoácido. Para cada cálculo, la respuesta fue una hélice espiral.
La espina dorsal de una proteína necesita ser compacta para poder mantener fuera de su
región central a las moléculas de agua. También necesita tener suficiente espacio para
que sus componentes atómicos pueden estar dispuestos a lo largo de su estructura,
incluyendo un poco de espacio extra para facilitar el movimiento. Una vez calculada la
forma que suponga un compromiso aceptable para cumplir estos requisitos, ésta resulta
ser asimismo una hélice.
La forma de hélice espiral, pues, ocurre de forma natural en las proteínas, ya sea desde el
punto de vista químico como desde el punto de vista geométrico. Los motivos
secundarios de la estructura, como la forma de hélice, parecen proporcionar a las
proteínas muchas más opciones para unirse entre ellas, de manera que los procesos de
plegado pueden efectuarse con mayor rapidez.
Información adicional: http://www.psu.edu/ur/2000/banavarsci.html
La ecología también puede ser una fuente de riqueza
Empresas y ecologistas no siempre se ponen de acuerdo sobre el valor real de los
escenarios por los que unos y otros discuten. Proteger la belleza o explotarla parecen
eternamente enfrentados. Las cosas quizá cambiarían si se pudiese otorgar valor
económico a la labor de los defensores del medio ambiente.
Cuando está en juego la supervivencia de una selva amazónica auténtica, los argumentos
que se barajan suelen mantenerse enfrentados. Mientras que los ecologistas mantienen
que el paraje debe ser protegido a toda costa para preservar su inherente belleza, la
compañía que trata de explotarlo contraataca afirmando que su valor real se encuentra
única y exclusivamente en su madera.
El valor económico de una selva, por tanto, es muy difícil de calcular, pues depende del
punto de vista que se emplee para tasarlo. Las cosas podrían sin embargo cambiar de
forma radical si la tarea de la conservación propugnada por los ecologistas fuera algo
económicamente lucrativo.
Según la bióloga Gretchen C. Daily, el tiempo del que dispone la Tierra se acaba y
aquellos que deseen salvarla deberán crear incentivos económicos para que esto sea
posible. Es decir, habría que recompensar a las personas para que se preocupen de la
protección de los bienes medioambientales. Así, el enfrentamiento de las dos posturas,
ambas utilizando criterios económicos, tendría un marco de negociación más adecuado.
Daily es directora del Tropical Research Program en el Center for Conservation Biology
de la Stanford University. Su teoría es clara: los ecosistemas mundiales se han convertido
en bienes capitales. Si se dirigen de manera apropiada, pueden producir un interesante
flujo de servicios vitales, incluyendo productos como la pesca o la madera, procesos de
apoyo a la vida como la polinización y la purificación de agua, o condiciones para
fomentar la satisfacción humana (belleza y serenidad).
A diferencia de otras formas de capital, los ecosistemas no están bien estudiados, están
peor vigilados y en muchos casos están sufriendo una rápida degradación y/o
989
El Hijo de El Cronopio No. 86
agotamiento. A menudo, la importancia de los servicios que proporcionan los
ecosistemas sólo son apreciados ampliamente cuando ya se han perdido.
En Australia y Costa Rica existe una cierta voluntad por evitar que esto ocurra. Por
ejemplo, la firma Earth Sanctuaries cotiza ya en la bolsa australiana. Valorada en 25
millones de dólares, la empresa compra tierras y restaura la vegetación nativa y la vida
salvaje, consiguiendo ingresos a partir del turismo, la consultoría o la información. Para
ello tuvo que luchar para cambiar las leyes, ya que los animales de los territorios
adquiridos no estaban considerados como bienes.
Otra compañía, Sydney Futures Exchange (SFE), hace negocios mediante sus "créditos
de carbono". Así, si una empresa acuerda comprar y proteger un bosque australiano, SFE
calculará cuánto dióxido de carbono podrá éste absorber de la atmósfera. El benefactor
recibirá entonces un crédito de carbono, autorizado por las Naciones Unidas, que
permitirá a sus fábricas emitir una cantidad equivalente de CO2.
Desde 1997, el gobierno de Costa Rica ha estado pagando a los propietarios de tierras
que protegen la biodiversidad y las masas de agua, fomentando además su belleza. Las
cifras barajadas son de unos 20 dólares al año por acre, y se financian en parte por un
impuesto especial sobre los combustibles fósiles. El resultado ha sido una restauración y
conservación boscosa considerables.
A nivel mundial, algunos ecosistemas ya están siendo protegidos porque ayudan a
controlar las inundaciones, filtrar el agua, mejorar la fertilidad del suelo, estabilizar el
clima, etc. Estos esfuerzos son recompensados mediante mecanismos financieros
innovadores, y su variedad seguramente crecerá en los próximos años.
En 1996, la ciudad de Nueva York decidió invertir 1.500 millones de dólares en restaurar
las montañas Catskill para conseguir mejorar la calidad del agua potable, en vez de
gastar hasta 6.000 millones en nuevas instalaciones de tratamiento. Esta es
probablemente la vía a seguir.
Otorgando el valor económico adecuado a la conservación de los ecosistemas, más allá
de otros criterios más o menos románticos, se garantizará que la Tierra afronte en
mejores condiciones su futuro. Los ecologistas han empezado a ser más prácticos. A los
argumentos habituales se une ahora la economía, un arma formidable que hasta ahora no
se tenía en cuenta.
Daily sugiere cuatro pasos básicos para calcular el valor de un ecosistema. Primero es
necesario hacer una lista de los bienes y servicios de los que dependemos para
sobrevivir. Después, hay que determinar cuáles son los más amenazados. En tercer lugar,
se debe averiguar cómo afectaría a la sociedad su pérdida (no sólo en dólares sino
también en términos de bienestar humano). Por último, una vez los riesgos hayan sido
definidos, la gente de todas las capas de la sociedad deberían trabajar unidos para crear
incentivos que propicien la protección de los elementos más críticos del ecosistema.
Información adicional en: http://www.stanford.edu/dept/news/pr/00/ecovalue726.html
Imagen: http://www.stanford.edu/dept/news/pr/gifs/ecosystems_daily_200.jpg
(La especialista Gretchen Daily.) (Foto: Stanford U.)
http://147.238.100.101/Fkcs/_borders/costa_rican_rainforest.jpg
(La selva de Costa Rica.) (Foto: Fort Knox High School)
990
El Hijo de El Cronopio No. 86
Nueva teoría del desarrollo del esqueleto
Los tejidos que dan lugar a los huesos que conforman el cuerpo humano obtienen la
información que necesitan para ello de un lugar inesperado.
Los médicos y científicos en general pensaban hasta ahora que tanto el cartílago
embriónico como los dedos y las extremidades son sistemas que se desarrollan de forma
independiente y que se diferencian autónomamente. No obstante, nuevos experimentos
desmienten esta hipótesis y permiten poner en pie una teoría de mayor alcance.
Los investigadores de la University of Wisconsin Medical School han estado estudiando
cómo se desarrollan los dedos de las patas de los pollos cuando éstos aún se encuentran
en el interior del huevo. Utilizando microcirugía, han descubierto que el futuro carácter
único de cada dedo embriónico viene determinado por el tejido situado junto a él. Hasta
ahora se consideraba que este tejido interdigital, que desaparece antes del nacimiento,
tenía poca importancia. Lo cual es interesante, ya que en la mayoría de las especies, su
desaparición venía dada por una muerte celular programada, única forma de separar cada
dedo de los demás.
Ha sido una sorpresa averiguar que el cartílago que formará el esqueleto consigue la
información sobre lo que acabará siendo a partir del tejido blando que lo rodea. Esta
información permitirá la aparición de las estructuras oportunas, como un pulgar o un
meñique, o un hueso de mayores dimensiones.
Durante los experimentos, se han encontrado niveles específicos de una sustancia
llamada proteína morfogénica ósea (BMP), la cual es producida por las células situadas
en la red interdigital y que juega un papel crucial a la hora de determinar las
características concretas (identidad) de cada dedo.
La identidad de cada dedo, entonces, se determina progresivamente a medida que se
produce su desarrollo. Cada uno de los tejidos interdigitales que se hallan entre los
futuros dedos proporciona las instrucciones necesarias al dedo anterior, en dirección al
pulgar.
Para comprobarlo, los investigadores dividieron por la mitad uno de los dedos
embrionarios de un pollo, insertando una pieza de metal entre las dos partes. Siguiendo
la teoría en boga, cada una de ellas debería contener la misma información posicional y
por tanto desarrollarse como dos dedos separados con la misma identidad. Pero para
sorpresa de todos, una mitad formó el dedo que se suponía debería aparecer y la otra
transformó su identidad en la del siguiente. En términos humanos, si dividimos un dedo
índice, la mitad más próxima al dedo corazón o central se convertirá en un dedo índice y
la otra mitad, más cercana al pulgar, en un pulgar.
El siguiente paso fue investigar las moléculas que el tejido interdigital puede usar para
enviar sus mensajes a los futuros dedos. Manipulando los niveles de proteína BMP, los
científicos pudieron transformar las identidades de los dedos más cercanos. La
observación implica que el embrión en desarrollo usa las BMP para influir en la forma
que las estructuras individuales obtendrán su propia identidad, ya sean dedos, vértebras,
dientes u otros elementos.
Es incluso posible que el desarrollo preciso de todos los elementos del esqueleto en el
cuerpo requiera la participación del tejido que los rodea. Esta información podría ser
clínicamente útil a la hora de proporcionar nuevos avances en la detección y tratamiento
991
El Hijo de El Cronopio No. 86
de enfermedades genéticas relacionadas con el esqueleto, reparación y reemplazo de
cartílago y hueso.
Siendo un poco más ambiciosos, los investigadores podrían tratar de entender mejor el
proceso con el objetivo de intentar la regeneración de dedos humanos perdidos durante
una amputación traumática.
Los equipos que han llegado a estas conclusiones no se encuentran en este campo de
investigación desde tiempos recientes. Algunos llevan 30 años explorando cómo se
especializan los tejidos durante el desarrollo del embrión y analizando la forma en que
los dedos asimétricos emergen y se convierten en fijos, ya sea en tortugas, reptiles o
humanos.
Información adicional en: http://www.news.wisc.edu/thisweek/view.msql?id=5109
Imagen: http://www.cc.gatech.edu/projects/large_models/images/hand/hand.lg.jpg
(Modelo de los huesos de una mano.) (Foto: Clemson University)
http://www.cc.gatech.edu/projects/large_models/images/hand/hand.lg.jpg
(Esqueleto óseo de un hombre.) (Foto: Georgia Tech)
El giro del pulsar
El radiotelescopio Lovell ha descubierto un púlsar cuyo movimiento especial permitirá a
los astrónomos conocer mejor cómo es este tipo de estrellas muertas.
Un púlsar es una estrella de neutrones, un resto extremadamente denso que es el
resultado de una explosión supernova. De la estrella original sólo queda un objeto muy
pequeño, de unos 20 km de diámetro, pero con una masa millones de veces superior a la
de la Tierra. El proceso de su formación obliga a la estrella de neutrones a girar muy
velozmente, como una peonza, y a hacerlo con una regularidad muy exacta, hasta el
punto que pueden ser empleados como verdaderos relojes cósmicos. Un púlsar, además,
produce sendos chorros de radio-ondas desde sus polos magnéticos, exactamente como
lo haría un faro óptico. Cuando uno de estos rayos alcanza la Tierra, los radiotelescopios
reciben un pulso periódico de radiación que puede ser detectado y estudiado.
El personal de uno de los observatorios más famosos del mundo, el Lovell Telescope del
Jodrell Bank Observatory (un radiotelescopio de 76 metros de diámetro), gestionado por
la University of Manchester, ha estado analizando con mucha atención los datos
obtenidos durante 13 años de un púlsar especialmente interesante. Se trata del PSR
B1828-11, una estrella de neutrones que gira sobre su eje 2,5 veces por segundo. A
diferencia de otros púlsares, muestra un movimiento superpuesto de precesión que se
desarrolla con un período de unos 1.000 días. Dicho movimiento es parecido al que
experimenta la parte superior de una peonza o un giroscopio.
Esta precesión tiene dos manifestaciones: por un lado, la forma del pulso observado
varía, y por otro, el tiempo entre los pulsos también cambia, haciéndose a veces más
largo, y en otras más corto.
Este fenómeno está dando algunas pistas a los astrónomos sobre las características del
púlsar. Por ejemplo, el objeto no ya no puede ser perfectamente esférico. Se trata, no
obstante, de una diferencia muy pequeña (sólo 0,1 milímetros frente a una esfera perfecta
de 20 km de diámetro). En la Tierra, tal diferencia implicaría apenas las dimensiones de
una "montaña" de 3 cm de altitud.
992
El Hijo de El Cronopio No. 86
Por eso, lo sorprendente del fenómeno no es lo pequeño que pueda llegar a ser, sino que
pueda ser descubierto desde nuestro planeta. Las teorías actuales sugieren que un púlsar
está hecho principalmente por un superfluido de neutrones, con una corteza sólida. La
interacción del superfluido y la corteza deberían eliminar cualquier precesión de forma
muy rápida. Dado que el púlsar observado tiene unos 1.000 años de antigüedad, los
astrofísicos deberán volver a examinar sus teorías e intentar explicar el por qué del
movimiento observado.
Información adicional en:
http://www.jb.man.ac.uk/news/neutronstar/
Imagen:
http://www.jb.man.ac.uk/news/neutronstar/neutronlarge.gif
(La estrella de neutrones.) (Foto: University of Manchester/M. Kramer)
http://www.jb.man.ac.uk/news/neutronstar/neutronstar.gif
(Animación del movimiento del púlsar.) (Foto: University of Manchester)
http://www.jb.man.ac.uk/research/seti/Lovell.jpg
(El radiotelescopio Lovell.) (Foto: University of Manchester)
La Ciencia desde el Macuiltépetl/ Las dos culturas
Por Manuel Martínez Morales
Para los griegos, la creación de una obra de arte era el producto de dos actos
inseparables: mimesis y methexis. La mimesis corresponde al acto de imitar, de recrear
lo visto, lo sentido, lo vivido; y la methexis, al acto mediante el cual el artista se
compromete con la realidad, se compenetra de ella para así poder representar no sólo la
forma, sino también la esencia, lo sustancial de lo representado en su obra.
Con el paso del tiempo, esos dos actos han sido tajantemente separados, a tal grado que
en muchas ocasiones se llama arte al simple ejercicio de una técnica, al llano
simbolismo, al elemental dominio de un método.
De la misma manera, se han separado dos modos de abordar la realidad por el hombre,
modos que en su esencia deben ser inseparables. Me refiero a lo que se ha dado en llamar
las dos culturas. Por una parte se tiene el núcleo de las humanidades que incluyen las
artes, la literatura, la filosofía, etc., y, por otro lado, se ubica a las ciencias con sus fríos
modelos e insensibles máquinas. Para las humanidades existen valores éticos y estéticos,
esto es, la moral, la belleza y la justicia; pareciera que las ciencias dentro de la
concepción moderna tienen que ser, a tal grado, “objetivas” que no deben permitir en sus
dominios los juicios de valor .
Esta situación se refleja obviamente en las características psicológicas y hábitos de
quienes se han formado en una u otra cultura. Le sugiero una experiencia interesante:
invite a tomar café a un “humanista” y a un “científico”; plantéeles un tema de
conversación cualesquiera y note su manera de hablar, de juzgar, de analizar y de
exponer conclusiones. En el fondo, la separación entre lo humanístico y lo científico es
artificial y conlleva serios riesgos si no es superada adecuadamente.
Más de uno de los grandes científicos de nuestra era ha dicho que no sólo buscaba que su
teoría fuese correcta, sino que, además, fuera bella. Bella en el sentido de que presentara
regularidades en su estructura, ciertas simetrías.
993
El Hijo de El Cronopio No. 86
Un destacado divulgador de la ciencia, J. Bronowsky, dice:
Uno de los prejuicios contemporáneos más nefastos ha sido el que el
arte y la ciencia son cosas diferentes y en cierto modo
incompatibles. Hemos caído en el hábito de contraponer el sentido
artístico al científico; incluso los identificamos con una actividad
creadora y otra crítica. En una sociedad como la nuestra, que
practica la división del trabajo, existen naturalmente actividades
especializadas como algo indispensable. Es desde esta perspectiva,
y sólo desde ella, que la actividad científica es diferente de la
artística. En el mismo sentido, la actividad del pensamiento difiere
de la actividad de los sentidos y la complementa. Pero el género
humano no se divide en seres que piensan y seres que sienten, de ser
así no podría sobrevivir mucho tiempo. (El sentido común de la
ciencia, Península, 1978)
Hay que agregar que no sólo se ha contrapuesto el arte a la ciencia, sino que tal
contraposición se ha hecho extensiva a muchos dominios de las humanidades.
Desde luego que la creatividad, esencial en cualquier arte o ciencia, exige un cierto grado
de especialización. Conjuntar nuevamente mimesis y methexis no implica formar
“todólogos”, es decir, no se necesita se músico profesional para disfrutar y apreciar la
buena música, ni es necesario ser científico para estar al tanto de los adelantos de la
ciencia, lo que se requiere es una reintegración de esos aspectos de la actividad del
hombre.
El divorcio entre humanidades y ciencias está enraizado, en última instancia, en la
enajenación que produce un sistema fincado en la división de la sociedad en clases y en
la explotación del trabajo humano. Para los fines de tal sistema, el hombre tiene que ser,
debe ser, parcelado, es decir, mutilado, y solamente debe atender al desarrollo de
aquellas facultades que son directamente útiles en la producción. Además, no produce
para sí, sino para satisfacer los requerimientos de un mercado lejano y abstracto. El
productor, obrero, artista o científico, siente que su obra encierra poderes que lo
dominan, que poseen una suerte de vida propia.
Se habla del arte, de la ciencia, de la filosofía como entidades con vida autónoma que
dictan leyes para ser obedecidas por los hombres. Lejos estamos todavía de entender que
esas grandiosas obras del arte, de la ciencia y de la filosofía, son producto de la actividad
humana y que es el hombre mismo quien puede darles el sentido apropiado para que esas
obras sean verdaderas fuentes de satisfacción, de belleza, de entendimiento y de paz.
Así, lo que muchos deseamos y todos necesitamos es que llegue el día en que no haya
más obreros pintores o científicos, sino simples hombres que, entre muchas otras cosas,
produzcan, pinten o hagan ciencia.
El Cabuche (crónicas de la Facultad de Ciencias)/ Esos pioneros
La física, como disciplina es nuestro país es joven, y por lo tanto lo son la mayoría de los
profesionales que la cultivan (también existimos más jóvenes aún). A principios de los
años cincuenta comenzaron a fincarse instituciones de formación de estos nuevos
ejemplares de la ciencia en provincia. Puebla y San Luis figuran entre estas instituciones.
De aquellos personajes que contribuyeron a su consolidación han y están pasando de
994
El Hijo de El Cronopio No. 86
jóvenes a personas mayores y eventualmente dejan este mundo; aunque, existen
lamentables casos de accidentes que, prematuramente, han dejado a la física sin sus
valiosas contribuciones. El 26 de mayo Virgilio Beltrán López fue vencido por el cáncer,
yéndose así uno de los pioneros de la física en provincia. Virgilio Beltrán formó parte de
ese importante grupo de físicos que a principios de los sesenta engalanaba a la
universidad poblana. Junto con Eugenio Ley Koo y García Colín, entre otros, se
desarrollaban en ese ambiente difícil y hasta hostil que representa emprender trabajos de
investigación en entornos un tanto cerrados, muy propios de universidades y sociedades
conservadoras. En aquellos tiempos el ímpetu de la universidad poblana contrastaba con
su mojigata sociedad. Consecuencia de esas confrontaciones fue la total destrucción (así
literalmente) de la escuela de física, a manos de los retrogradas caballeros de colón (no
merecen ponerles mayúsculas). La ahora Facultad de Ciencias Físico-Matemáticas de la
UAP ha sabido reponerse a esos obstáculos y figura como una de las instituciones
importantes del país. En San Luis la facultad ha tenido que enfrentarse a ese tipo de
presiones, aunque de forma más sutil; aunque en número de profesores e investigadores
no podemos compararnos con la facultad poblana, su desarrollo en épocas tempranas fue
tan glorioso como el caso de Puebla; tan glorioso que podemos vanagloriarnos de que en
nuestras aulas se formó el primer grupo de física experimental en provincia y que tal
grupo alcanzó niveles insospechados en aquella época, no igualados sino hasta la época
actual. Gustavo del Castillo y Gama, fundador de la escuela y de la física en San Luis,
apenas el quinto doctorado en física de México, formado, como los anteriores, en el
extranjero, jugo un papel clave. Ante los embates del centro, poco es conocido su papel y
contribuciones, tanto a la física como disciplina, como a la formación y consolidación de
grupos de investigación en provincia. Se hace necesario destacar el papel de estos
pioneros. Por lo pronto los trabajos del XVIII Concurso Regional de Física y
Matemáticas, mejor conocido como Fis-Mat, está dedicado a Gustavo Del Castillo y
Gama como un modesto y justo reconocimiento a su labor. Labor que contradice, al igual
que el mural plasmado en un bar por el rector de Cuénamo, en la novela de Jorge
Ibargüengoitia “Estas ruinas que ves”, que fue maravillosamente llevada a la pantalla
grande y difundida por la chica, en una película del mismo nombre. En el mural el rector
(en la película encarnado por Rafael Banquels, el famoso gutierritos, que no pertenecía al
HUMO, esa sociedad de nuestra facultad que reúne a los maridos oprimidos y de la cual,
sobra decir, formo parte) pintó figuras de la ciencia que evolucionan en imágenes desde
cuando el hombre fue primate hasta culminar en Einstein, posados sobre un colorido
arcoiris que representa la luz, mientras que en la parte inferior aparece un grupo de
personajes con garrotes que aseguran, aunque el mundo les demuestra lo contrario: “La
ciencia no existe” y firman C.C. Cuando interroga al rector uno de los profesores que lo
acompaña en la faena, qué significa C.C., éste explica, -la frase, la firman los caballeros
de colón.
Siempre que se hace una historia/Se habla de un viejo,
de un niño, o de sí,/pero mi historia es difícil/no voy a
hablarles de un hombre común/haré la historia de un
ser de otro mundo/de un animal de galaxia./Es una
historia que tiene que ver/con el curso de la Vía
Láctea,/es una historia enterrada/es sobre un ser de la
nada
995
Boletín
El Hijo de El Cronopio
Facultad de Ciencias
Universidad Autónoma de San Luis Potosí
No.87, 21 de agosto de 2000
Boletín de información científica y
tecnológica de la Facultad de Ciencias
Publicación semanal
Edición y textos
Fís. José Refugio Martínez Mendoza
Parte de las notas de la sección Noticias de la
Ciencia y la Tecnología han sido editadas por
los españoles Manuel Montes y Jorge
Munnshe. La sección es un servicio de
recopilación de noticias e informaciones
científicas, proporcionadas por los servicios de
prensa de universidades, centros de investigación
y otras publicaciones especializadas.
Cualquier información, artículo o anuncio deberá
enviarse al editor. El contenido será
responsabilidad del autor.
e-mail: flash@galia.fc.uaslp.mx
Números anteriores del boletín (La Ciencia en
San Luis del 1 al 45), pueden consultarse por
Internet en la página de la UASLP:
http://phobos.dtc.uaslp.mx/publi.html
Una columna de
silencio:
Las lobas andan sueltas
El Hijo de El Cronopio No. 87
Darwin regresa a la escuela
La teoría darwiniana sobre la evolución
de las especies reaparecerá en los
programas de estudio de las escuelas
públicas de Kansas, EU, para felicidad de
varios organismos científicos estadounidenses.
La reaparición surge luego que la oficina
de educación de Kansas votara, en el
verano pasado, por la supresión de la enseñanza de la teoría de Darwin, en una decisión
que era hasta ahora una victoria para la comunidad fundamentalista cristiana, a favor de
creacionismo, teoría fundada en una interpretación literal de la Biblia sobre los orígenes
del mundo.
Organismos como el Instituto estadounidense de Física (AIP, por sus siglas en inglés), la
Asociación Estadounidense para el Progreso de la Ciencia (AAAS) o la Unión
Estadounidense de Geofísica (AGU), saludaron este avance.
El plan estatal afectaba todos los niveles de estudio, desde el inicial al secundario, que
actualmente no hace prácticamente mención de los conceptos ligados a la teoría de la
evolución (selección natural, genealogía de las especies) ni a los orígenes del Universo
(Afp).
Noticias de la Ciencia y la Tecnología
El control de la capa del ozono, ¿da resultado?
Que hay ciertos productos químicos producidos por el Hombre que destruyen la capa del
ozono es algo que está demostrado científicamente. Pero, las medidas que se han
empezado a implantar para evitarlo, y que cuestan más dinero a los consumidores, ¿están
funcionando realmente?
La paulatina desaparición de los CFCs, y en particular el cese de la utilización de gases
como el freón, que al ser liberados en la atmósfera atacan la molécula de ozono y
destruyen la capa que nos protege de los efectos perniciosos de los rayos ultravioleta,
está implicando una carga económica considerable sobre el consumidor. Los CFCs se
usan no sólo en sistemas de refrigeración, sino en muchos otros campos, como el
empaquetado, los sprays, etc. Su sustitución por otros gases no perniciosos para la capa
del ozono incrementa los costes de investigación y explotación, así que a todos nos
interesa saber si ese dinero que estamos pagando de más realmente está valiendo la pena.
Pues bien, los especialistas creen que así es. Los sofisticados instrumentos de medida que
se emplean para comprobar el estado de la capa del ozono han empezado a mostrar
síntomas de que, a ciertas altitudes, se están produciendo ya cambios interesantes.
Si comparamos imágenes tomadas desde satélite de la zona antártica (tras el récord de
extensión experimentado por el agujero en septiembre de 1998) con otras tomadas ahora,
997
El Hijo de El Cronopio No. 87
éste se muestra algo más pequeño un año después. Sin embargo, sigue en pie el debate
sobre la naturaleza y momento exacto de la recuperación esperada de la capa del ozono.
De momento, se han detectado cambios en la carga de halógenos, pero no está claro si su
disminución afectará al ozono a largo plazo.
Para detectar las concentraciones de ozono en la atmósfera, los científicos han utilizado
cuatro sensores TOMS a bordo de satélites desde 1978. Estos sensores proporcionan a su
vez cuatro productos: la columna de ozono total, el índice de aerosoles, el grado de
exposición a los rayos ultravioleta y la reflectividad.
A diferencia del gas oxígeno normal, que tiene dos átomos, el ozono posee tres átomos
de oxígeno. Forma además una fina capa en la alta atmósfera que protege a animales y
plantas de la radiación ultravioleta nociva. También podemos encontrar ozono cerca de
la superficie de la Tierra (normalmente producido por las actividades humanas), pero
entonces éste se convierte en un peligroso contaminante si se halla en altas
concentraciones.
Por su parte, los aerosoles son partículas microscópicas de polvo, humo o ceniza. Los
volcanes, la deforestación, las tormentas de los desiertos y los incendios, tanto naturales
como inducidos por el Hombre, pueden generarlos.
En cuanto a la exposición a los rayos ultravioleta (UV), ésta se mide en función de la
cantidad de radiación que atraviesa la atmósfera y alcanza el suelo. Medida por el TOMS
en términos de kilojulios por metro cuadrado, es la intensidad de la radiación UV solar
que alcanza a las plantas y la vida animal después de haber sido filtrada por el ozono
estratosférico, las nubes y los aerosoles, multiplicada por sus daño biológico potencial.
Por último, la reflectividad se deriva del porcentaje de luz solar reflejada por la
superficie terrestre que llega al instrumento de medida. Cualquier objeto o superficie
refleja luz, incluyendo el suelo, el agua, el hielo, la vegetación y las nubes. Estudiando el
porcentaje de luz, los investigadores pueden determinar la reflectividad de las nubes y
observar diferentes fenómenos meteorológicos sobre tierra o mar.
Obteniendo las magnitudes de todos estos conceptos, el TOMS está considerado hoy en
día como el instrumento estándar para el estudio del ozono. Tanto es así que siempre
debe haber alguno de ellos en órbita. La página web que describe los resultados que
obtiene permite al usuario consultar localidades geográficas concretas, incluyendo el
nivel de ozono, la exposición ultravioleta y comparar niveles con otros puntos del globo.
Las cifras de aerosoles estarán disponibles en el futuro.
Para confirmar que los resultados enviados por los TOMS son correctos, los científicos
lanzan globos con ozono-sondas, que realizan mediciones locales a hasta 35 km de
altitud. Los lanzamientos se realizan desde zonas estratégicas y además sirven para
capturar medidas de temperatura, humedad, etc.
Todo ello nos ayuda a mantener una vigilancia estricta que nos mostrará si el ozono se
está recuperando o no, confirmando la efectividad de las medidas tomadas a nivel
mundial. A pesar de todo, el trabajo científico no habrá finalizado aún. A los
investigadores les interesa saber si la recuperación sigue los modelos matemáticos
desarrollados, o si es más rápida o más lenta. Además, debido a las complejas
interacciones atmosféricas de los incrementos del CO2 , que provocan cambios
climáticos, la recuperación de la capa del ozono podría no ser tan rápida como nos
gustaría.
Información adicional en: http://svs.gsfc.nasa.gov/~gshirah/toms/
998
El Hijo de El Cronopio No. 87
http://toms.gsfc.nasa.gov/; http://toms.gsfc.nasa.gov/fltmodel/satpage.html
http://hyperion.gsfc.nasa.gov/Data_services/shadoz/
http://science.nasa.gov/headlines/y2000/ast26jun_1m.htm
Imagen: http://science.nasa.gov/headlines/images/ozone/ozone03oct99.jpg
(El color azul denota el agujero en la capa del ozono de la zona antártica.) (Foto: NASA)
http://science.nasa.gov/headlines/images/ozone/aerosols_strip.gif
(Distribución de aerosoles.) (Foto: GSFC)
http://science.nasa.gov/headlines/images/ozone/uvexposure_med.gif
(Distribución de la reflectividad.) (Foto: NASA)
http://science.nasa.gov/headlines/images/ozone/O3Sonde4.JPG
(Globo sonda para el ozono.) (Foto: UAH)
Energías alternativas, negocio a la vista
De la necesidad puede surgir a veces un potencial económico inesperado. La búsqueda
de sistemas de explotación de energías alternativas goza de grandes perspectivas. Cuando
éstos sean requeridos a gran escala, las empresas que más hayan invertido en ellos se
convertirán en las compañías petroleras del futuro.
El petróleo no va a durar eternamente, por eso ahora es el momento de emprender
iniciativas orientadas a perfeccionar motores eléctricos o de otro tipo para coches, a
buscar posibles combustibles sintéticos de bajo coste, o a abordar soluciones
imaginativas hoy difíciles de prever. Investigar en estos campos, o como mínimo,
fabricar paneles solares, aerogeneradores, y otros dispositivos tendentes a un mejor
aprovechamiento de los recursos energéticos, puede ser la llave para hacer grandes
negocios en los próximos años.
Bastantes son los conceptos de viabilidad factible que hoy se preparan para competir
entre sí con el objetivo de robarle el monopolio a los motores convencionales basados en
el petróleo o sus derivados. De todos ellos, el motor eléctrico aparenta ser el más firme
candidato a hacerse con una porción del mercado antes que los demás. Su uso habitual en
vehículos de carga dentro de almacenes demuestra la solidez técnica del diseño básico.
Los primeros prototipos de coches eléctricos que ya han sido fabricados por marcas bien
conocidas también auguran un excelente resultado para dicha iniciativa.
El motor eléctrico no debe verse forzosamente como un competidor del de petróleo. La
idea de un coche híbrido, que reúna a ambos para utilizar uno u otro según convenga,
está ganando muchos adeptos y además parece una opción sensata de transición o
combinación. La motivación de un automóvil híbrido es aprovechar lo mejor de cada
motor en cada circunstancia. Por ejemplo, para trayectos cortos como los efectuados
dentro de una ciudad el eléctrico resultaría ideal, mientras que para largos viajes a través
de autopista el que consume derivados del petróleo ofrecería un perfil óptimo.
La locomoción mediante motores químicos no debe, a pesar de todo, ser desestimada
como futuro terreno de nuevos desarrollos competitivos. La obtención a bajo coste de
combustibles sintéticos es una meta difícil, pero sin duda de un valor incalculable. La
industria química no es la única que puede acometer con éxito esta empresa. El nuevo
campo de la biotecnología está dando constantes sorpresas, y la obtención de un sistema
rentable para la creación de esos combustibles milagrosos mediante el uso de
microorganismos productores, no parece en modo alguno una utopía.
999
El Hijo de El Cronopio No. 87
El motor más atractivo por sus inmejorables prestaciones y por la abundancia
extraordinaria de su combustible está sin embargo aún lejos de las posibilidades de las
técnicas actuales. Se trata del motor de hidrógeno, llamado también motor de agua por
obtener de ella dicho elemento, y envuelto en sus inicios en un cierto clima de leyenda, al
parecerse a la piedra filosofal de los alquimistas. En efecto, un motor que utilice
hidrógeno puede extraerlo del agua, con lo cual, para poner en marcha nuestro coche
podría bastar con llenar su depósito con este líquido. La factura, en todo caso, sería
mucho más barata que la de la gasolina. No obstante, aunque válido, este concepto es
sólo teórico en su supuesto ahorro. La tecnología requerida para un motor de coche
alimentado por hidrógeno es aún prohibitiva tanto por su complejidad y espacio ocupado,
como por su precio. Aunque el hidrógeno es un combustible usado en el campo
aeroespacial para motores-cohete, adaptarlo para su uso en vehículos de superficie es un
enorme reto que sin duda ocupará décadas de investigación y desarrollo.
Por su parte, la energía solar está destinada a ocupar un puesto de primera magnitud en el
mercado futuro de las energías alternativas. Su carácter de fuente inagotable y el firme
progreso tecnológico que su aprovechamiento registra año tras año la sitúan ahora en el
inicio de una espectacular expansión futura.
Por un lado, el coste de los paneles solares y sus accesorios disminuye cada vez más,
haciendo viable para particulares disponer de una instalación casera privada. Por otro, la
eficiencia de los paneles también está experimentando importantes saltos tecnológicos.
Hasta hace poco, era en el medio rural donde mayor implantación se registraba, pero
cada vez resulta más habitual ver paneles solares cubriendo tejados en la ciudad.
La energía solar se ha demostrado ya capaz de proporcionar electricidad a gran escala,
con lo cual los paneles fotoeléctricos no son ya sinónimo de instalaciones de potencia
ínfima, capaces tan sólo de abastecer una vivienda. Las centrales eléctricas solares que
ya funcionan en el mundo demuestran la viabilidad de manejar esta energía en grandes
proporciones.
La investigación avanzada da sus frutos no sólo optimizando el poder de conversión
fotoeléctrico de las nuevas generaciones de paneles, sino también abriendo nuevas
posibilidades de aprovechamiento. Un ejemplo de esto último lo constituyen los sistemas
revolucionarios que además de usar la luz hacen lo propio con el calor. Los rayos del Sol
emiten desde luego una buena dosis de energía térmica en ciertas zonas de la Tierra
durante parte del año. Es obvio que si este calor se aprovecha también, el potencial de
producción de electricidad puede crecer de forma notable.
El volumen de negocio que en las próximas décadas veremos generarse alrededor de
todo este progreso técnico en materia de energía solar puede ser tan espectacular como lo
fue el crecimiento del negocio petrolero a partir de la invención del automóvil.
Mientras, el subsuelo de diversas áreas ofrece un potencial energético que, en muchos
casos, todavía sigue sin explotarse convenientemente. Si bien la energía geotérmica no es
un recurso tan generalizado como la solar, pude resultar una fuente muy útil, ya que a la
producción eléctrica a partir de ella también debemos añadirle la disponibilidad
inmediata de esa energía "en bruto" como fuente de calor. Este uso directo es más
ventajoso de lo que podría creerse. En Islandia, por ejemplo, existen numerosas
viviendas que tienen resuelto para siempre el problema de la calefacción, algo nada
trivial en un país frío como ése. En muchos hogares, el agua calentada geotérmicamente
circula por los radiadores y alimenta duchas y grifos. En la isla de Lanzarote, existen
1000
El Hijo de El Cronopio No. 87
ciertos puntos, como por ejemplo el patio de un restaurante, donde se puede cocinar
gratis. El calor interno de la tierra es canalizado a través de unos tubos o pozos hacia la
superficie, y el resultado es disponer de un horno y una barbacoa que siempre están
encendidos sin que haya que gastar electricidad, gas, leña ni ningún otro combustible.
Por supuesto, la energía geotérmica no es un recurso al alcance de todas las ubicaciones
geográficas, pero existen más zonas de aprovechamiento de lo que se piensa. A menudo,
en lugares donde la manifestación del calor subterráneo no se hace patente en la
superficie, bastaría excavar una mina para disponer en ella de una central energética de
funcionamiento constante.
Los avances tecnológicos también jugarán un papel destacado en la aventura mercantil
geotérmica. En particular, el fondo oceánico podría constituir un terreno óptimo para las
iniciativas más atrevidas al respecto. Usando como punto de partida la tecnología de las
plataformas petrolíferas marinas, sería viable abordar el diseño y construcción de
centrales geotérmicas que se alimentasen del calor del vulcanismo subacuático. No faltan
incluso quienes se atreven a especular con la posibilidad de abrir pozos de muchos
kilómetros de profundidad para llegar al calor subterráneo del planeta, con independencia
de que la zona muestre o no una actividad termal cerca de la superficie. Por supuesto, la
creación de tales "volcanes artificiales" domesticados debería abordarse con la máxima
prudencia, debido a los peligros geológicos que podría atraer para el entorno.
Otras fuentes de energía están ya siendo utilizadas de manera habitual para producir
electricidad en determinadas ubicaciones geográficas de características especiales. La
energía eólica supone aprovechar de manera inteligente la fuerza del viento. El estudio
de determinados procesos químicos o biológicos está permitiendo vislumbrar el posible
desarrollo de toda una nueva generación de combustibles sintéticos. Existen asimismo
diversas ideas sobre el aprovechamiento energético de fenómenos físicos o fuerzas
naturales, que van desde almacenar la electricidad de las tormentas, hasta usar la fuerza
del oleaje marítimo, por citar algunos casos. Aún es prematuro apostar por la viabilidad
comercial a gran escala de alguna de esas fuentes energéticas. Sin embargo, puede ser
positivo por parte de los laboratorios el mantener una cierta labor de investigación, así
como para la industria en general el estar atenta a todo avance en ese terreno, por
insignificante que sea.
Información adicional en: http://www.eurosolar.org
(European Solar Energy Association)
http://www.engr.ucdavis.edu/~its/
(Institute of Transportation Studies, Universidad de California, en Davis)
http://www.cabildo.com/aec/casa-volcanes/casa1.htm
(Casa de los Volcanes del Cabildo de Lanzarote)
http://www.awea.org (American Wind Energy Association)
Imagen: Energ1.jpg
(Tuberías por las que circula el vapor ardiente de un yacimiento geotérmico, usado para
generar electricidad.) (Foto: Electricity Corporation of New Zealand Ltd.)
Energ2.jpg; (Los vehículos con motor eléctrico, exponentes de la más sofisticada
tecnología, son la clase mejor preparada para misiones científicas de elevada
importancia.) (Foto: NASA)
Energ3.jpg; (El hidrógeno quizá acabe por reemplazar a la gasolina, y el aspecto de las
gasolineras se parezca al de los depósitos criogénicos.) (Foto: NASA)
1001
El Hijo de El Cronopio No. 87
Energ4.jpg; (Otro depósito criogénico para almacenamiento de gases licuados a muy baja
temperatura.) (Foto: NASA)
Prueba de aliento para la biomedicina
Un nuevo dispositivo analizador puede ser empleado para detectar enfermedades
gástricas y de otro tipo sin que sea necesario utilizar técnicas invasivas.
La bacteria Helicobacter pylori es un sujeto relativamente peligroso. Puede establecerse
en el estómago humano causando gastritis crónica, úlceras pépticas y quizá incluso
cáncer de estómago. Su actividad y consecuencias se detecta de forma habitual con
endoscopia o biopsia, para después cultivarla, pero esto lleva tiempo, es duro para el
paciente y se corre el riesgo de infección.
Afortunadamente, hay otra técnica que explota la capacidad de la H. Pylori de degradar
rapidísimamente la urea produciendo grandes cantidades de dióxido de carbono. Así, tras
tragar urea "etiquetada" con carbono-13, el paciente exhala CO2 . El carbono-13 es
estable e inocuo pero para medirlo hacía falta hasta hace poco un caro espectrómetro de
masa y una persona cualificada. Esto cambiará gracias a los resultados proporcionados
por una "Acción Competitiva de Apoyo" de la Comisión Europea titulada
"Convalidación de Procedimientos de Muestras, Calibración y Medición para la Técnica
de Medición Infrarroja No-Dispersiva (NDIR) Aplicada a la Biomedicina".
Tras este largo y complicado título se oculta el analizador IRIS, un aparato que se emplea
para la detección de carbono-12 y 13. El proyecto comenzó con el IRIS Mark I, un
analizador NDIR de este tipo de moléculas que se aplica sobre el aliento humano.
¿Cómo funciona? Se hace pasar un rayo de luz infrarroja por una muestra en la que los
dos carbonos lo absorben en dos longitudes de onda ligeramente diferentes, pasando por
dos cámaras, una con CO2 de carbono-12 y otra con CO2 de carbono-13. Estos gases se
calientan al absorber lo que queda de la luz y se mide el aumento de presión que se
produce. El paciente ingiere urea con carbono-13 y sopla en un saquito que es un
analizador, consistente en un ordenador con un programa que se encarga del resto en un
par de minutos. Una enfermera puede calibrar la máquina con su propio aliento y luego
diluir la muestra del paciente gradualmente en aire libre con CO2 (una operación de
calibrado sencilla y ya patentada, una de las principales innovaciones de IRIS).
El objetivo del proyecto era dar a conocer el IRIS a todo el mundo. Para ello, el equipo
tenía que ser convalidado según las normas del Instituto de Materiales de Referencia y
Mediciones, uno de los ocho institutos del centro Común de Investigación de la
Comisión Europea. Esta transferencia de tecnología permitió que los socios del proyecto
siguieran perfeccionando un equipo relativamente sencillo. El método es fidedigno,
como se demostró en pruebas y mejoras propuestas. El analizador se hizo más estanco,
de temperatura estable y más robusto. Se perfeccionó también el programa de ordenador,
añadiendo sobre todo una base de datos de pacientes, procedimientos normalizados de
pruebas y resultados de éstas con los sucesivos pacientes. La realizada con la H. pylori,
en particular, se hizo más sensitiva. Los socios convalidaron luego los diversos
experimentos en hospitales. Con diferentes substratos etiquetados, IRIS puede medir la
motilidad gástrica, las funciones del hígado y del páncreas, consumo de energía,
actividad total de amilasa, etc.
El resultado final es el analizador IRIS Mark II, reconocido hoy día en todo el mundo
como un nuevo instrumento de categoría. Su prueba de la H. pylori, superior a todos los
1002
El Hijo de El Cronopio No. 87
demás métodos, es específica al 98 por ciento, y sensitiva al 98 por ciento. Una prueba
con metacetina de carbono-13 distingue varias condiciones del hígado, de normal a
cirrosis severa. Otras pruebas con IRIS están demostrando también lo que valen, aunque
persistan aún, paradójicamente, algunos obstáculos a su distribución, tales como la
necesidad de patentarlas en los Estados Unidos o bien su escasa compensación en
algunos países de la UE (a pesar de que una prueba IRIS de H. pylori cuesta de 20 a 25
veces menos que un cultivo tras endoscopia o biopsia).
Los socios del proyecto estiman que una campaña de salud con el IRIS para disminuir en
un 10 por ciento al año los casos problemáticos relacionados con H. pylori reduciría los
costes sanitarios de la UE en unos mil millones de euros anuales después del tercer año
de campaña.
Información adicional en: http://www.wagner-bremen.de
http://www.irmm.jrc.be
Imagen: http://www.wagner-bremen.de/bilder/girl_1.jpg
(El IRIS, en acción.) (Foto: Wagner)
http://www.wagner-bremen.de/bilder/detail.jpg; (Detalle del IRIS.) (Foto: Wagner)
El hierro nos da la pista
El descubrimiento de filamentos de óxido de hierro en rocas pertenecientes a distintos
períodos geológicos delata la presencia prehistórica de bacterias. El método podría
emplearse también para buscar indicios de vida en otros planetas.
No siempre es necesario hallar fósiles de organismos que una vez estuvieron vivos para
demostrar que proliferaron en un paraje determinado. Los doctores Robert L. Folk y
Kitty L. Milliken, profesores de geología de la University of Texas, han demostrado que
algunos de los filamentos de óxido de hierro que pueden encontrarse en rocas de una
serie de períodos geológicos muy antiguos fueron producidos por seres vivos que
actuaban a escala microscópica.
Ya hace más de cien años que los científicos debaten sobre si el proceso que da lugar al
óxido de hierro se debe a circunstancias biológicas o inorgánicas. La cuestión sobre si
organismos como las bacterias o los virus podrían jugar un papel en la formación de
rocas con alto contenido de óxido de hierro no ha sido aún clarificada. Sin embargo, las
formas microscópicas que han encontrado Folk y Milliken sugieren que la materia viva
está muy relacionada con dichos procesos.
Folk es un especialista en el tipo de bacteria que denominamos Nannobacteria. Estos
seres diminutos son 1.000 veces más pequeños que las bacterias normales y 1.000
millones de ejemplares podrían vivir juntos en la cabeza de una aguja. Algunos biólogos
creen que ninguna criatura viva puede medir menos de 0,2 micrones (1 micrón es una
millonésima de metro) porque no habría espacio suficiente para contener el material
genético necesario para garantizar su existencia.
Pero Folk descubrió las primeras Nannobacteria mineralizadas en Italia, hace 10 años.
Los trabajos más recientes de este científico y de Milliken muestran que los depósitos de
óxido de hierro modernos contienen las mismas estructuras filamentosas, cuya forma nos
recuerda la de microbios muy pequeños. El óxido de hierro también contiene un
verdadero "zoo" de cuerpos de tamaño nanométrico, lo cual podría implicar la presencia
de vida.
1003
El Hijo de El Cronopio No. 87
Folk encontró las mismas formas tanto en los depósitos de hierro modernos como en los
antiguos. Dichas formas se repiten tanto en el óxido de una cañería como en rocas de
hace 3.000 millones de años, por ejemplo. Las estructuras a escala nanométrica son
claramente de origen orgánico porque permanecen en forma de residuo incluso después
de que el óxido de hierro ha sido lixiviado. Las bacterias y las Nannobacteria dejan
abundantes evidencias de su presencia en los óxidos d
Descargar