Bajar artículo en PDF

Anuncio
S U MAR I O
SPIN CERO
Cuadernos de Ciencia
Número 10. Año 2006.
I.E.S. PABLO PICASSO
Camino Castillejos, 8
29010. MÁLAGA
Teléfono: 952613400
spincero@yahoo.es
www.juntadeandalucia.es/averroes/~29009272/
revista.htm
Revista anual de divulgación científica
y distribución gratuita, fundada por
el Departamento de Física y Química del
I.E.S. Pablo Picasso de Málaga
y realizada por el G.T. SPIN CERO
del CEP de Málaga.
EDITORIAL ...........................................................................................
EL QUIJOTE Y LA CIENCIA EN EL AULA
2
J.M. Rodríguez Rodríguez, J. González Santana y J. Navarro de Tuero ... 3
DIETA Y SALUD BUCODENTAL
Mª Isabel López Molina .......................................................................... 8
EL FLUOR: APLICACIONES PREVENTIVAS Y TERAPÉUTICAS
Mª Isabel López Molina y Miguel Hernández López .............................. 16
EL BUENO Y EL MALO
Juan Carlos Codina Escobar ..................................................................... 24
RECICLAJE DE PILAS SALINAS POR VÍA HÚMEDA
José Francisco Tejón Blanco ..................................................................
27
OZONO ATMOSFÉRICO
Lorenzo Chicón Reina ....................................................................................
31
ENERGÍAS RENOVABLES I
Director: Rafael López Valverde
Editor: José María Bocanegra Garcés
José Aldo Piano Palomo .............................................................................
36
LA ALQUIMIA DEL SALITRE
Miguel Ángel López Moreno .......................................................... 40
Redacción:
Anastasio Álvarez Martín
Francisco Javier López Agudo
José Francisco Martín Caparrós
AVANCES EN LA CIENCIA FORENSE
Mónica Díaz López .............................................................................. 45
FLORA LITORAL
José Carlos Báez Barrionuevo ............................................................ 50
CIRCOS GLACIARES
Diseño de portada:
Álvaro Damián López Ruiz
Anchel Belmonte Ribas .......................................................................... 54
MOVIMIENTOS DE PARTÍCULAS EN CAMPOS MAGNÉTICOS
Rafael Quintana Manrique .....................................................................
Consejo Editorial:
José Luis Rodríguez Palomo,
Joaquín Martínez Rojas,
Juan Ángel de la Calle Martín,
Francisca Sánchez Pino,
Juan Manuel Hernández Álvarez de Cienfuegos
Aquilino Melgar Sánchez
Rafael Bueno Morales
José Antonio Martínez Pons ................................................................
NANOQUÍMICA Y NANOTECNOLOGÍA
Rafaela Pozas Tormo y Laureano Moreno Real ....................................
INTRODUCCIÓN AL GPS
J. L. Bermúdez García y Mª D. Peinado Cifuentes .............................
RAZÓN, EMOCIÓN Y CONOCIMIENTO CIENTÍFICO
Antonio J. Lechuga Navarro .................................................................
Remisión de artículos:
Los autores que deseen colaborar en SPIN
CERO pueden enviarnos sus artículos por
correo o internet. La extensión máxima será de
2500 palabras en Word, tamaño 12 con
interlineado sencillo.
Diseño y composición:
Francisco Javier Yáñez Lillo
Rafael López Valverde
D.L.: MÁLAGA 92-95
ISSN 1135-2302
58
EL MONOPOLO MAGNÉTICO
60
63
66
70
POBLACIÓN Y DESARROLLO MEDIO AMBIENTE
José Aldo Piano Palomo ......................................................................
78
COMPROMISOS DEL PROTOCOLO DE KYOTO
Elisa Manzanares Rodríguez ...............................................................
83
JUAN MANUEL DE ARÉJULA
José María Bocanegra Garcés ..............................................................
87
CIENCIA Y FRAUDE
Salvador Cordero Rodríguez ........................................................... 92
DIVULGACIÓN CIENTÍFICA EN LA ÉPOCA DE FARADAY
Rafael López Valverde ....................................................................... 104
LEONARDO TORRES QUEVEDO
Mª Luisa Aguilar Muñoz y José E. Peláez Delgado ............................... 109
ENTIDADES PATROCINADORAS:
CENTRO DEL PROFESORADO DE MÁLAGA
I. E. S. PABLO PICASSO
A.P.A. PABLO PICASSO
1
EDITORIAL
El pasado 11 de marzo, en el bulevar Gran Capitán de Córdoba, se desarrolló la actividad lúdicodocente Las Ciencias en la Calle, organizado por el colectivo Profesorado de Córdoba por la Cultura
Científica, con el objetivo de potenciar la cultura científica en el ámbito social y educativo. Aparte del entusiasmo
natural que siempre han tenido los colectivos de profesores por llevar su trabajo a la sociedad bajo
representaciones diversas, en el caso que nos ocupa está la honda preocupación por el escaso protagonismo
que las materias científicas poseen en el sistema educativo actual. Por eso, la actividad Las Ciencias en la
Calle pretende demostrar a la ciudadanía, a partir de sencillas experiencias, que las ciencias están al alcance
de todos y que forma parte de nuestra cultura, algo similar a lo que recoge la conocida Declaración de
Granada del 27 de marzo de 1999: La ciencia es parte de la gran aventura intelectual de los seres
humanos, uno de los muchos frutos de su curiosidad y del intento de representar el mundo en el que
vivimos... Es urgente incrementar la cultura científica de la población. La información científica es
una fecunda semilla para el desarrollo social, económico y político de los pueblos.
Son numerosos los intentos que cada curso se realizan para potenciar la cultura científica de la población,
y son loables los esfuerzos humanos de los que están detrás de estas actividades año tras año. Así, una de las
muchas actividades que el PRINCIPIA está llevando a cabo durante este curso es el ciclo de conferencias
juveniles Los sábados en PRINCIPIA ... disfruta con la Ciencia, en el que es fácil encontrar una y otra
vez familias completas disfrutando de las charlas y de las demostraciones experimentales en un ambiente
ameno y distendido.
Estas actividades científico-recreativas no son nuevas como podría parecernos; por el contrario, se
pierden en el tiempo y son el resultado de la adquisición de un ambiente cultural adecuado en la sociedad.
Incluso han llegado a tener un peso insólito en determinados momentos. Por ejemplo, hacia 1830, en plena
revolución industrial, la calle Albemarle street de Londres se convertió en la primera calle de dirección única
de la ciudad debido al tropel de carruajes que acudían a la sede de la Royal Institution para asistir al ciclo de
conferencias con el que los viernes por la tarde Faraday deleitaba a sus contemporáneos. Eran los conocidos
Friday Evening Discourses que aún continúan hoy día 180 años después.
2
EL QUIJOTE Y LA CIENCIA EN EL AULA
José Manuel Rodríguez Rodríguez
Javier González Santana
Juan Navarro de Tuero
Introducción
de Herrera, Juan Bautista de Toledo, Juanelo Turriano,
autor de Los veintiún libros de los ingenios y de
las máquinas y el clérigo Jerónimo Carruga, experto
en hidráulica. En el año 1552 se crea la cátedra de
Cosmología a cargo de Jerónimo de Chaves, Juan
Pérez de Moya escribe Arte de marear, un extenso
manual de navegación y Diego de Zúñiga, Didactica
Stunica Salmantinencis al tiempo que enseña la
teoría copernicana en la Universidad de Salamanca.
En el campo de las matemáticas destacan obras
como Aritmética Práctica y Especulativa del
Bachiller Juan Pérez de Moya. Bartolomé de
Medina con su método de extracción inunda Europa
de plata americana. Francisco Hernández llevó a cabo
la primera recopilación de los recursos naturales de
México y la medicina avanza con nombres como
Andrés Laguna, anatomista y epidemiólogo, Luis de
Mercado, Bernardino Montaña de Monserrate con
su obra Libro de anathomia del hombre. Pedro
Jimeno edita Dialogus de re medica y Dionisio Daza
Chacón es uno de los mejores médicos en el
tratamiento de heridas de guerra.
La novela de Miguel de Cervantes (1547-1616),
El Ingenioso caballero Don Quijote de la
Mancha, cumplió en el año 2005 el cuarto centenario
de su publicación. Es lógico pensar que el acontecer
político y social del siglo XVI impregna la novela pero
también lo hace el renovado interés por diversas
disciplinas científicas tan presente en España durante
el reinado de Felipe II.
Conocemos de la existencia del matemático John
Napier (1550-1617), de Galileo Galilei (1564-1642),
de Johannes Kepler (1571-1630) y de William Harvey
(1578-1657), que descubrió en 1628 la circulación de
la sangre, todos ellos contemporáneos de Cervantes;
sin embargo es mucho menos conocida la comunidad
científica que en esos años desarrollaba una ingente
labor en la corte del imperio donde no se ponía el sol.
Al tiempo que Don Quijote cabalgaba por la
Mancha, alquimistas, cartógrafos, matemáticos,
boticarios, astrónomos, ingenieros y médicos,
españoles o foráneos, desarrollaban su labor en la
Corte al servicio del Rey. La construcción y
mantenimiento del Imperio hacía imprescindible la
participación de la Ciencia y la generación de avances
tecnológicos. Así, surgen iniciativas para hacer
navegables los ríos españoles; la primera expedición
científica a México a cargo de Francisco Hernández;
el proyecto del Atlas de España y los de las
Relaciones Topográficas españolas y americanas;
en Aranjuez se modernizan las técnicas agrícolas y
adaptan nuevas especies de plantas ornamentales,
frutas y verduras traídas de Asia y América; se
construye una «casa de las destilaciones» para el
estudio de las plantas medicinales y elaboración de
remedios al frente de la cual está Francisco Holbeque
(química paracelsista); nace la Academia de
Matemáticas y Cosmografía en Madrid; y como
máximo exponente de este interés por la Ciencia se
crea la Biblioteca del Escorial donde descansan todos
los saberes y prácticas experimentales de la época. En
1598 la biblioteca tenía un fondo de 14.000 volúmenes.
Lo anterior nos sitúa, de manera concisa, en el
contexto histórico-científico en el que Cervantes creó
su obra maestra. Y lo que nosotros nos preguntamos
es: ¿Será posible hacer una lectura de El Quijote y
encontrar señales e influencias de los conocimientos
científicos de su época?
Presentación de nuestro trabajo a partir de
la novela.
Como profesores de Ciencias, dos inquietudes nos
estimulan en nuestro quehacer diario. Por un lado,
constantemente intentamos acercar los contenidos
impartidos en el aula a todos los ámbitos del saber,
por muy lejanos que parezcan de nuestras disciplinas
científicas, que son Física, Química, Biología y
Geología. Por otro, tratamos de conectarlos con la
actualidad informativa. El fin último que perseguimos
es el de GENERAR EL DESEO Y LA NECESIDAD
POR APRENDER.
Es por ello, que no íbamos a dejar pasar la
oportunidad de sumarnos a la celebración del IV
Centenario de la publicación de El ingenioso hidalgo
Entre los «hombres de ciencia» del siglo XVI
podemos destacar en el campo de la ingeniería a Juan
3
Don Quijote de la Mancha fomentando su lectura
en nuestro centro educativo; y por ello decidimos
invitar a Don Quijote y a Sancho Panza a nuestra
«venta»: los laboratorios y aulas de nuestro instituto.
intención desmenuzar hasta niveles atómicos las
aventuras del Quijote, sino encontrar una forma
diferente y divertida, ¿por qué no?, de aplicar algunos
contenidos impartidos en el área de Física y Química
y Biología y Geología, a la vez que realizar una lectura,
diferente a las tradicionales, de la novela de Cervantes.
Nos planteamos los siguientes objetivos:
• Seleccionar y analizar pasajes de la obra de
Cervantes que narraran acontecimientos de
naturaleza científica, o susceptibles de ser
analizados y puestos a prueba de modo
experimental.
No nos es posible reproducir en este artículo, por
su limitada extensión, todo lo acontecido en estos
meses, ni los procedimientos experimentales
completamente detallados, ni los diversos comentarios
de los alumnos ante los capítulos leídos, ni las sorpresas
frente a los resultados obtenidos en cada experiencia,
ni los fracasos al no poder calcular y reproducir todo
fielmente, ni las risas que provocaban las aventuras
del Quijote, ni las numerosas preguntas a las que
fuimos sometidos por los alumnos de otros niveles
ante lo que se estaba haciendo con corazones de cerdo
o el porqué del olor a romero en el Centro, etc. Sin
embargo, sí queremos destacar un fragmento de un
capítulo de nuestra particular historia «El del buen
suceso que los profes tuvieron en la agradable y
jamás imaginada aventura de los molinos de
viento, con otros sucesos dignos de felice
recordación», donde un grupo de alumnos nos
cuentan un día que han visto anunciado en televisión
la emisión de una serie sobre don Quijote. Nosotros,
incrédulos, como ellos al principio de nuestra historia,
dudamos de que frente a otra oferta televisiva la
eligieran. Al día siguiente nos buscaron y protestaron
amargamente porque lo visto no coincidía con lo leído.
Era la primera vez que, en tantos años de docencia,
oíamos que un libro vencía a la caja tonta en el
pensamiento de unos alumnos. Una vez más, todo
tiene relación con todo.
• Diseñar actividades a partir de los textos
seleccionados.
• Incluir las actividades en las unidades didácticas
de las áreas de Ciencias Naturales de 3º de
ESO, Biología y Geología de 4º de ESO y Física
y Química de 4º de ESO.
Fases del trabajo realizado:
Los profesores seleccionamos los capítulos que
los alumnos iban a leer en cada unidad didáctica del
área, a lo largo del curso, y se los entregamos para
que los leyeran en casa y buscaran los pasajes
relacionados con el tema que se estaba trabajando.
La segunda parte consistía en realizar en el aula
las actividades que habíamos diseñado en relación con
los textos.
Arrancar con el proyecto no fue sencillo: decidimos
sondear los ánimos y predisposición de los alumnos.
Les informamos de que, desde nuestras asignaturas,
también íbamos a celebrar el 400 aniversario del
Quijote a lo largo del curso, y, he aquí que nos sacudió
la primera aspa de molino en forma de pregunta/
protesta, ¿qué tiene que ver el Quijote con los
profes de Química y de Biología? Y después vino
otra, ¡eso es un «maske» profe! Además, ningún
alumno era capaz de relatarnos algún acontecer del
caballero andante e incluso muchos no sabían ni quién
era. La respuesta casi diaria en el aula de «todo
tiene relación con todo, sólo hace falta
conocimientos e imaginación para encontrar esa
relación», frente a la casi diaria pregunta de los
alumnos de: «¿a mí para qué me sirve esto profe?»
se convirtió en nuestro Rocinante para poder avanzar
entre la reticencia e incredulidad inicial.
Realizamos prácticas y ejercicios de cálculo
basados en capítulos diferentes de la novela,
sumergiéndonos en cuestiones de Cinemática,
Dinámica, Análisis químico, Método Científico, etc.
El nivel académico en 3º y 4º de la E.S.O. limita y
obliga a realizar una serie de consideraciones
restrictivas a la hora de abordar las actividades, no
podemos ser demasiado exigentes. No era nuestra
4
Algunas de las actividades realizadas:
§
y su buen escudero Sancho Panza pasaron en la
venta, que por su mal pensó que era castillo.
Durante la lectura los alumnos señalan los fragmentos
que informen sobre la composición química, la cantidad
fabricada y el procedimiento experimental necesarios
para la posterior elaboración del bálsamo.
En Ciencias Naturales de 3º ESO.
U.D.: Alimentación y Nutrición en las personas.
1. ¿Qué es lo que pasa cuando se consumen
demasiados huevos?
Pero la información que suministra el Quijote es
insuficiente, por tanto se le facilita a los alumnos datos
obtenidos de la obra de Agustín Redondo: Otra manera
de leer el Quijote: ...Sancho estima que la onza de
bálsamo se podría vender a mas de dos reales y
don quijote piensa que «con menos de tres reales
se pueden hacer tres azumbres». El azumbre es
una medida de vino que equivale aproximadamente
a 2 litros de vino. La onza al contrario es una
medida de peso utilizada exclusivamente para la
venta de especias y se corresponde a unos 28 g.
Es decir que de 3 azumbres de bálsamo -no sería
éste mas ligero que el agua- se sacarían por lo
menos 215 onzas o sea más de 430 reales.
A partir del capítulo De lo que pasó don Quijote
con su escudero, con otros sucesos famosísimos,
los alumnos localizaron el fragmento en el que aparece
la cantidad de huevos que el ama usa para intentar
volver en sí a don Quijote: seiscientos. No se indica el
intervalo de tiempo en el que los consume don Quijote.
Sin embargo, los alumnos, basándose en la lectura,
dedujeron que se extiende desde su llegada de la
segunda salida hasta la salida de la tercera. Se obtuvo
la información en El calendario del Quijote de la obra
de don Vicente de los Ríos de 1780. En él se indica
que la estancia en la aldea abarca desde el 3 de
Septiembre hasta el 2 de Octubre, es decir, 29 días
para consumir los 600 huevos. Si consideramos una
cierta regularidad en su consumo, don Quijote ingirió
20,68 huevos al día. El objetivo de la práctica fue
ambicioso:
Con esta información se hacen cambios de
unidades y se calcula la densidad del bálsamo. Se
divide la clase en grupos para que cada uno realice la
misma mezcla con diferente concentración. En el
transcurso del procedimiento experimental los alumnos
refuerzan conocimientos al observar las propiedades
de una mezcla, los tipos de mezcla, la formación de
una emulsión, la aparición de fase orgánica y acuosa,
la decantación, los métodos de separación de
componentes como la filtración. El olor y el aspecto
del producto obtenido hicieron dudar a los alumnos
de los conocimientos médicos de Don Quijote y
entendieron el malestar que le produjo a Sancho su
ingestión.
- Realizar un análisis químico del huevo, la
detección de la presencia de lípidos, glúcidos y
proteínas en la clara y en la yema.
- calcular las cantidades de distintas sustancias
-proteínas, minerales, vitaminas, etc.- ingeridas con
los 600 huevos a partir de la tabla que se les suministra.
- calcular las calorías que suministran 600
huevos.
- elaborar una tabla con las comidas que realizaba
don Quijote y sus aportes calóricos, proteínicos y
vitamínicos, analizando los déficit alimentarios que
detecten.
§
En Biología y Geología de 4º ESO.
U.D.: Genética Humana.
- Buscar en la bibliografía o en Internet las
consecuencias biológicas del consumo excesivo de
huevos.
4. ¿Qué enfermedad padecía Don Quijote?
Es evidente que las aventuras y desventuras de
nuestro caballero andante no caben en el de una
persona cuerda, lo que evidencia un desajuste mental.
2. Análisis de la dieta predominante en la época
de Don Quijote.
Los alumnos se vieron ante todo un proyecto de
investigación en el que, con ayuda de libros e Internet,
debían averiguar de qué enfermedad en concreto
estaba aquejado el hidalgo caballero.
A través de las múltiples referencias a la comida
que aparecen en el libro, los alumnos estudian su
composición cualitativa en nutrientes y el grado de
beneficio y perjuicio que pudiera representar para la
salud.
La empresa resultó bastante compleja. Hubo que
trabajar las diferentes causas (problemas genéticos,
trastornos orgánicos, funcionales o fisiológicos,
problema cerebral durante el parto, problemas
ambientales, problemas seniles, drogas, accidentes y
lesiones cerebrales). También se indagó en tres
grandes grupos: el retraso mental, las enfermedades
U.D.: Sustancias y Mezclas.
3. Elaboración del Bálsamo de Fierabrás.
Lectura del capítulo Donde se prosiguen los
innumerables trabajos que el bravo Don Quijote
5
psicóticas (esquizofrenia, paranoia, psicosis maníacodepresiva) y las neuróticas (cambios bruscos de
carácter, fobias, miedos y pánico, angustia, histeria,
estrés, depresión, hipocondría,…). Para completar el
estudio, no quisimos dejar atrás enfermedades como
el Alzheimer o el mal de Parkinson. Finalmente
concluimos que, probablemente, Don Quijote padeció
una esquizofrenia paranoide y, dada su etiología,
dudamos de que fuera posible que el hidalgo caballero
recuperara el juicio poco antes de morir. Por último,
queremos resaltar que este estudio sirvió para
concienciar al alumnado del elevado número de
pacientes aquejados de alguna enfermedad mental,
así como de la importancia de rechazar las drogas y
llevar una correcta salud mental.
tenía que estar Sancho de la Tierra para que la
observase del tamaño del grano de especia. El
resultado fue de 3.185.000 km. Además de este
cálculo, determinaron la fuerza de atracción que ejercía
la Tierra sobre Sancho a esta distancia.
7. ¿Molinos? ¡No mi señor Don Quijote,
asteroides!
Se analiza, estudia y se hacen cálculos sobre la
«Misión Don Quijote», misión espacial que en al año
2002 científicos españoles diseñan para la ESA. Se
lanzaron dos sondas espaciales llamadas Hidalgo y
Sancho a un asteroide lejano. Una de las sondas
impactaría con el asteroide a una altísima velocidad,
provocando un cambio de su órbita, y la otra sonda
suministraría los datos del impacto y las consecuencias
del mismo.
U.D.: Los Seres Vivos y el Medio.
5. Estudio de la flora por donde transitó el hidalgo
caballero.
Con esta actividad se da a conocer la tecnología
de las misiones espaciales y se actualiza la figura del
hidalgo.
Los alumnos identifican las diferencias entre los
conceptos de especie endémica, especie autóctona y
especie introducida y comparan la biodiversidad
presente en la zona oriental de la Península Ibérica
con la presente en las Islas Canarias.
§
U.D.: Reacciones Químicas.
8. Cervantes en Nápoles.
Nuestra última experiencia es un recuerdo al autor
de la novela, don Miguel de Cervantes. A los alumnos
se les leyó una síntesis de su biografía, introduciendo
el siguiente suceso apócrifo: «contó alguien de cuyo
nombre no quiero acordarme, que estando don Miguel
en Nápoles a las órdenes de Álvaro de Sande, para
sentar plaza después en la compañía de Diego de
Urbina, del tercio de don Miguel de Moncada, bajo
cuyas órdenes se embarcaría en la galera Marquesa,
junto con su hermano Rodrigo, para combatir, el 7 de
octubre de 1571, en la batalla naval de Lepanto, que
le faltó tiempo para acercarse a la iglesia tal día como
un 19 de Septiembre, para ver si era verdad aquello
que contaban de la sangre del santo Genaro. Narra
que después de una hora de rezo, el Arzobispo sujetaba
en lo alto el frasco de cristal y plata que la contiene
seca y muchos se estiraban para ver si, efectivamente,
se había producido el milagro.
En Física y Química de 4º ESO.
U.D.: La Gravitación.
6. ¡Sancho, el primer astronauta español!
Antes de Julio Verne, ya Cervantes había predicho
la salida al espacio de los seres humanos. El primer
astronauta español no es Pedro Duque sino Sancho.
Pero, ¿hasta dónde llegó el fiel escudero de don
Quijote? De la lectura del capítulo en el que se narra
la aventura a lomos del caballo Clavileño,
seleccionamos el siguiente fragmento:
«–Yo, señora, sentí que íbamos, según mi señor
me dijo, volando por la región del fuego, y quise
descubrirme un poco los ojos, pero mi amo, a
quien pedí licencia para descubrirme, no la
consintió; mas yo, que tengo no sé qué briznas de
curioso y de desear saber lo que se me estorba y
impide, bonitamente y sin que nadie lo viese, por
junto a las narices aparté tanto cuanto el
pañizuelo que me tapaba los ojos, y por allí miré
hacia la tierra, y parecióme que toda ella no era
mayor que un grano de mostaza, y los hombres
que andaban sobre ella, poco mayores que
avellanas; porque se vea cuán altos debíamos de
ir entonces.»
El milagro consiste en la fusión de la sangre seca,
dos veces al año -el 19 de septiembre, el día de la
fiesta del santo, y el primer sábado de mayo-. En el
pasado, algún desastre sucedía cuando la sangre
permanecía sólida.
Esta última experiencia se basa en la recreación
del prodigio que no pudo presenciar Cervantes. Se
fabricó una disolución de 25 gramos de cloruro férrico,
en 100 mililitros de agua. Se añadieron gradualmente
10 gramos de carbonato cálcico, depositando esta
mezcla en una bolsa cerrada. Esta bolsa se dejó en
agua destilada durante cuatro días y posteriormente
Después de medir el diámetro de un grano de
mostaza, 0.004 m, los alumnos, haciendo uso del
Teorema de Tales, calcularon la distancia a la que
6
se colocó sobre un plato para que se fuera evaporando
hasta un volumen de 100 mililitros. Una vez obtenida
esta sustancia se le añadieron 1,7 gramos de cloruro
sódico, sal común, y el resultado fue un líquido de
color marrón oscuro. Este líquido se convirtió en gel
en el plazo de una hora y tiene propiedades
tixotrópicas, es decir, se volverá líquido si se le agita
y permanecerá sólido si está en reposo. Se introdujo
en una cápsula y ha quedado como recuerdo de las
experiencias realizadas en el 400 aniversario del
Quijote.
MARTÍNEZ RUIZ, E. (dir.), Felipe II, la Ciencia y
la Técnica, Madrid.
LAFUENTE, A. y MOSCOSO, J. (1999),
Madrid. Ciencia y Corte, Madrid.
REDONDO, A. (1988). Otra manera de leer El
Quijote: Historia, tradiciones culturales y
literatura. Madrid: Ed. Castalia.
www.elmundo.es/elmundo/2004/07/14/ciencia/
1089835826.html
w w w. e l p a i s . e s / a r t i c u l o / e l p p o r t e c /
20050929elpepunet_1/Tes
Referencias bibliográficas
www.homovebensis.com/genaro.html
CERVANTES SAAVEDRA, M. de. (2004). Don
Quijote de la Mancha. Madrid: Ed. Planeta.
www.rutadonquijote.com
GOODMAN, D. (1990), Poder y penuria.
Gobierno, tecnología y ciencia en la España de
Felipe II, Madrid.
José Manuel Rodríguez Rodríguez
Javier González Santana
GOODMAN, D. (1999), Las inquietudes
científicas de Felipe II: tres interpretaciones.
Juan Navarro de Tuero
GUÍA PARA LOS AUTORES DE SPIN CERO
SPIN CERO es una revista de divulgación científica en el ámbito educativo y de periodicidad anual,
siendo especialmente interesante aquellos temas relacionados con la historia y la filosofía de la ciencia, los
temas de salud y de medio ambiente, nuevas tecnologías y, en general, cualquier tema de comunicación social
de la ciencia de candente actualidad. Con objeto de facilitar el tratamiento informático de la revista y de publicar
el máximo número posible de artículos, se ruega a los autores observen las siguientes normas:
1.- Los artículos pueden remitirse por correo electrónico a spincero@yahoo.es o por correo ordinario
a SPIN CERO, IES PABLO PICASSO, C/ Camino Castillejos, 8. 29010. Málaga.
2.- La extensión de los artículos debe estar comprendida entre 2500 y 3000 palabras y se recomienda el
uso de figuras, tablas e ilustraciones relacionadas con el contenido del mismo. Dichas figuras pueden situarse
dentro del texto, pero también es conveniente que se adjunten en fichero aparte para facilitar el tratamiento
informático de las mismas y evitar problemas de incompatibilidad de programas.
3.- Se recomienda que los artículos consten de una introducción, de un desarrollo que acabe en unas
conclusiones y una bibliografía. En todo caso, en la exposición debe observarse el uso del Sistema Internacional
de Unidades, especialmente en lo referente a las abreviaturas de las unidades utilizadas.
4.- Las referencias bibliográficas se pueden hacer utilizando corchetes con números, que se
corresponderán con los de la Bibliografía, o bien indicando entre paréntesis el autor y el año de publicación, de
acuerdo con las normas al uso.
5.- La Bibliografía debe escribirse por orden alfabético de autores en mayúscula, seguido del título del
texto en minúscula y en cursiva, editorial y año de publicación.
6.- Las citas de textos originales deben hacerse entrecomillando o bien usando cursivas, pero nunca
ambas a la vez.
7
DIETA Y SALUD BUCODENTAL
Mª Isabel López Molina
El individuo es responsable de su conducta de vida, pero la
sociedad es responsable de las condiciones de vida. Burt.
1. INTRODUCCIÓN.
La enfermedades bucodentales más
frecuentes como la caries, las enfermedades
periodontales, el cáncer oral, las alteraciones del flujo
salival y los problemas de la articulación
temporomandibular tienen una relación directa con el
consumo de azúcar, una higiene oral deficiente, el
tabaco, el alcohol o el estrés. Para controlar estos
problemas es necesario un enfoque de prevención de
las enfermedades bucodentales y de promoción de la
salud oral en el sentido de mejora de las condiciones
y de los estilos de vida de las poblaciones.
En 1946, la Organización Mundial de la Salud
(OMS) en su Carta Constitucional definió la salud
como «el estado de completo bienestar físico,
mental y social y no solamente la ausencia de
afecciones y enfermedades».
Actualmente la OMS asume el concepto
dinámico de salud según el cual existen diferentes
grados de salud positiva y de enfermedad « la salud
y la enfermedad forman un continuo cuyos
extremos son el óptimo de salud, por un lado, y la
muerte, por el otro, y en ese continuo existe
además una zona central neutra, no bien definida,
en la que es difícil separar lo normal de lo
patológico, la salud de la enfermedad».
El definir los determinantes de la salud ha sido
una preocupación a partir de la década de los setenta
en la que el Ministro de Sanidad de Canadá
(Lalonde,1974) construyó un modelo que es aplicable
a la Salud Bucodental. Según Lalonde, el nivel de salud
en una comunidad depende de cuatro determinantes:
2. CARIES:
CONCEPTO Y ETIOPATOGENIA.
La caries es una patología tan antigua
como el hombre aunque su frecuencia y distribución
era inferior a la actual y su localización era
preferentemente en la raíz del diente, tal como
muestran los cráneos del Neolítico. En los siglos XVII
y XVIII se produjo un aumento de la prevalencia de
caries debido a que la Revolución Industrial permitió
el consumo de azúcares refinados, inicialmente en las
clases sociales adineradas, y posteriormente al bajar
los precios en todas las clases sociales.
La caries es una enfermedad infecciosa de
carácter oportunista, siendo los principales patógenos
responsables Streptococcus mutans y Lactobacillus.
Se produce durante el periodo posteruptivo del diente
y presenta un carácter dinámico de progresión fásica,
que lleva a la destrucción del diente (Cuenca, 1999).
La etiopatogenia de la caries es
multifactorial y se explica por la teoría ácidodescalcificación. Es el resultado de la interacción
de 4 factores:
1. Existencia de microorganismos en la placa
dental.
2. Presencia de hidratos de carbono
fermentables que son utilizados por las bacterias para
producir ácidos, disminuyendo el pH de la placa
(cuando el pH es menor de 5,5 el esmalte empieza a
disolverse y se inicia la caries).
3. Tiempo de contacto de los hidratos de
carbono fermentables con los dientes condicionado
1. La biología humana (genética,
envejecimiento).
2. El medio ambiente (contaminación
biológica, física, química, psicosocial y sociocultural).
3. El estilo de vida (conductas de salud,
hábitos, etc).
4. El sistema de asistencia sanitaria (calidad,
accesibilidad y gratuidad).
De estos determinantes, unos apenas se pueden
modificar (la biología humana), mientras que los demás
sí. Si estudiamos el efecto relativo de cada uno de
ellos en la salud, al medio ambiente y al estilo de vida
(presencia de fuentes de flúor, dieta rica en azúcar,
hábitos de higiene oral, etc.) les corresponde una
mayor proporción que al sistema de asistencia sanitaria
y a la biología humana (susceptibilidad del sujeto).
El carácter dinámico de la salud permite
poder influir positivamente sobre los
determinantes de la salud e incrementar los niveles
de salud de los individuos y de la población.
(Piédrola, 2002).
8
por la higiene oral y por la alimentación (frecuencia
de consumo, consistencia y textura de los alimentos).
4. Susceptibilidad del individuo (estructura y
localización de los dientes, composición y flujo de la
saliva) determinada por la herencia, estado nutricional,
etc.
Los factores ambientales y el estilo de
vida como la dieta y el aporte adecuado de flúor,
son los principales determinantes tanto de la
prevención de la aparición de la caries como de su
reversibilidad una vez iniciada. Los azúcares (mono
y disacáridos) son la mayor amenaza para la salud
dental tanto a nivel poblacional como individual. El
flúor disminuye la susceptibilidad individual a la
caries.
El flúor disminuye la susceptibilidad
individual a la caries y produce un desplazamiento
de la curva hacía la derecha por lo que, en los países
en los que se usa flúor, el nivel de azúcar per capita
aceptado es de 50 g/día en vez de 40 g/día.
Los estudios epidemiológicos realizados
en tribus africanas, esquimales, etc, demuestran la
relación entre el aumento de las tasas de prevalencia
y gravedad de las caries y las modificaciones de los
estilos de vida, en especial el incremento del consumo
de azúcar. Así mismo, se ha visto el descenso de
caries en épocas de guerra por el racionamiento del
azúcar.
También se han realizado estudios de
correlación para comparar la relación entre el consumo
per capita de azúcar y los índices de caries en distintos
países. Estos estudios presentan limitaciones por
medir el consumo a nivel poblacional mediante datos
de abastecimiento o disponibilidad nacional de azúcar,
que no siempre coinciden con el consumo real a nivel
individual, ya que la cantidad de azúcar dedicada a
otros fines varía de unos países a otros. Además, los
métodos diagnósticos de caries no siempre están
estandarizados.
Los estudios de casos y controles en grupos
de población con un elevado consumo de azúcar
(mascadores de caña de azúcar, consumidores de
medicamentos ricos en sacarosa, pasteleros) o con
un consumo restrictivo de azúcar (diabéticos juveniles,
vegetarianos, hijos de dentistas) también apoyan la
relación de caries y consumo de azúcar.
3. EFECTO DE LA DIETA EN LA CARIES.
La dieta debe evaluarse desde dos puntos de
vista: el nutricional y el dietético.
Respecto a la nutrición, la boca forma parte
de un ser vivo cuya salud general depende de una
nutrición adecuada. La malnutrición proteicocalórica
provoca retraso de la erupción y alteraciones del
desarrollo dental. La deficiencias de vitaminas A, C y
D, proteínas, calorías, calcio, iodo, fósforo y fluoruro
se asocian con un aumento de la susceptibilidad de la
dentición temporal y de los primeros molares a la
caries, ya que afectan al tamaño, forma, composición,
estructura y alineamiento de los dientes, tamaño de la
mandíbula, función salival e inmunocompetencia
(Requejo, 2003).
Los estudios experimentales sobre dieta y
caries, aunque desde el punto de vista científico son
la fuente más plausible de causalidad, no están exentos
de dificultades. Así, los estudios en seres humanos
son escasos debido a que la administración de
suplementos de azúcar o dulces es éticamente
inaceptable. A pesar de ello, estos estudios han
realizado una importante aportación a la etiología de
la caries, como que es más importante la ingesta
entre horas, sobre todo de azúcares adherentes,
y la frecuencia de consumo de azúcares que la
cantidad de azúcar consumida. También se ha
demostrado la falta de cariogenicidad del xilitol,
alcohol de azúcar no fermentable. Los estudios
realizados en animales demuestran que los roedores
alimentados con dietas cariogénicas mediante
intubación, evitando el contacto con los dientes, no
desarrollaban caries.
Todos los estudios realizados en poblaciones
humanas como en laboratorios confirman el papel de
los azúcares en la etipoatogenia de la caries dental y
ponen las bases científicas para la prevención de la
caries (Cuenca, 1999).
La importancia de la dieta en la caries ya
fue mencionada por Aristóteles en el siglo IV a.C.,
cuando la relacionaba con el consumo de higos secos.
Los hidratos de carbono de absorción rápida de la
dieta tienen un efecto cariogénico local. Debido a
la fermentación anaerobia bacteriana de los alimentos
azucarados se producen ácidos (fundamentalmente
ácido láctico) que provoca la desmineralización de la
estructura inorgánica del diente y como resultado la
caries dental. La saliva mediante las sustancias
tampón que contiene neutraliza el pH en 20-30
minutos pero su efecto es limitado si la ingesta es
frecuente o repetida. La relación entre la cantidad
de azúcar en la dieta y la caries no es lineal sino
sigmoidea, de tal forma que a partir de un umbral la
curva alcanza una meseta.
La diferencia de caries entre los distintos
dientes se explica por las variaciones anatómicas sobre
todo en su cara oclusal (masticatoria) que hace que
los molares sean más retentivos de los alimentos.
9
4. MEDICIÓN DEL CONSUMO
ALIMENTOS EN LA POBLACIÓN.
DE
registrar las características de la familia, se pueden
presentar los resultados de consumo de azúcares en
relación con el nivel socioeconómico, zona de
residencia, tamaño familiar, etc.
3. Nivel individual. Encuestas
alimentarias o nutricionales que evalúan el consumo
individual de alimentos. La información se puede
recoger mediante entrevistas con encuestadores por
correo, teléfono, etc. Entre las encuestas alimentarias
destacamos:
a) Recordatorio de 24 horas. Con ayuda
de un entrevistador se cuantifica mediante modelos
alimentarios o medidas caseras las cantidades de
alimentos y bebidas consumidos (ejemplo: cucharadas
de azúcar).
b) Diario dietético. Es un método
prospectivo y consiste en que el entrevistado anote
diariamente lo consumido durante un periodo de tiempo
(3-7 días).
c) Cuestionario de frecuencia. Mediante
una lista de alimentos se controla la frecuencia de su
consumo (diaria, semanal o mensual). La información
que aporta es de tipo cualitativa aunque, si anotamos
para cada alimento la ración habitual, podemos
cuantificar la cantidad de alimentos y de nutrientes.
d) Historia dietética. Incluye una entrevista
sobre los hábitos alimentarios actuales y pasados,
recordatorios de 24 horas y un cuestionario de
frecuencia de consumo.
El conocimiento de la ingesta de alimentos
en una población es fundamental para conocer su
estado nutricional y planificar programas de salud
según sus necesidades (Mataix, 2002).
Hay que diferenciar entre la disponibilidad
de los alimentos (alimentos que se producen e
importan en un país) y el consumo (proporción de
alimentos disponibles que son ingeridos restándole los
alimentos que perecen, que se tiran o que se dan a los
animales). La medición de la ingesta de alimentos en
individuos y en poblaciones se realiza mediante
diferentes métodos o encuestas cuya información
se obtiene a diferentes niveles:
1. Nivel nacional: Hojas de balance
alimentario con las que se obtiene la disponibilidad
de alimentos de un país (kg per capita/año o per
capita/día). Con estos datos obtenemos información
del consumo medio nacional pero no diferencia entre
las distintas edades, sexos y zonas geográficas. Es
muy útil para comparar el consumo aparente de
alimentos de distintos países o de un país a lo largo
del tiempo. La FAO y la OCDE publican estimaciones
de consumo bruto de alimentos y de macronutrientes
en distintos países. En España, el consumo global de
azúcar se mantiene desde los años setenta en torno a
los 80 g/persona/día aunque el consumo de azúcar
directo o voluntario ha disminuido aumentando el
consumo indirecto o involuntario por añadírsele a los
alimentos.
Mediante las tablas de composición de los
alimentos podemos convertir el consumo de alimentos
en nutrientes. Según estas encuestas en España ha
2. Nivel familiar. Encuestas de
presupuestos familiares (realizadas por el INE)
miden la disponibilidad o el consumo familiar a
partir de la cesta de la compra. No tiene en cuenta
los alimentos producidos en el hogar, los consumidos
fuera del hogar ( 20%) o los regalados.
El consumo de alimentos en el hogar se
estudia mediante el registro diario o el recordatorio
de los alimentos consumidos durante 7 días. Al
aumentado el consumo de azúcares
fundamentalmente a expensas del aumento del
consumo de frutas. En relación a la caries dental y
según datos de un estudio realizado en Cataluña,
destaca la ingesta indirecta de azúcares a través de
pastelería-bollería y de bebidas refrescantes sobre
todo en niños y adolescentes (Serra, 2002). En relación
a otros países el consumo de azúcares en España no
es muy importante (Tabla 1) pero es necesario
10
identificar a las personas con un consumo
excesivo de azúcar y/o productos azucarados y
poner en marcha protocolos para corregirlo.
Actualmente se considera como límite máximo
aceptable el consumo de 70 g /día de azúcar, sobre
una dieta de 3.000 kcal, es decir, un 10 % del aporte
calórico. Además, es importante identificar los
azúcares escondidos en los alimentos, añadidos
a ellos en su proceso de elaboración o fabricación, ya
que son difíciles de detectar y están aumentando. Pero
más que identificar la cantidad total de azúcar
consumida, es importante evaluar la frecuencia de
consumo de alimentos, por lo que los
cuestionarios de frecuencia de alimentos son las
encuestas de elección en los estudios sobre
caries y dieta.
5. PODER CARIOGÉNICO
ALIMENTOS.
DE
y degradar a los almidones haciéndolos más
vulnerables a las bacterias.
En los países industrializados existe una
tendencia a sustituir las tomas principales por un
patrón de toma de tentempiés, sobre todo en niños
y adolescentes. Se ha incrementado el consumo no
sólo de golosinas y dulces, sino también de patatas
fritas y otros aperitivos salados obtenidos a partir
de almidones de distintos orígenes (trigo, maíz, etc.)
mediante procesos industriales que pueden producir
la acidificación de la cavidad oral.
El poder cariogénico de la dieta se
relaciona con:
1. Cantidad de azúcar en la dieta. Se
puede medir mediante el recordatorio de lo consumido
en las 24 horas previas insistiendo especialmente en
el número de cucharadas de azúcar que se añaden a
la comida. Además, hay que tener en cuenta que el
azúcar está presente en diversos alimentos elaborados
como caramelos, dulces, salsas, frutos secos, etc.
Actualmente, se acepta que otros factores
relacionados con los alimentos tienen tanta o más
importancia en la cariogenicidad que la cantidad de
azúcar.
2. Consistencia de los alimentos. Se
consideran más cariogénicos los azúcares más
adherentes. Así, ante una misma cantidad de azúcar
es más perjudicial para la salud bucodental si se ingiere
en forma de toffees, miel, turrón, etc. que en alimentos
líquidos. También influyen el tamaño de las partículas,
la solubilidad, la textura, el gusto, etc.
3. Frecuencia de consumo. Se mide
mediante un cuestionario de frecuencia de consumo
de azúcar y alimentos azucarados. A los pocos minutos
de ingerir azúcar se produce una disminución del pH
de la placa que provoca la desmineralización del
esmalte. A la media hora tras la ingesta el pH se
normaliza. Si se consumen alimentos azucarados
con frecuencia, esta normalización del pH no se
produce y aumenta el peligro de caries.
4. Ingesta en o entre comidas. Si los
alimentos cariogénicos se ingieren durante las
comidas, la saliva y los mecanismos de autolimpieza
(flujo salival, movimientos de la lengua y los carrillos,
movimientos masticatorios) tienden a eliminar los
alimentos de la boca y los mecanismos tampón de la
saliva tienden a neutralizar los ácidos que se forman,
normalizando el pH. Por lo tanto, el consumo de
alimentos cariogénicos durante las comidas es
menos peligroso que si lo hacemos entre
comidas. El peor momento para ingerir alimentos
cariogénicos es antes de ir a dormir, ya que durante
el sueño los mecanismos de autolimpieza están
disminuidos. Algunas prácticas, como chupetes
LOS
Las propiedades de los alimentos que influyen
en su potencial cariogénico (capacidad para
producir caries) son la capacidad de retención en
la boca, forma física, propiedades acidogénicas, efecto
sobre la colonización bacteriana, cantidad y
composición glucídica y el efecto protector de ciertos
componentes.
No todos los hidratos de carbono tienen
el mismo potencial cariogénico. En general, la
sacarosa presente en el azúcar común, frutas, dulces,
golosinas, etc. es el más cariogénico. Los
monosacáridos (glucosa, fructosa, lactosa) presentes
en frutas, miel, leche, etc. tienen menos poder
cariogénico. Los grandes polisacáridos, como el
almidón, tienen capacidad cariogénica relativamente
baja. Pero, es importante relacionar el consumo de
hidratos de carbono y caries dental teniendo en
cuenta además el tipo de alimento del que forman
parte y el procesamiento industrial de los hidratos
de carbono complejos. Este proceso produce la
hidrólisis parcial de las largas cadenas
hidrocarbonadas, que favorece la acción sobre ellas
de la flora oral, que las utiliza como sustrato para
producir ácidos. Los alimentos que contienen almidón
hidrolizable en combinación con sacarosa u otros
azúcares incrementan su potencial cariogénico, debido
a que el almidón prolonga el tiempo de retención
del alimento en la boca e incrementa la
producción de ácido. La forma física del alimento
también influye en su cariogenicidad (el almidón cocido
es más cariogénico que el almidón crudo). Por lo tanto,
la diferenciación entre glúcidos simples cariogénicos
y glúcidos complejos no cariogénicos no es tan clara
ya que los procesos industriales pueden desnaturalizar
11
impregnados en azúcar o miel, son poco
recomendables.
5. Factores protectores. El queso
consumido al finalizar la comida reduce la acidez de
la placa por lo que tiene propiedades anticariogénicas
(acción tampón sobre el pH de la placa, estímulo de
la saliva, inhibición bacteriana). Parece ser que los
fosfatos y algunos componentes del cacao, ingrediente
principal del chocolate, también tienen un efecto
protector. El chicle masticado después de las comidas
tiene una acción anticariogénica ya que ayuda a
neutralizar ácidos por el mayor flujo de saliva que
provoca. Si el chicle contiene xilitol se suman las
acciones anticariogénicas de ambos.
Así mismo, se observa un menor número de casos
de cáncer oral entre los grandes consumidores
de verduras y frutas frescas, todos ellos alimentos
con gran contenido de vitaminas y de minerales
antioxidantes. En otro estudio de casos y controles
se ha relacionado el consumo de suplementos de
vitamina E con el efecto protector frente al cáncer
orofaríngeo. Este efecto de la vitamina E y de otras
vitaminas y minerales, es debido a su acción
antioxidante al neutralizar radicales libres y proteger
las membranas celulares y su acción sobre el sistema
inmune, inhibiendo la iniciación del proceso tumoral.
Para la prevención del cáncer orofaríngeo,
se aconseja identificar a los grandes bebedores de
alcohol mediante cuestionarios sencillos, que evitan
los errores de los interrogatorios directos en los que
el sujeto puede subestimar, de forma consciente o
inconsciente, su consumo.
En relación al tabaco es necesaria la
información sobre sus efectos, concienciar a la
población y a los profesionales de que el tabaquismo
es un hábito que crea adicción, tratar de que no surjan
nuevos fumadores y tratar a los ya existentes
(preguntar, informar, aconsejar y ayudar). Además
es necesaria una Legislación y recursos tanto
económicos como humanos.
Respecto a la dieta, actualmente carecemos
de pruebas suficientes para aconsejar la
suplementación con vitaminas y minerales
antioxidantes, como el selenio, en la prevención del
cáncer oral en la población general, pero sí
aconsejamos una dieta variada con consumo de frutas
y verduras frescas.
La escala de peligrosidad (Baca, 1997) de
los alimentos que contienen azúcar según su nivel de
cariogenicidad es:
1. Alimentos sólidos, retentivos que se
consumen sobre todo entre comidas, con bastante
frecuencia y, aún peor, antes de ir a dormir.
2. Los mismos alimentos consumidos
durante las comidas.
3. Alimentos que contengan azúcar, pero que
sean líquidos, no retentivos, que se consuman
entre las comidas, con frecuencia y, aún peor,
antes de ir a dormir.
4. Los mismos alimentos consumidos
durante las comidas.
6. CÁNCER ORAL Y DIETA.
Debido a la elevada letalidad del cáncer
orofaríngeo y al aumento de casos experimentado
en España en las últimas décadas, es importante
realizar una revisión sobre esta patología en la que su
detección precoz aumenta las tasas de supervivencia.
Diversos estudios sugieren que en su
etiología influyen más los factores ambientales que
los endógenos. Los factores ambientales que han
mostrado una mayor asociación con el riesgo de cáncer
oral son el consumo de tabaco y alcohol (riesgo
atribuible a estos dos factores 75-95%), los factores
dietéticos y los agentes infecciosos. Otros
factores relacionados son los factores locales, como
la higiene bucal y las prótesis dentales o las piezas
rotas o en mal estado, que suponen una agresión
crónica de la cavidad oral y determinadas ocupaciones
relacionadas con actividades al aire libre por
exposición del labio al sol.
En relación con la dieta, numerosos estudios
han puesto de manifiesto la relación entre
determinados déficit nutricionales y el cáncer oral.
Se asocia al déficit de hierro y de vitaminas A y C.
7. RECOMENDACIONES ALIMENTARIAS
PARA LA SALUD ORAL.
El fomento de la salud oral se debe realizar
desde distintos ámbitos y en relación con sus
determinantes entre los que la dieta es primordial. La
educación nutricional se debe llevar a cabo en las
escuelas, dirigida tanto a padres como a escolares,
con actividades interdisciplinares y con un compromiso
de toda la comunidad escolar (KWAN, 2005). Así
mismo, los servicios sanitarios en general y
odontológicos en particular, tanto públicos como
privados, son contextos en los que se debe desarrollar
la educación nutricional. Las autoridades sanitarias
deben realizar campañas informativas y los medios
de comunicación deben apoyar los mensajes de los
agentes de salud.
Entre las recomendaciones para la
prevención de la caries dental incluimos:
12
1. Reducir la cantidad de sacarosa
consumida por debajo de 50 g/día.
2. Reducir la frecuencia de consumo de
azúcares.
3. No hacer más de 6 comidas/día y no picar
entre comidas.
4. Evitar el consumo de alimentos
pegajosos o viscosos .
5. Usar chicles y golosinas con xilitol.
6. Sustituir la sacarosa por edulcorantes no
cariogénicos ya que, al no ser metabolizados por las
bacterias de la placa bacteriana, no producen ácidos,
dan lugar a una menor proporción de éstos o incluso
son antimicrobianos como el xilitol. Entre ellos se
encuentran el xilitol, el sorbitol, el manitol, la sacarina,
aspartamo, ciclamato, etc.
7. Identificar los alimentos potencialmente
cariógenos (capaces de disminuir el pH por debjo
de 4,5 durante más de 20 minutos) y los alimentos
seguros para los dientes (alimentos que no son
capaces de disminuir el pH de la placa dental por
debajo de 5,7 a los 30 minutos después de ser
ingeridos) mediante logotipos de «diente saludable»
(Tabla 2), (Requejo, 2003).
Como método de trabajo de control de la
dieta en relación a la caries se recomienda (Baca,
1997) recoger información sobre la dieta del paciente
principios, se debe ir paso a paso, es decir, un cambio
dietético cada vez, empezando por el alimento más
peligroso según la escala de peligrosidad. Una vez
seleccionado el primer objetivo, es necesario plantear
una estrategia en el sentido de:
1. Es más fácil conseguir un cambio que la
supresión radical de un alimento.
2. El sustituto del alimento original debe estar
un grado más abajo en la escala de peligrosidad.
3. Para conseguir una lista de sustitutos debe
preguntarse al paciente: ¿Qué aceptaría comer en
lugar de...?. Además, se le propondrá una lista de
sustitutos de baja peligrosidad por su escasa retención
como quesos, frutas, aceitunas, nueces, almendras,
etc.
4. Deben existir suministros de sustitutos en la
casa y en comedores y bares, sobre todo en los centros
públicos.
5. Actuar en positivo, no prohibir, proponer y
sustituir los alimentos en colaboración con el propio
sujeto, la familia, educadores y profesionales
sanitarios, con afecto.
6. Se deben recoger todos los acuerdos y
recomendaciones por escrito con objeto de darle más
rigor y servir de recordatorio para llevar el programa
a la práctica.
mediante un dietario durante una semana,
especificando si se han ingerido alimentos entre
comidas. Posteriormente se analiza la dieta desde
el punto de vista nutritivo, evaluando el número
de porciones por día que el sujeto consume de cada
uno de los cuatro grupos de alimentos básicos (carnes,
pescados y huevos; frutas y vegetales; pan y cereales;
productos lácteos). De forma específica y en
relación con la caries dental, se señalizarán todos
aquellos alimentos que contienen azúcar. Una vez
identificados los alimentos cariogénicos se sugerirán
posibles modificaciones o alternativas. Como
Entre las indicaciones para la prevención
del cáncer oral, además de la adecuada higiene
oral y el autoexamen, destacamos:
1. Eliminar el tabaco (dejar de fumar o no
iniciar su hábito).
2. Evitar el consumo excesivo de alcohol.
3. Dieta variada con consumo de frutas y
verduras frescas (fuentes naturales de vitaminas y
minerales antioxidantes).
Todas estas recomendaciones en relación con
la salud oral las incluimos dentro de un programa más
13
amplio en el que la dieta mediterránea es el prototipo
para la promoción de la salud en general y para la
prevención de enfermedades.
8. EXPERIENCIA DE CONTROL DEL
CONSUMO DE GOLOSINAS EN EL I.E.S.
CASTILLO
DE
MATRERA
DE
VILLAMARTÍN.
En el curso escolar 1995/96 realizamos una
experiencia piloto en el I.E.S. de Villamartín (Cádiz).
Para ello y en relación a las Finalidades educativas y
Objetivos generales del Centro, en lo referente a la
promoción de la salud de los escolares en particular y
de la comunidad educativa en general, recogimos en
nuestra programación la realización de actividades
interdisciplinares de fomento de una dieta sana. Dichas
actividades fueron aprobadas por el Consejo Escolar
a propuesta de los Departamentos de Sanitaria y con
la colaboración del Departamento de Ciencias
Naturales y de Actividades Extraescolares. Además,
la A.P.A fue informada de esta experiencia. Con ello
pretendimos una implicación de toda la comunidad
escolar.
·
·
·
Estas actividades tenían como objetivos:
Fomentar una dieta sana «dieta
mediterránea».
· Sustituir el consumo de golosinas por otros
alimentos no cariogénicos.
· Responsabilizar al alumnado de su propia
salud, convirtiéndolo en un sujeto activo.
· Potenciar el trabajo en equipo y dinamizar el
Centro.
·
·
·
·
Temporalización: Curso escolar 1995/96.
Agentes de salud: Profesorado del I.E.S. entre los
que nos encontrábamos profesionales sanitarios y
alumnado del Ciclo Formativo «Técnico en Cuidados
Auxiliares de Enfermería».
Población objeto de la campaña de educación
para la salud «dieta saludable» :
· Alumnado del Centro Educativo (E.S.O.,
Bachillerato, Ciclos Formativos).
·
·
·
Actividades:
·
Control del consumo de golosinas en el
Centro:
- Recogida de información por parte de los
delegados/as de curso y elaboración de un
listado del consumo de frutas semanal
(manzanas, naranjas, mandarinas y plátanos)
de todo el alumnado y profesorado del Centro
por parte del alumnado del Ciclo Formativo
de Auxiliar de Enfermería (tipo de fruta y
cantidad medida por piezas).
- Encargo al responsable del bar del Centro
de la fruta, previo cálculo del número de
kilogramos de cada fruta.
- Comprobación del consumo real de fruta y
compra de la no consumida.
- Cálculo de la cantidad de golosinas
consumida en esa semana.
- Elaboración de una estadística sobre
evolución del consumo de fruta y golosinas
en relación con las actividades de educación
para la salud realizadas, preferencias de
frutas, consumo de frutas por edad y sexo,
etc.
Elaboración de carteles informativos en
relación con la dieta saludable (pirámide de
alimentos, alimentos cariogénicos, etc).
Concurso de elaboración de materiales por
parte del alumnado de sanitaria en relación a
«educación para la salud respecto a una dieta
sana en general y una dieta no cariogénica
en particular» (juegos, folletos, etc).
Concurso de «recetas sobre bebidas no
alcohólicas» con posterior elaboración de las
seleccionadas y dispensación en las «Jornadas
de prevención de la drogadicción»,
organizadas por el Ayuntamiento de la
localidad.
Taller de cocina con elaboración de recetas
empleando frutas y verduras.
Desayuno mediterráneo y taller de cepillado
de dientes.
Realización de cuestionarios sobre consumo
de alimentos en relación a la caries.
Charlas sobre temas en relación a la dieta
saludable por parte de expertos del Centro
de Salud « Anorexia y bulimia», «Obesidad»,
«Caries y dieta», etc.
Coloquio sobre dieta y salud oral.
Tratamiento interdisciplinar del tema en
Biología, Química, Lengua, Sanitaria, etc.
(características químicas de los azúcares,
microorganismos, fuentes energéticas,
ecología de la cavidad oral, lectura de
bibliografía, recogida de datos, elaboración de
tablas y gráficos, cálculo de índices
matemáticos, realización de informes, etc).
Valoración de las actividades:
La valoración de los resultados fue muy
positiva en cuanto a implicación de la comunidad
escolar, incluido el responsable del bar que hizo un
14
esfuerzo al ofrecer unos productos perecederos que
además tenía que comprar personalmente. Respecto
al alumnado, su grado de participación fue elevado y
el tener responsabilidades en los distintos niveles
(recogida de listados, organización y ejecución de
actividades, etc.) hizo que su colaboración fuese
mayor. La directiva del Centro en todo momento tuvo
una actitud positiva y apoyó y puso a nuestra
disposición cuantos medios necesitamos y facilitó los
contactos con los padres, autoridades locales, etc. Los
equipos educativos que participaron, directa o
indirectamente, también expresaron su satisfacción
respecto a los resultados y grado de participación del
alumnado.
En cuanto a la valoración del consumo de
golosinas, se experimentó un descenso acentuándose
en los periodos en los que se realizaban conjuntamente
otras actividades de educación para la salud.
MATAIX, J.; «Nutrición y alimentación humana»,
Ed. Ergon, 2002.
MOYNIHAN, P. The role of diet and nutrition in
the etiology and prevention of oral diseases.
Bulletin of World Health Organization, 83, 694-699,
2005.
PIÉDROLA, G. «Medicina Preventiva y Salud
Pública», 10ª Ed., Masson, 2002.
REQUEJO, A.; ORTEGA,R. «Nutriguía. Manual de
nutrición clínica en Atención Primaria». Editorial
Complutense, 2003.
SERRA, L. Departamento de Sanidad, Alimentación
y Nutrición. «Encuesta nutricional de la población
catalana 2002».
Mª Isabel López Molina
Conclusiones:
Los programas de salud realizados desde
varios ámbitos tienen mejores resultados. El medio
escolar es un lugar adecuado para el desarrollo de
programas de educación para la salud por el gran
número de personas a las que podemos acceder, las
posibilidades de cambio en pro de la salud en edades
tempranas, la existencia de personal cualificado para
actuar como agentes de salud, la disponibilidad de
recursos, etc. Como miembro de la comunidad escolar,
el profesorado es responsables no sólo de transmitir
contenidos conceptuales en relación a la salud sino
también contenidos procedimentales y actitudinales.
Además, somos agentes de salud que en cierto modo
actuamos como modelos en pro de la salud.
BIBLIOGRAFÍA
BACA, P.; LLODRA, J.; BRAVO, M. «Cuaderno
de Prácticas. Odontología Preventiva y
Communitaria». Universidad de Granada, 1997.
CUENCA, E.; MANAU, C.; SERRA, L.
«Odontología preventiva y comunitaria. Principios,
métodos y aplicaciones». 2ª Ed., Masson, 1999.
GIBNEY, M. Consumption of Sugars , Am. J. Clin.
Nutr., 62, 178-194, 1995.
KWAN, S.; ERIK, P.; PINE, C. Health-promoting
schools: an opportunity for oral health promotion.
Bulletin of World Health Organization, 83, 677-685,
2005.
LALONDE, M. «A new perspective on the health
of canadians», Office of the Canadian Minister of
National Health and Welfare, 1974.
15
EL FLÚOR: APLICACIONES PREVENTIVAS
Y TERAPÉUTICAS
Mª Isabel López Molina y Miguel Hernández López
Los venenos que en grandes dosis son mortales, en dosis más
pequeñas tienden a inhibir y en dosis más pequeñas aún a estimular a esas
mismas células. Arndt-Schultz.
1. INTRODUCCIÓN.
personal o profesional, etc. con una finalidad
preventiva y terapéutica, tanto a nivel individual como
comunitario.
Se considera que el uso de los fluoruros a
gran escala es el principal factor que ha influido en la
reducción de la prevalencia y gravedad de la caries.
El flúor es un elemento químico ampliamente
distribuido por la naturaleza. Sus efectos sobre la salud
oral fueron descritos a principios del siglo XX al
relacionarse las altas concentraciones de flúor en el
agua de bebida y las manchas en el esmalte (fluorosis
dental). En 1901 F. Mckay (Cuenca, 1999), dentista
del Estado de Colorado, observó que gran número de
sus pacientes presentaban manchas opacas en sus
dientes, conocidas en el lugar como «manchas
marrón de Colorado». Su espíritu investigador le
llevó a estudiar otras zonas donde también se
producían casos del «esmalte moteado» y llegó a la
conclusión de que estaba en relación con el agua de
bebida y que éstos sujetos presentaban menos caries.
H.T. Dean, dentista de los Servicios de Salud Pública
en Estados Unidos, en 1933 realizó una serie de
estudios epidemiológicos y estableció una relación
dosis-respuesta, aún vigente, clasificando la fluorosis
según su gravedad (Dean, 1934). La investigación
epidemiológica posterior demostró que a bajas dosis
en el agua de bebida (1 ppm o 1 mg/l) el flúor tenía
una acción beneficiosa sobre la salud oral, en concreto
disminuye la prevalencia de caries. En los niños estos
efectos se observan en, aproximadamente, 2 años,
mientras que en los adultos son menos evidentes y
más retardados, pero también útiles.
2. PROPIEDADES Y DISTRIBUCIÓN DEL
FLÚOR.
El flúor (F) es un elemento químico del grupo
de los halógenos. Fue aislado por Moisson en 1886.
Se caracteriza por tener el aspecto de un gas amarillo
en estado puro, con un punto de fusión de -223 º C y
un punto de ebullición de -187 ºC; su electroafinidad
es de -90 kcal/mol y su energía de enlace de 38 kcal/
mol. Estas propiedades determinan su alta afinidad
para combinarse con otros elementos. Además,
presenta una alta solubilidad en agua. Se presenta en
forma de fluoruro cálcico (CaF2), fluorita, aunque
también se encuentra con frecuencia en forma de
fluoropatita [Ca10(PO4)6 F2] o criolita (Na3AlF6). Es
un oxidante muy potente reaccionando fuertemente
con los metales. Su fuerte electronegatividad hace
que las uniones covalentes con el flúor tengan altas
energías de enlace combinándose también con los no
metales.
En la naturaleza el flúor es un elemento
abundante aunque su distribución en la corteza
terrestre no es homogénea. Se encuentra en
minerales, sobre todo de origen volcánico. En el agua
del mar se encuentra en concentraciones constantes
(0,8-1,4 ppm) mientras que en el agua de manantiales
su concentración es variable. En el agua de bebida su
concentración también es variable, las aguas potables
de suministro presentan con frecuencia una
concentración inferior a 0,5 ppm y existen aguas
minerales envasadas con concentraciones de flúor de
10 ppm . En la atmósfera, el aire normal no contiene
fluoruros, pero puede aparecer por erupciones
volcánicas o por contaminación industrial. El flúor
contenido en los alimentos (OMS, 1972) varía según
las características del suelo, agua y aire. Algunos
vegetales contienen una cantidad significativa de flúor
como el té (175 ppm sobre su peso neto en materia
seca), tomate (41 ppm), judias (21 ppm), lentejas (18
El flúor frena la desmineralización de la
superficie del esmalte y acelera la remineralización
de las pequeñas lesiones incipientes de caries.
Además actúa sobre las bacterias de la placa dental
interfiriendo su metabolismo y a altas dosis es
bactericida. La acción frente a la caries depende más
de la exposición diaria al flúor en la cavidad oral, de
origen tópico o sistemático, que de la presencia de
flúor unido de forma permanente al esmalte.
Los posibles efectos tóxicos e indeseables del
flúor no deben enmascarar sus efectos beneficiosos
sobre la salud oral. La dosis tóxica es muy superior a
la dosis terapéutica por lo que se puede utilizar con
un amplio margen de seguridad. El uso correcto del
flúor está ampliamente desarrollado en cuanto a dosis,
presentación, vía sistémica o tópica, aplicación
16
ppm), cerezas (6 ppm), espinacas (3,8 ppm), etc. En
los alimentos de origen animal su concentración
depende del tipo de dieta y del contenido en flúor del
agua de bebida. Destacamos el hígado de vaca (5,5
ppm), riñón de vaca (2,5 ppm), carne de pollo, ternera
y cordero (1 ppm). En relación a los pescados, la
mayor cantidad de flúor se localiza en el cartílago y
en la piel que no se suelen consumir; destacan la
sardina y la caballa (15-25 ppm), salmón y bacalao
(5-7 ppm).
En nuestro organismo el oligoelemento flúor
ocupa el decimotercer lugar en orden de abundancia
y su consumo procede de los alimentos (25%), del
agua y de otras bebidas.
actuación en caso de intoxicación accidental es
fundamental.
Los fluoruros contenidos en los alimentos se
absorben dependiendo de la solubilidad de los fluoruros
inorgánicos, de la presencia de elementos con
capacidad para combinarse con el flúor (calcio), o
bien de la presencia de sustancias con capacidad de
neutralizar la acidez gástrica.
La absorción de los fluoruros del agua de
bebida es casi total (86-97 %) y la cantidad de iones
flúor unidos al calcio o al magnesio resulta
prácticamente despreciable en aguas cuando la
concentración es óptima (1 ppm de F-). No existen
diferencias entre el agua corriente, las aguas minerales
o los vinos.
La leche fluorada artificialmente permite la
absorción del flúor pero más lentamente que el agua
debido a la gran cantidad de calcio que contiene y el
aumento de pH gástrico que produce. En la leche
materna la concentración de flúor es pequeña (0,0060,012 ppm), aunque la madre ingiera compuestos
fluorados. La cantidad de flúor ingerida cuando los
niños son alimentados con leche en polvo diluida con
agua fluorada es 150 veces superior a la de los niños
con lactancia materna.
El té contiene una cantidad importante de
fluoruros que varía según el tipo de té y que está en
torno a los 150 ppm en peso seco del producto y
alrededor de 1 ppm al preparar la infusión. La
absorción del fluoruro del té se realiza con mayor
dificultad que en el agua.
La sal fluorada presenta una absorción de
fluoruro más reducida que el agua, sobre todo en
relación con la ingesta simultánea de alimentos ricos
en calcio.
Los comprimidos fluorados utilizados en la
prevención de la caries contienen 0,5-1 mg de ion
flúor en forma de fluoruro sódico y su absorción es
casi completa dependiendo de la composición de la
dieta. Si se toma entre horas la absorción es tan
completa como el fluoruro ingerido en el agua.
El flúor contenido en los dentífricos se absorbe
bien por lo que hay que vigilar su posible ingestión en
niños menores de 6 años. También para evitar
accidentes hay que asegurar que el paciente controla
bien la deglución cuando se aplican geles de
fluorofosfato (12.300 ppm). Los barnices también
contienen una alta concentración de flúor pero, al
aplicarse menos cantidad, la parte tragada con la saliva
sólo aumenta la concentración en plasma levemente.
3. METABOLISMO.
La incorporación del flúor en nuestro
organismo se realiza fundamentalmente por la
ingestión de alimentos, dando lugar a acumulación en
el plasma sanguíneo, a partir del cual se distribuye
por los tejidos orgánicos y se elimina (Fig. 1).
La absorción del flúor se realiza
fundamentalmente por vía digestiva aunque también
se puede absorber por vía pulmonar en situaciones
poco frecuentes como erupciones volcánicas, vertidos
industriales, gases anestésicos, etc.
El flúor llega a nuestro organismo
fundamentalmente en forma de fluoruros inorgánicos
cuya solubilidad no es uniforme. Algunos son solubles
como fluoruro sódico, el ácido fluorhídrico, el ácido
fluorosilícico o el monofluorofosfato, que se absorben
en un 90% (Ekstrand, 1996), y otros son insolubles o
tienen menos solubilidad como el fluoruro cálcico, el
fluoruro magnésico o el fluoruro de aluminio. En
función de su solubilidad, éstos compuestos liberan
iones de flúor.
En relación con la salud, sólo la absorción de
flúor en forma iónica tiene efectos biológicos
importantes por lo que, desde el punto de vista de la
salud pública, nos interesan los fluoruros inorgánicos
solubles.
La absorción se realiza por un mecanismo
pasivo tanto en el estómago como en el intestino
delgado. La acidez gástrica (presencia de iones H+)
facilita dicha absorción ya que el flúor en forma iónica
(F-) en el estómago se une con los iones hidrógeno
(H+) y se convierte en ácido fluorhídrico (HF), una
molécula sin carga que atraviesa fácilmente las
membranas biológicas como la mucosa gástrica.
La absorción de flúor a partir de formas solubles
se produce de forma regular y rápida a los pocos
minutos, y su concentración máxima en plasma se
produce a los 30 minutos, por ello la rapidez de
En la distribución del flúor en el organismo
el plasma sanguíneo es el elemento fundamental. En
el plasma el flúor se presenta bajo dos formas, el
fluoruro iónico (fluoruro inorgánico o libre), que es el
17
que tiene importancia en odontología, y el fluoruro no
iónico (ligado a la albúmina). El flúor se distribuye
por el organismo en función de la perfusión sanguínea.
En general, la concentración de flúor es baja en los
tejidos blandos, tejido adiposo y cerebro y es alta en
el riñón. Los tejidos calcificados (huesos y dientes)
poseen el 99% del contenido total de flúor en el
organismo.
El flúor en forma de fluorapatita o
fluorhidroxiapatita, se incorpora al tejido óseo en
formación o remodelación.
Los tejidos dentales también muestran en su
desarrollo una alta afinidad en la captación de
fluoruros aunque no existe remodelación y los cambios
metabólicos que se producen en su estructura después
de la erupción son escasos. La concentración de flúor
en el esmalte es más importante en la superficie del
diente y está más relacionada con el aporte del flúor
a lo largo de la vida y de factores externos como la
abrasión o la desmineralización que con el flúor
incorporado en el periodo preeruptivo de formación y
mineralización dental.
El fluoruro se excreta fundamentalmente por
la orina y además por la piel descamada, el sudor y
las heces. También en pequeñas cantidades por la
leche, la saliva, el cabello y las lágrimas.
4. ACCIÓN
ORGANISMO.
DEL
FLÚOR
EN
El flúor actúa en estos procesos mediante una
acción pre o posteruptiva (Echeverría, 1995). La
acción preeruptiva, que incorpora el flúor a la
estructura del esmalte, se debe al flúor procedente
de los alimentos y al administrado por vía sistémica
(agua fluorada, tabletas) mientras se produce la
calcificación de los dientes (antes de los 13 años),
aunque también pueden actuar algunas formas tópicas
de flúor, como los dentífricos o los colutorios. El flúor
absorbido se difunde por el líquido extracelular y baña
el esmalte en desarrollo facilitando la formación de
fluorhidroxiapatita (FHAP) y fluorapatita (FAP) por
la sustitución de uno o dos iones OH- de la molécula
de hidroxiapatita (HAP). La fluoropatita es más
resistente a la disolución por los ácidos.
El flúor, durante el periodo de formación y
maduración del esmalte, mejora su cristalinidad y
resistencia a la disolución, disminuyendo la proporción
de cristales con impurezas, las formas inmaduras de
apatita y el contenido en carbonato, elementos que
aumentan la porosidad y la solubilidad del esmalte a
los ácidos.
Pero, la acción preeruptiva no es suficiente
para explicar el beneficio clínico del flúor.
La acción posteruptiva del flúor ha adquirido
una gran importancia en los últimos años por reducir
la caries. Este efecto se relaciona principalmente con
la aplicación tópica del flúor (dentífricos, geles,
barnices y colutorios), aunque también con el uso
sistémico (agua fluorada). Cuando el diente es
expuesto a altas concentraciones de flúor (1.000 ppm
o más) se produce una precipitación de los iones de
calcio que se encuentran en la superficie dando lugar
a la formación de un compuesto insoluble, el fluoruro
cálcico, que se acumula sobre la placa bacteriana, en
concentraciones de 5-50 ppm, quedando disponible
para actuar sobre la superficie del diente.
El mecanismo cariostático posteruptivo se
produce por la inhibición de los sistemas enzimáticos
bacterianos de la placa, por la inhibición del
almacenamiento de polisacáridos intracelulares, por
la toxicidad directa sobre las bacterias y la reducción
de la absorción de proteínas por el esmalte.
El flúor actúa sobre los procesos de
desmineralización y remineralización producidos en
la superficie del esmalte. El flúor inhibe el proceso de
desmineralización, frena la velocidad de progresión
de las lesiones experimentales de caries y modifica
su aspecto histológico aumentando el espesor de la
lámina superficial y además, acelera el proceso de
remineralización catalizando las reacciones de
precipitación de los iones calcio y fosfato. En relación
a la remineralización, diferenciamos entre su efecto
a altas dosis (más de 1.000 ppm) y en cortos periodos
de tiempo, que provoca la precipitación brusca de FAP
EL
La caries destruye la estructura del diente e
inicialmente afecta a la superficie o esmalte del diente,
aunque posteriormente se puede afectar también la
dentina o el cemento.
El esmalte está compuesto por una serie de
cristales prismáticos constituidos principalmente de
hidroxiapatita [Ca10 (PO4)6(OH)2] y componentes
menores como sodio, carbonato, flúor, zinc, plomo,
cloro, magnesio, estroncio y cobre. Aunque el esmalte
tiene una alta densidad y un aspecto compacto es
microporoso, tanto entre los prismas como en los
propios prismas y cuando es atacado por los ácidos
se produce la desmineralización y aumenta la
porosidad.
En la superficie del esmalte se produce de
forma cotidiana reacciones de desmineralización y
remineralización, iniciándose la caries con sus
primeras manifestaciones (mancha blanca) sólo
cuando la fase de desmineralización se prolonga y de
forma reiterada debido a la concurrencia de factores
de riesgo (acumulo de placa, ingesta frecuente de
hidratos de carbono) o por fallo en los mecanismos
de defensa (disminución del flujo de saliva o de su
capacidad tampón ).
18
y FHAP en la superficie de las lesiones iniciales del
esmalte (mancha blanca), dificultándose la difusión
del flúor y remineralización de las zonas más internas,
y el efecto a bajas dosis (1 ppm) y de forma continua,
en el que no se produce precipitación en superficie y
los iones flúor difunden para precipitar como FAP o
FHAP, aumentando el contenido mineral en la lesión
y reparando desde la profundidad a la superficie
lentamente.
Todos estos datos nos permiten afirmar que
los mejores beneficios del flúor en la prevención de la
caries oral se obtienen mediante su utilización diaria
y a concentraciones no elevadas (dentífricos,
colutorios, efecto tópico del agua fluorada) que
permiten crear y mantener niveles moderados de flúor
libre en el fluido de la placa.
El flúor también actúa sobre la placa
bacteriana: disminuye la producción de ácido por los
microorganismos, reduce la fermentación, el
crecimiento y la multiplicación bacteriana e incluso
produce la muerte bacteriana. Estos efectos requieren
diferentes niveles de flúor. Parece ser que con el
tiempo se desarrolla una resistencia a la acción del
flúor por parte de las bacterias.
La dosis letal para adultos está establecida en
32-36 mg F-/kg y para niños en 15 mg F-/kg de peso.
La dosis tóxica probable (DTP) es la dosis a partir
de la cual hay que realizar un tratamiento de urgencia.
En niños menores de 6 años la DTP es de 0,5 mg F-/
kg de peso corporal.
La DTP para los productos utilizados en
Odontología es variable. Para los dentífricos con una
concentración de F- de 1.000 ppm la DTP es de 50 g
de dentífrico para un niño de 1 año y de 100 g para un
niño de 6 años.
Los preparados con (dentífricos, colutorios,
geles, tabletas) deben guardarse fuera del alcance de
los niños y no utilizarlos en niños pequeños sin la
supervisión de un adulto; los geles de fluorofosfato
acidulado (FAP) están contraindicados en menores
de 6 años ya que la DTP es tan sólo de 8 ml.
El tratamiento de la intoxicación depende de la
cantidad y la forma de preparación ingerida. Se debe
provocar el vómito, administrar leche o antiácidos para
retardar la absorción y enviar a un centro hospitalario
(lavado de estómago, gluconato cálcico,etc.).
Toxicidad crónica.
La intoxicación crónica se produce por la
ingestión de flúor en cantidades excesivas y durante
un tiempo prolongado y se manifiesta
fundamentalmente por fluorosis dental y por fluorosis
esquelética cuando las dosis son mayores (Dean,
1934).
La fluorosis dental se asocia al consumo
excesivo y prolongado de flúor en el agua de bebida
(más de 2 ppm), coincidiendo con el periodo de
formación de los dientes. Clínicamente se caracteriza
por una hipoplasia, con hipocalcificación de los dientes,
cuya intensidad depende de la concentración de flúor
ingerida y del tiempo de exposición, manifestándose
por manchas opacas blancas, manchas marrones,
estrías, fisuras, y corrosión del esmalte. (Tabla 1).
5. EFECTOS TÓXICOS DEL FLÚOR.
Diferenciamos entre toxicidad aguda y
toxicidad crónica en relación a la dosis y al tiempo de
exposición (Ekstrand, 1996).
Toxicidad aguda.
Los primeros datos sobre la toxicidad del flúor
se obtuvieron en relación a su uso como insecticida.
También hay casos de toxicidad aguda por intentos
de suicidio o por intoxicación accidental en niños. Los
preparados de uso odontológico a las dosis
recomendadas para cada edad carecen de efectos
tóxicos pero la ingestión de altas cantidades puede
ocasionar efectos de gravedad variable.
A dosis bajas (dentro de los límites tolerables)
provoca náuseas, vómitos, hipersalivación, dolor
abdominal y diarrea (por formación en el estómago
de ácido fluorhídrico con efecto irritante local).
A dosis altas provoca convulsiones, arritmia
cardíaca, estado comatoso, parálisis respiratoria y
muerte (debido a la acidosis sistémica, hipocalcemia
e hiperpotasemia).
Los estudios de los casos en los que se ha
producido la muerte han demostrado la existencia de
múltiples factores como la capacidad de vomitar, la
ingestión previa de alimentos neutralizantes, el tipo
de compuesto fluorado, la respuesta metabólica
individual, etc., que justifican las diferencias en cuanto
a la dosis letal.
La fluorosis dental grave actualmente es rara,
aunque pueden aparecer pequeñas manchas
blanquecinas con sólo leves repercusiones estéticas
incluso con dosis óptimas de floración del agua (0,81,2 ppm). Como la calcificación de los incisivos
permanentes se produce desde el nacimiento hasta
los 5 años y estos dientes son los que más repercusión
estética pueden tener, se recomienda extremar las
medidas en este periodo. La utilización de flúor tópico
no produce fluorosis cuando actúa sobre dientes
erupcionados.
La fluorosis esquelética u osteofluorosis
actualmente es muy rara, está limitada a zonas con
altas concentraciones de flúor en el agua de bebida y
19
En España, las primeras experiencias de
fluoración artificial se realizaron en 1980 en
Benalmádena (Málaga) y en El Pedroso (Sevilla).
Actualmente hay 4.245.000 personas (10,6% de la
población) que se benefician de ella, con 6
Comunidades autónomas que tienen legislación
específica en materia de fluoración (Andalucía,
Extremadura, Cantabria, Galicia, Murcia y País
Vasco) aunque las comunidades que la llevan a la
práctica son Andalucía, Cataluña, Extremadura y País
Vasco. En esta última es en la que se ha desarrollado
más (el 80% de la población dispone de agua fluorada).
En Andalucia dos millones de personas disponen de
este servicio en las provincias de Sevilla, Córdoba y
Jaén. Los municipios con agua fluorada natural son
escasos y las aguas de bebida envasadas tienen una
concentración de flúor muy diferente entre ellas (0,38 ppm).
La fluoración del agua de abastecimiento
público es segura, efectiva y equitativa, ya que
beneficia a personas de distinta edad, nivel social, etc.
La relación coste-efectividad también es muy buena.
Es la medida de elección en poblaciones con alta
prevalencia e incidencia de caries, incluso asumiendo
el riesgo de cierta fluorosis.
se caracteriza por una hipermineralización de los
huesos, exostosis y calcificación de los ligamentos y
del cartílago que pueden llegar a la deformidad ósea
en los casos más graves.
6. MÉTODOS DE APLICACIÓN DEL FLÚOR.
Los métodos de aplicación del flúor (Jones,
2005) se deben adaptar a las necesidades individuales
o colectivas en cuanto a las dosis y los vehículos en
función del riesgo y la actividad de la caries, de su
nivel socioeconómico, posibilidad de acceso a los
servicios dentales, etc. En general, los podemos
clasificar en (Ellwood, 2003):
FLÚOR EN
PROGRAMAS COMUNITARIOS
Fluoración del agua de bebida.
Fluoración de la sal.
Fluoración de la leche.
MÉTODOS DE AUTOAPLICACIÓN
DE FLÚOR.
Suplementos de flúor.
Dentífricos fluorados.
Geles de autoaplicación.
Colutorios fluorados.
FLÚOR DE
APLICACIÓN PROFESIONAL.
Geles de flúor.
Barnices de flúor.
Dispositivos de liberación lenta de flúor.
Soluciones fluoradas.
Pastas de profilaxis fluoradas.
Fluoración de la sal.
La fluoración de la sal se inició en Suiza en
1950 y actualmente está disponible en diversos países
como Francia, Alemania, países de América Latina,
etc. En España, la sal fluorada con yodo está
comercializada desde 1988 a una concentración de
150 mg/kg, aunque su consumo no está muy extendido.
La dosis recomendada es 250 mg/kg.
La efectividad frente a la caries es semejante
a la obtenida por el agua fluorada. Como ventajas
citamos el que se libera en pequeñas cantidades con
las comidas, no requiere modificación de las
costumbres personales, no requiere una red de
abastecimiento, permite elegir, etc. Entre los
inconvenientes destacamos el riesgo que supone el
exceso de sal para las enfermedades cardiovasculares.
Métodos de aplicación del flúor según Ellwood y Fejerskov
6.1. FLÚOR EN
PROGRAMAS COMUNITARIOS.
Fluoración del agua de bebida.
La concentración óptima de flúor en el agua
de bebida es de 0,7-1,5 ppm (R.D. 140/2003). Los
compuestos más utilizados para la fluoración son las
sales de fluoruros inorgánicos solubles como el fluoruro
de sodio o el ácido hidrofluorosilícico.
Como ventajas no necesita de la participación
activa de las personas y como desventajas el que no
es posible su elección y que puede dar lugar a
fluorosis.
Actualmente 317 millones de personas de 39
países (Estados Unidos, Canadá, Australia, etc.)
utilizan la fluoración artificial de su agua de bebida y
40 millones tienen fluorada el agua de forma natural.
Fluoración de la leche.
La fluoración de la leche consiste en añadir 5
mg de flúor por litro de leche en forma de sal de
monofluorofosfato para hacerla biocompatible con el
calcio de la leche y biodisponible intestinalmente. Se
utiliza en el Este de Europa, Reino Unido, China y
Sudamérica en programas en escolares. En España
se encuentra leche con un contenido en flúor de 1
mg/l.
Algunos estudios realizados a corto plazo han
demostrado su efectividad. Como ventajas, se puede
20
elegir el consumir leche con o sin flúor. Como
inconvenientes, la dificultad de distribución y su
consumo variable.
compatibles (sílice o carbonato cálcico) y detergentes
(laurilsulfato de sodio). Actualmente algunos también
contienen extractos de hierbas, enzimas y agentes
antimicrobianos como el triclosan, agentes anticálculo
y aditivos blanqueadores. Hay pocas diferencias
clínicas en la efectividad de los distintos compuestos.
Los dentífricos fluorados son los responsables
de la disminución de la caries en los países
desarrollados en las últimas décadas. Se recomiendan
utilizar las pastas al menos dos veces al día, con una
concentración de 1.000 ppm de flúor, aunque también
se pueden utilizar las que contienen 1.500 ppm, y
enjuagarse con poca cantidad de agua y brevemente
para retener más tiempo el flúor, o no enjuagarse.
En niños menores de 6 años se recomienda
usar pastas con baja concentración de flúor (500-1.000
ppm), en pequeña cantidad (0,25 g, es decir del tamaño
de un guisante), con un sabor no atractivo, enjuagarse
con agua vigorosamente y escupirlo, siempre bajo la
supervisión de los padres. Además, los profesionales
deben conocer la concentración de flúor en el agua
de bebida y otras posibles fuentes de flúor.
En adultos con alto riesgo de caries, con flujo
salival disminuido o con recesión gingival, o con caries
radicular, se recomiendan dentífricos con alta
concentración de flúor (5.000 ppm).
En adultos con recesión gingival,
hipersensibilidad y alto riesgo de caries se recomienda
fluoruro de estaño al 0,4% (970 ppm) que actúa
además como antibacteriano y reduce la sensibilidad
al bloquear los túbulos dentinarios. Como incoveniente,
puede producir tinción de los dientes.
Geles de autoaplicación.
Son geles de fluorofosfato acidulado (FPA) o
de NaF al 0,5% (5.000 ppm) que se aplican en cubetas
preformadas o con el cepillo de dientes. Se utilizan en
pacientes con alto riesgo de caries. Presenta como
inconveniente la falta de cumplimiento por parte del
paciente.
Colutorios fluorados.
Utilizan NaF en concentraciones de 0,05% (230
ppm de flúor) para uso individual diario en personas
con alto riesgo de caries y de 0,2% (920 ppm de flúor)
para uso en programas de escolares o individual en
personas con moderado riesgo de caries. Consiste en
realizar enjuagues durante 1 minuto, escupirlo y no
comer ni beber durante 30 minutos. En los programas
escolares el maestro es el encargado de dispensarlo
y no está indicado en niños menores de 6 años por el
peligro de ingesta.
Su uso se inicio en 1960 en los países
escandinavos en escuelas de zonas con bajas
concentraciones de flúor en el agua de bebida y
posteriormente en Estados Unidos. Es un método
6.2. MÉTODOS DE AUTOAPLICACIÓN DE
FLÚOR.
Los métodos de autoaplicación son prescritos
por el profesional (vehículo, concentración, forma de
aplicación) aunque son realizados por el propio
individuo que es responsable de utilizarlos
adecuadamente. Los dentífricos fluorados son los
únicos que pueden utilizarse sin la indicación de los
profesionales.
Suplementos de flúor.
Los suplementos fluorados se prescriben en
niños y jóvenes entre 6 meses y 16 años teniendo en
cuenta la concentración de flúor en el agua, las
características dietéticas individuales en relación a
alimentos ricos en flúor y el riesgo individual.
Las formas de administración son gotas o
comprimidos masticables con objeto de que
permanezcan en la boca el mayor tiempo.
Aunque los suplementos fluorados se idearon
para aquellas personas que no tenían acceso al agua
fluorada, hay diferencias entre ambos métodos como
que los suplementos fluorados requieren una alta
motivación para ingerirlos durante un largo periodo
de tiempo (6 meses-16 años), su efecto es menor al
tomarse sólo una vez al día y únicamente se
recomienda en personas con alto riesgo de caries.
Dentífricos fluorados.
Los dentífricos fluorados son el medio más
utilizado para prevenir la caries dental en el mundo y
combina la higiene oral con el uso de flúor.
La incorporación de flúor a los dentífricos se
inició en 1945 pero no tuvo éxito hasta 1965 cuando
se fabricó con fluoruro sódico al 0,2% y con un
abrasivo inerte a base de bicarbonato sódico. Con
posterioridad se han desarrollado sistemas abrasivos
compatibles con los compuestos de flúor, ya que del
abrasivo depende la cantidad de flúor soluble o activo
disponible para reaccionar con el esmalte dental.
Los dentífricos fluorados contienen
concentraciones de flúor entre 250-5.000 ppm (se
clasifican en dentífricos de baja concentración, con
menos de 1.000 ppm, y de alta concentración por
encima de esos valores) y aumentan la concentración
de flúor en la saliva entre 100 y 1.000 veces y vuelven
a los niveles basales en 1-2 horas.
La fórmula de un dentífrico fluorado consta de
fluoruro sódico (NaF), monofluorofosfato sódico
(MFP), o la combinación de ambos, así como fluoruro
de aminas. Además contienen edulcorantes, abrasivos
21
efectivo, seguro, barato, fácil de realizar y bien
aceptado.
7. USO EFICAZ DE FLUORUROS EN LA
SALUD PÚBLICA.
La caries es un problemas de salud pública en
los países en desarrollo y en las poblaciones
desfavorecidas de los países desarrolladas. A lo largo
de la historia se han utilizado diferentes estrategias
de control de la caries en las que el flúor ha sido el
protagonista. Las primeras actividades de
investigación y desarrollo, a principios del siglo XX,
se basaron en el uso de fluoruros en el agua de bebida
natural o añadidos artificialmente y su relación con la
prevención de la caries y con la aparición de fluorosis
dental. En la segunda mitad del siglo XX las
investigaciones se centraron en los dentífricos y los
colutorios fluorados. Actualmente se siguen realizando
revisiones sistemáticas con la ventaja de la
informatización y el acceso a amplias bases de datos,
reafirmándose la fluoración del agua y los dentifricos
fluorados como elementos básicos para la reducción
de la caries dental. Numerosos estudios se están
realizando actualmente en el mundo que ilustran el
uso moderno de los fluoruros en salud pública. Un
ejemplo de ellos son los siguientes estudios: «Sistemas
recientes de fluoración del agua en Califormia»,
«Fluoración de la sal en Jamaica», «Fluoración de la
leche en Chile», «Desarrollo de dentífricos fluorados
asequibles en Indonesia». Además, las líneas de
investigación están abiertas, así si en el siglo XX se
han desarrollado estudios para demostrar la eficacia
de los dentífricos fluorados, actualmente existen
investigaciones que pretenden comparar las eficacia
de las distintas presentaciones del flúor, la
concentración óptima de flúor, los compuestos
agregados con otros fines o potenciadores de los
efectos anticaries (triclosan, xilitol, etc.).
En salud pública existe una preocupación por
disminuir las exigencias en el uso de los fluoruros y
de disminuir los costos con objeto de hacerlos
extensivos al mayor número de individuos y familias.
En el Boletín de la Organización Mundial de la
Salud (Jones, 2005)
se recomienda que
en cada comunidad
se utilice sólo un tipo
de
fluoración
sistémica (es decir,
del agua, la sal o la
leche), combinándola
con el uso de
dentífricos fluorados,
y que se vigile la
prevalencia
de
fluorosis dental.
6.3. FLÚOR DE
APLICACIÓN PROFESIONAL.
Están indicados en pacientes con alto y
moderado riesgo de caries, se usan con baja frecuencia
y a altas concentraciones.
Geles de flúor.
Se utilizan desde 1970 y se aplican mediante
una cubeta durante 4 minutos, posteriormente se
escupe. El paciente no debe ingerir líquidos ni
alimentos durante 30 minutos. Los geles no son
auténticos geles sino soles viscosos que, bajo presión,
se fluidifican, mientras que en la cubeta están
viscosos.
Están indicados tanto en adultos como en
niños (mayores de 6 años) con riesgo moderado o
alto de caries.
Barnices de flúor.
Son una forma de aplicar flúor a alta
concentración en una resina o base sintética. Al
aplicarse en la superficie del diente mediante un pincel
o torunda prolongan el contacto con el esmalte
reduciendo la pérdida de fluoruro soluble. Es la forma
de aplicación profesional de fluoruros más efectiva
frente a la caries. Están indicados en pacientes con
moderado o alto riesgo de caries y a cualquier edad.
Como inconveniente su precio.
Soluciones fluoradas.
Actualmente apenas se utilizan.
Pastas de profilaxis fluoradas.
Se utilizan para pulir las superficies dentarias y
radiculares de los dientes y no se deben utilizar como
prevención por el desgaste del esmalte que producen.
Dispositivos de liberación lenta de flúor.
No
están
disponibles
en
España, permiten
mantener niveles
cariostáticos durante
un largo periodo de
tiempo, son baratos,
seguros y fáciles de
aplicar. Destacamos
las membranas de
copolímeros y los
dispositivos de vidrio
que liberan flúor.
22
BIBLIOGRAFÍA
JONES, S.; BURT, B. The effective use of fluorides
in public health. World Health Organization. Bulletin.
83, 670-676, 2005.
OMS; «Fluoruros y salud». Monografía 59, OMS,
1972.
PIÉDROLA GIL, G., «Medicina Preventiva y Salud
Pública», 10ª Ed., Masson, 2002.
REAL DECRETO 140/2003, Criterios sanitarios de
la calidad del agua de consumo humano, Ministerio
de la Presidencia, BOE, 7228-7245, 2003.
CUENCA, E.; MANAU, C.; SERRA, L., I.
«Odontología preventiva y comunitaria. Principios,
métodos y aplicaciones», 2ª Ed., Masson, 1999.
DEAN, H. Classification of mottled enamel
diagnosis, JADA, 21, 1421-6, 1934.
ECHEVERRIA, J. ; CUENCA, E. «El manual de
Odontología», Masson, 1995.
ELLWOOD, R.; FEJERSKOV, O. «Dental caries.
The disease and its clinical management», Blackwell,
2003.
EKSTRAND, J.; WHITFORD, G. «Fluoride in
Dentistry», Munksgaard, 1996.
Mª Isabel López Molina.
Profesora del I.E.S. «Santa Bárbara». Málaga.
Miguel Hernández López.
Profesor Universidad de Málaga.
23
EL BUENO Y EL MALO
Juan Carlos Codina Escobar
Uno de los parámetros que más nos preocupa
cuando nos hacen un análisis de sangre, aparte del
nivel de glucosa, es el contenido de colesterol. El
colesterol es un lípido, en concreto un esteroide,
presente en el torrente sanguíneo y en las membranas
celulares de todas las células del organismo. Esta es
quizás su principal función, una función estructural
en la formación de membranas celulares; pero también
lleva a cabo funciones reguladoras ya que, por
ejemplo, muchas hormonas son sintetizadas a partir
de él. No obstante, una hipercolesterolemia, o sea, un
elevado nivel de colesterol en sangre es uno de los
mayores factores de riesgo de sufrir una enfermedad
cardiovascular. Un factor de riesgo es una condición
que incrementa las posibilidades de padecer una
enfermedad.
El colesterol, al igual que otros lípidos, no puede
disolverse en la sangre. Por este motivo ha de ser
transportado hacia y desde las células por
transportadores especiales denominados lipoproteínas.
Existen varias clases de lipoproteínas pero las que
presentan interés en este caso particular son las
lipoproteínas de baja densidad (LDL) y las
lipoproteínas de alta densidad (HDL), las que, cuando
se unen y transportan al colesterol, se denominan en
términos coloquiales como colesterol malo y bueno,
respectivamente. Las lipoproteínas de baja densidad
constituyen el principal transportador de colesterol en
sangre. Si su nivel en la sangre circulante es
demasiado alto puede, junto con otras sustancias,
formar un depósito duro y espeso en forma de placas
en las paredes de las arterias, principalmente de
aquéllas que suministran nutrientes y oxígeno al
cerebro y al corazón. Esta situación recibe el nombre
de ateroesclerosis y caso de que se formase un trombo
cerca de estas placas, podría bloquear el flujo
sanguíneo al músculo cardiaco y por tanto dar lugar a
un ataque al corazón; o si se tratase del cerebro una
trombosis cerebral. Este es el motivo por el que el
LDL-colesterol recibe la denominación de colesterol
malo. De otro lado, de un tercio a un cuarto del
colesterol sanguíneo es transportado por las
lipoproteínas de alta densidad. Muchos expertos en
medicina creen que estas lipoproteínas tienden a
transportar el exceso de colesterol desde las arterias
al hígado, desde donde es eliminado. Incluso se cree
que son capaces de eliminar el exceso de colesterol
de las propias placas o ateromas y, por tanto, disminuir
su velocidad de crecimiento. No es pues de extrañar
que, contrariamente al LDL-colesterol, el HDLcolesterol reciba la denominación de colesterol bueno
[AHA, 2005].
Obtenemos colesterol de dos formas diferentes.
Por un lado, el propio organismo, principalmente el
hígado, produce una cantidad variable de colesterol;
usualmente 1000 mg/día. La otra fuente de colesterol
nos la proporciona la dieta. Los alimentos de origen
animal, especialmente huevos, carnes, pescado,
marisco y leche entera lo contienen en proporciones
variables. Por contra, los alimentos de origen vegetal
como frutas, verduras, granos y semillas no
proporcionan colesterol. De manera general, el
organismo sintetiza todo el colesterol que precisa. De
esta forma, pues, no necesitaríamos consumir más
cantidad de colesterol. Algo del exceso del colesterol
que ingerimos en nuestra dieta es eliminado del
organismo a través del hígado. En cualquier caso
resulta, por tanto, claro que el colesterol ingerido con
la dieta, junto con los ácidos grasos trans y saturados,
son los responsables de un elevado nivel de colesterol
en sangre.
Como se ha indicado anteriormente, cuando
hay un exceso de colesterol, éste tiende a acumularse
en las paredes de las arterias provocando su
endurecimiento y estrechamiento. Esto ocasiona un
enlentecimiento en el flujo sanguíneo de la zona
afectada. Si las arterias afectadas son las que irrigan
el corazón y no puede pasar la suficiente sangre con
el oxígeno que transporta, se puede producir una
angina de pecho. Si el suministro sanguíneo a una
zona del corazón resulta completamente bloqueado,
el resultado será un infarto. Un nivel alto de colesterol
en sangre por sí mismo no ocasiona síntomas visibles,
de manera que mucha gente es inconsciente de que
su nivel de colesterol es alto. Por todo ello, es
aconsejable la realización de análisis de colesterol en
sangre de forma periódica a partir de los 20 años de
edad. Aunque en realidad el análisis más
24
recomendable es el denominado perfil de lipoproteínas.
Este análisis sanguíneo proporciona resultados después
de 9 a 12 horas, un tiempo relativamente corto. En
concreto proporciona los niveles de:
·
·
·
·
·
·
Colesterol total.
LDL-colesterol («colesterol malo») que
representa la principal fuente de formación
de ateromas y el consecuente bloqueo en
las arterias.
HDL-colesterol («colesterol bueno») que
ayuda a la recirculación del colesterol y, por
tanto, previene la formación de placas en las
arterias.
Triglicéridos.
·
En cualquier caso, los datos necesarios son los
referidos al colesterol total y al LDL-colesterol.
En las dos tablas siguientes se indican los rangos
de valores de colesterol total y de LDL-colesterol
en sangre y su catalogación [HIH, 2001].
·
Generalmente, cuanto mayor es el
nivel de LDL-colesterol y mayores
factores de riesgo presenta un individuo,
tanto mayor son las posibilidades de
padecer una enfermedad coronaria o
sufrir un ataque al corazón. Entre los
factores de riesgo, además de los ya
indicados, se pueden citar el tabaquismo,
padecer diabetes, una elevada presión
arterial (igual o superior a 140/90 mmHg),
valores de HDL-colesterol inferiores a 40 mg/dL y
un historial familiar de enfermedades coronarias. La
reducción de los niveles de colesterol,
fundamentalmente de los niveles de LDL-colesterol,
es el principal objetivo en el tratamiento preventivo.
Existen dos formas principales de reducir los niveles
de colesterol:
Con respecto al HDL-colesterol, «el bueno»,
resulta obvio que, en general, cuanto mayor sea su
nivel tanto mejor. Un nivel inferior a 40 mg/dL se
considera bajo. Se recomienda tener valores superiores
a 60 mg/dL. Por su parte, los triglicéridos también
pueden incrementar el riesgo de padecer una
enfermedad coronaria. Sus niveles deberían
mantenerse por debajo de los 150 mg/dL y en caso
de ser superiores requerirían un tratamiento especial
en las personas afectadas.
De cualquier manera, los niveles de colesterol
se ven afectados por multitud de factores, algunos de
los cuales pueden ser modificados por el individuo y
otros no. Entre los cuales se pueden citar los
siguientes:
·
El peso. Tener sobrepeso es un factor que
incrementa el riesgo de padecer una
enfermedad coronaria ya que también tiende
a incrementar el nivel de colesterol.
La actividad física. La realización de ejercicio
físico de forma regular permite bajar los
niveles de LDL-colesterol e incrementar los
de HDL-colesterol. Indirectamente también
ejerce un efecto beneficioso dado que permite
la reducción de peso.
Edad y sexo. Es el primero de los factores
que el individuo no puede modificar. A medida
que envejecemos, los niveles de colesterol
aumentan. Hasta la edad de la menopausia
la mujer, en general, presenta niveles de
colesterol total inferiores a los de los hombres
de su misma edad. Sin embargo, tras la
menopausia, sus niveles de LDL-colesterol
tienden a subir.
La genética. Nuestros genes determinan la
cantidad de colesterol que nuestro organismo
sintetiza, de forma que altos niveles de
colesterol en sangre pueden ser
hereditarios [NIH, 2001].
1.- Cambios en el estilo de vida. Representa un
conjunto de cosas que uno puede hacer para bajar
sus niveles de colesterol e incluye aspectos como:
·
La dieta. Los ácidos grasos saturados y el
colesterol que ingerimos con los alimentos
hacen subir el nivel de colesterol sanguíneo.
25
Una dieta adecuada como la denominada por
los norteamericanos dieta TLC, que consiste
en una dieta con bajo contenido en ácidos
grasos saturados y en colesterol; en concreto
menos del 7% de calorías obtenidas a partir
de los ácidos grasos saturados y un nivel de
colesterol asimilado en dieta inferior a 200
·
·
mg/día. También se debe incrementar la
cantidad de fibra soluble. Por ello sería
conveniente incluir en la dieta alimentos como
el pescado, la carne de ave sin piel, los
cereales integrales, las frutas y las verduras.
Y limitar el consumo de órganos animales
como el hígado y las yemas de los huevos.
Control del peso. Como se había indicado
anteriormente, uno de los factores de riesgo
es el de presentar sobrepeso. Así pues, perder
peso en estos casos puede ayudar a disminuir
los niveles de LDL-colesterol.
Actividad física. Una actividad física regular
(del orden de 30 minutos al día) es
recomendable para cualquiera, pero en este
caso permite aumentar los niveles de HDLcolesterol y bajar los de LDL-colesterol.
Asimismo ayuda a controlar el peso, la
diabetes y la hipertensión
por tanto, de su función. La HDL disfuncional se
produce cuando una enzima de los glóbulos blancos,
la mieloperoxidasa se une a la apoproteína A-1 y la
modifica. Una vez producida esta modificación la
apoA-1 bloquea la capacidad de la HDL de llevar a
cabo sus funciones normales. Por tal motivo se
encuentra bajo estudio un ensayo para identificar
HDL disfuncional. Se ha descubierto un marcador
químico para detectar la presencia de mieloperoxidasa
unida a HDL modificada, de manera que la
determinación de su nivel permitiría determinar qué
individuos aun presentando altos niveles de HDL son
susceptibles
de
padecer
enfermedades
cardiovasculares [Zheng y cols., 2004].
Como sucede en la vida misma, el malo
siempre es malo, pero el bueno no siempre lo es.
Permitiéndome un juego de palabras, lo bueno en este
caso es adoptar un estilo de vida que no sea malo.
BIBLIOGRAFÍA
2.- Tratamiento con fármacos. El tratamiento con
medicamentos debería ir acompañado con cambios
en el estilo de vida. Existe una gran variedad de
fármacos para disminuir los niveles de colesterol, entre
los cuales se encuentran las estatinas, los
secuestradores de ácido biliar, el ácido nicotínico, los
ácidos fíbricos y los inhibidores de absorción del
colesterol. De ellos los más eficaces para reducir el
nivel de colesterol en la mayoría de personas son las
estatinas.
Pero, de todas maneras, la situación con
respecto al colesterol es más compleja de lo que
parece. Por un lado, existe una variación genética de
la LDL plasmática denominada Lp(a) cuyo nivel
elevado supone un importante factor de riesgo para
desarrollar de forma prematura ateroesclerosis.
Todavía no está claro cómo la Lp(a) contribuye al
desarrollo de enfermedades cardiovasculares. No
obstante, las lesiones que se producen en las paredes
arteriales producen sustancias que pueden interactuar
con la Lp(a), dando lugar a la formación de ateromas.
Por otro lado, y como se ha indicado anteriormente,
se ha designado al HDL-colesterol como el «colesterol
bueno»; pero no siempre éste protege contra la
formación de ateromas en las arterias. Ello sucede
en algunas personas que presentan unas lipoproteínas
de alta densidad disfuncionales y, por tanto, incapaces
de realizar de forma correcta su función. Esto explica
el porqué personas con elevados niveles de HDLcolesterol pueden sufrir enfermedades
cardiovasculares. Las lipoproteínas de alta densidad
se encuentran formadas por proteínas y lípidos. La
apoproteína A-1 (apoA-1) es el principal componente
proteico de la HDL, responsable de su estructura y,
AMERICAN HEART ASSOCIATION (AHA)
(2005). Colesterol. En: www.americanheart.org/
presenter,jhtml?identifier=4488.
NATIONAL INSTITUTES OF HEALTH (NIH)
(2001). High Blood Cholesterol: What you need to
know. NIH Publication nº 05-3290.
ZHENG, L.; NUKUNA, B.; BRENNAN, M.L.;
MINGJIANG S.; GOORMASTIC, M.; SETTLE, M.;
SCHMITT, D.; FU, X.; THOMSON, L.; FOX, P.L.;
ISCHIROPOULOS, H.; SMITH, J.D.; KINTER, M.
y S. L. HAZEN (2004). Apolipoprotein A-I is a
selective target for myeloperoxidase-catalyzed
oxidation and functional impairment in subjects
with cardiovascular disease. J. Clin. Invest., 114:
529-541
Juan Carlos Codina Escobar
Profesor de Biología-Geología
I.E.S. Los Montes de Colmenar (Málaga)
26
RECICLAJE DE PILAS SALINAS
POR VÍA HÚMEDA
José Francisco Tejón Blanco
1. INTRODUCCION
en su interior, y entre ellos una pasta húmeda de
dióxido de manganeso (despolarizante), negro de
carbono y cloruro de amonio (electrolito). Entre el
relleno y el recipiente de zinc hay un papel poroso
que los separa e impide que haya reacción sin estar
conectados los polos. Todo ello está envuelto en una
funda de plástico que aísla e impide posibles
cortocircuitos; algunas pilas tienen una cubierta de
chapa metálica encima.
Una pila eléctrica es un dispositivo
electroquímico que produce una corriente eléctrica
continua en base a una reacción de oxidaciónreducción. Su funcionamiento, a grandes rasgos,
consiste en la transferencia de electrones de un
reductor a un oxidante, con la particularidad de que
estos electrones se transportan a través de un
conductor con objeto de hacerlos pasar por los
sistemas eléctricos que se quieran hacer funcionar.
Las reacciones que ocurren dentro de una
pila salina son las siguientes:
La variedad de pilas existente en el mercado
hoy en día es enorme; no obstante, sólo nos
centraremos en un tipo, que son las pilas salinas o
pilas Leclanché, pues están muy extendidas en el
mercado por su versatilidad y bajo precio. Este
modelo de pilas fue desarrollado por el ingeniero
1. En el ánodo, el zinc metálico se oxida:
Zn
Zn2+ + 2e-
2. En el cátodo, el dióxido de manganeso
se reduce, formando el oxohidróxido de
manganeso (III):
2MnO2 + 2H2O + 2e2OH-
2MnO(OH) +
3. En el electrolito, el cloruro amónico
reacciona con los iones hidroxilo producidos
en el cátodo para dar amoníaco. El ión zinc
reaccionará con este amoniaco y con los
iones cloruro presentes para dar un complejo
aminado. De este modo, se evita que el
amoníaco gas recubra los electrodos, lo que
reduciría la fuerza electromotriz de la pila
(polarización):
NH4Cl + OH-
francés George Leclanché en 1866 y supuso una
revolución al suministrar un potencial razonablemente
constante de 1,5 voltios y no tener un electrolito líquido
que dificultara su uso. Por esta razón, también se han
denominado pilas secas.
NH3 + H2O + Cl-
Zn2+ + 2NH3 + 2Cl-
[ZnCl2(NH3)2]
La reacción global es:
Zn + 2NH4Cl + 2MnO2
[ZnCl2(NH3)2] +
+ 2MnO(OH)
Una pila salina se compone de un recipiente
de zinc, que actúa como ánodo (polo negativo); una
barra de grafito que es el cátodo (polo positivo), situada
27
NECESIDAD DEL RECICLAJE DE PILAS
que las impurezas se oxidan y pueden retirarse en
forma de escoria en la superficie del fundido.
Obviamente, el método tiene ciertas variaciones según
el tipo de pila que consideremos, pero a grandes rasgos
tiene la misma base.
Las pilas salinas, a diferencia de otras como
las de níquel-cadmio, níquel-hidruro, litio o ión litio, no
son recargables, por lo que una vez agotados sus
reactivos son totalmente inútiles y no pueden
reutilizarse.
Este método no necesita un excesivo
procesado previo de las pilas, pero por el contrario el
consumo de energía es elevadísimo. Este hecho, unido
al necesario tratamiento de los humos que se
producen, lo hacen sólo adecuado para grandes
instalaciones, muy caras y de difícil instalación en
muchas localidades.
A pesar de la merecida fama de residuo
peligroso que tienen las pilas, un importante porcentaje
(en torno al 45% en 2002) acaban en la basura,
llegando a los vertederos, donde se descomponen, y
sus metales pesados llegan indefectiblemente a los
acuíferos, con nefastas consecuencias. Si estas
basuras son incineradas, los metales se volatilizan y
pasan a la atmósfera, lo cual es aún peor si cabe.
B) Métodos hidrometalúrgicos:
Estos métodos se basan en la lixiviación de
los metales contenidos en las pilas, previamente
molidas, con reactivos específicos en disolución.
Del porcentaje de pilas que son recuperadas
en contenedores específicos, una gran parte son
incineradas y sus cenizas inmovilizadas con cemento,
y otras acaban como relleno de terrenos, lo cual es
cuanto menos inadecuado, a pesar del aislamiento que
se le supone a estos depósitos.
Como ventajas tienen el bajo consumo de
energía, la escasa o nula emisión de humos, la fácil
adaptación a pequeñas instalaciones y el bajo coste.
En contra tienen la necesidad de una separación y
procesado previo de las pilas, que puede ser compleja,
y el gran consumo de agua, aunque esto último puede
ser solventado reciclando el agua del proceso en una
planta adecuada, anexa a la instalación.
En noviembre de 2003, la Comisión Europea
propuso nuevas normas concebidas para garantizar
la recuperación y el reciclaje de casi el 100% de las
pilas usadas, en un intento por prevenir los problemas
medioambientales y de salud que podrían causar. Sin
embargo, a lo largo del año 2002 tan sólo el 17 % del
millón largo de toneladas de pilas que se producen en
la Unión Europea, por lo que aún queda mucho por
hacer.
4. METODO PROPUESTO
RECICLAJE DE PILAS
EN
EL
En esta sección se propondrá un método para
el reciclaje de pilas salinas agotadas; no obstante,
también podría aplicarse a las pilas alcalinas con igual
efectividad, por su similar composición y estructura.
La situación respecto a las pilas salinas y
alcalinas no es tan grave, pues su contenido en
mercurio se ha limitado al 0.0005%, según la Directiva
Europea de Pilas y Acumuladores (98/101/EEC), y
los metales restantes (manganeso y zinc) son de
escasa peligrosidad. Sin embargo, no son inocuas y el
valor de los metales hace interesante su recuperación.
3. TENDENCIAS ACTUALES
RECICLAJE DE PILAS
PARA
El método está basado en una idea original,
aunque tiene ciertos pasos basados en métodos
industriales preexistentes. Su marco de aplicación es
preferentemente en instalaciones industriales
pequeñas, pues el procedimiento es bastante barato y
no requiere un elevado consumo de energía, salvo si
se opta por la electrolisis en algún paso. Además, los
equipos no son excesivamente complejos.
EL
Hoy en día hay diversos métodos de reciclaje
de pilas; estos métodos pueden dividirse en dos
grandes grupos:
Una vez hechas estas aclaraciones, se
describirán todos los pasos del método:
1º) Desmontaje de las pilas y separación
de sus componentes:
A) Métodos pirometalúrgicos:
Consisten básicamente en un calentamiento
de las pilas troceadas hasta su fusión. Los metales
más volátiles, como cadmio y mercurio, se evaporan
y pueden condensarse en un tubo refrigerado, mientras
La estructura de las pilas es muy compacta,
por lo que el mejor método para desmontarlas es
triturarlas en pedazos pequeños y después introducirlas
28
en un molino de bolas; de este modo, la mayor parte
de la pila se reduce a polvo fino, la forma ideal para
facilitar la acción de los reactivos.
- El diclorodiaminzinc reacciona con los iones
hidroxilo, formándose también el zincato. El
desprendimiento de amoniaco se ve favorecido por el
medio básico, más aún si se calienta ligeramente:
En este proceso hay que tener en cuenta que
el interior de la pila está húmedo, por lo que la
trituración tal cual puede dar como resultado una pasta
que se adhiera a las cuchillas de la trituradora. Para
solventar esto, hay una opción, que se denomina
molturación criogénica y consiste en enfriar las pilas
a muy baja temperatura con la intención de hacer
todos sus componentes quebradizos y obtener un
granulado perfectamente suelto. Este enfriamiento
puede hacerse con nitrógeno líquido.
[ZnCl2(NH3)2] + 4NaOH
Na2[Zn(OH)4] +
2NaCl + 2NH3
El amoniaco se aspira con un dispositivo de
recogida de gases adecuado y puede usarse en
reacciones posteriores del proceso.
- Los plásticos, debido a su baja densidad, flotarán en
la disolución, y pueden ser recuperados.
Este granulado se traslada al molino de bolas
antes mencionado, donde se reducirá a polvo fino.
Para evitar el apelmazamiento del polvo, se introduce
una corriente de aire caliente por un extremo del
molino, que evapora la humedad. El resultado es que
a la salida del molino se produce un polvo muy fino.
- El papel se degradará casi por completo, pues la
celulosa es muy atacada por los álcalis.
- Los demás componentes permanecerán inalterados,
pues el carbono es inatacable por las bases y el
anfoterismo de los óxidos de manganeso es casi
inexistente.
A continuación, este polvo se pasa por un
electroimán, que atraerá las partículas de naturaleza
ferrosa procedentes de la carcasa, y que se reúnen y
envían a las industrias siderúrgicas para su reciclaje.
Los granos de plástico existentes en el polvo se
separarán en el siguiente paso.
La mezcla se filtra en sistemas adecuados. La
disolución contiene zincato sódico, cloruro sódico e
hidróxido sódico en exceso. Para recuperar el zinc, lo
primero es neutralizar con un ácido, como el sulfúrico,
convenientemente diluido:
2º) Lixiviado del polvo:
Na2[Zn(OH)4] + 2H2SO4
ZnSO4 + Na2SO4 +
4H 2O
El polvo obtenido, después de eliminar los
metales ferrosos, contiene dióxido de manganeso
residual, oxohidróxido de manganeso (III),
diclorodiaminzinc, zinc metálico del ánodo, grafito del
cátodo, negro de carbono, plásticos de la carcasa y
trazas de papel separador.
El zinc (II) puede precipitarse con carbonato
sódico, obteniéndose una mezcla de carbonatos
básicos de composición variable, muy insolubles. El
calentamiento de estos carbonatos nos producirá óxido
de zinc, sustancia con gran interés industrial. La otra
opción es electrolizar la disolución para recuperar zinc
metálico. Obviamente, el consumo de energía eléctrica
encarece el proceso.
Este polvo lo tratamos con una disolución de
hidróxido sódico a pH en torno a 11,5. La reacción
con los diversos componentes de la mezcla es como
sigue:
3º)
Disolución de los óxidos de
manganeso:
- El zinc metálico es un metal anfótero, como el
aluminio, que reacciona con las bases formando
zincatos solubles y desprendiendo hidrógeno. Por tanto,
se disolverá:
El filtrado se lava convenientemente con agua
para arrastrar los restos de zinc y de sosa. De este
modo, lo que nos queda es una mezcla de dióxido de
manganeso, oxohidróxido de manganeso (III), grafito,
negro de carbono y restos varios no atacados en el
paso anterior.
Zn
Zn2+ + 2e2H2O + 2e
H2 + 2OH————————————————————
Zn + 2H2O
Zn2+ + H2 + 2OHZn + 2NaOH + 2H2O
Los óxidos de manganeso III y IV son bastante
oxidantes (sobre todo este último) y pueden ser
reducidos fácilmente por el peróxido de hidrógeno.
Na2[Zn(OH)4] + H2
29
Esta sustancia es habitualmente conocida por
su carácter oxidante, pero lo cierto es que en medio
ácido puede ser oxidada a oxígeno molecular por
oxidantes fuertes.
manganeso precipitado se filtra y lava; su carácter
amorfo lo hace idóneo para la construcción de pilas.
En este método se usan ácidos diluidos, lo que
supone una ventaja en cuanto a la seguridad; además,
se obtiene como producto el dióxido de manganeso,
que tiene gran salida en la industria en la fabricación
de nuevas pilas.
Para ello, se prepara una disolución de peróxido
de hidrógeno al 5-10% (no más concentrada, pues el
desprendimiento de oxígeno podría ser violento)
acidificada con ácido sulfúrico. A esta disolución se
le añade el precipitado del paso 2; las reacciones que
ocurren con cada componente son:
5. BIBLIOGRAFIA
- GREENWOOD, N. N.; EARNSHAW, A.
«Chemistry of the Elements». ButterworthHeinemann, 1997 (2ª Ed.). Págs. 1047-1049, 1057,
1204-1206.
- BÜCHEL, K. H.; MORETTO, H.-H.;
WODITSCH, P. «Industrial Inorganic Chemistry».
Wiley-VCH, 2000 (2ª Ed.). Págs. 121, 284 - 293.
- HOUSECROFT, C. E.; SHARPE, A. G. «Inorganic
Chemistry». Pearson Education Lted., 2001 (1ª Ed.).
Pág. 508.
- BURRIEL MARTÍ, F; LUCENA CONDE, F;
ARRIBAS JIMENO, S; HERNÁNDEZ MÉNDEZ,
J. «Química Analítica Cualitativa». Paraninfo
Thomson Learning, 2001. Págs. 680 - 697.
- AA. VV. «The Merck Index». Merck & Co., Inc.,
2001 (13ª Ed.)
- BARTOLOZZI, M.; BRACCINI, G.; MARCONI,
P.F.; BONVINI, S. J. Power Sources, 1994, 48 (3),
389-392.
- FROHLICH, S.; SEWING, D. J. Power Sources,
1995, 57 (1-2), 27-30.
- DE SOUZA, C.C.B.M.; DE OLIVEIRA, D.C.;
TENORIO, J.A.S. J. Power Sources, 2001, 103 (1),
120-126.
- SALGADO, A.L.; VELOSO, A.M.O.; PEREIRA,
D.D.; GONTIJO, G.S.; SALUM, A.; MANSUR,
M.B. J. Power Sources, 2003, 115 (2), 367-373.
- DE SOUZA, C.C.B.M.; TENORIO, J.A.S. J.
Power Sources, 2004, 136 (1), 191-196.
- Dióxido de manganeso:
H2O2
O2 + 2H+ + 2eMnO2 + 4H+ + 2eMn2+ + 2H2O
————————————————————
MnO2 + H2O2 + 2H+
O2 + Mn2+ + 2H2O
MnO2 + H2O2 + H2SO4
O2 + MnSO4 + 2H2O
- Oxohidróxido de manganeso (III):
O2 + 2H+ + 2eH2O2
2(MnO(OH) + 3H+ + eMn2+ + 2H2O)
————————————————————
2MnO(OH) + H2O2 + 4H+
2Mn2+ + O2 + 4H2O
2MnO(OH) + H2O2 + 2H2SO4
4H 2O
2MnSO4 + O2 +
- Los demás componentes no se verán afectados por
el tratamiento, pero podrán filtrarse con facilidad.
Podrán ser incinerados sin problemas en sistemas
adecuados.
El manganeso puede recuperarse como
carbonato insoluble, después de filtrar la suspensión,
o bien por electrolisis. Además, existe una tercera
posibilidad, basada en el carácter oxidante del
peróxido de hidrógeno en medio básico. Como se
supone que está en exceso, basta con alcalinizar la
disolución. Incluso podemos usar con este fin el
amoníaco que se extrajo del complejo de zinc:
H2O2 + 2e2OH2+
Mn + 4OH
MnO2 + 2H2O + 2e————————————————————
Mn2+ + H2O2 + 2OHMnO2 + 2H2O
2 (NH3 + H2O
NH4+ + OH-)
————————————————————
Mn2+ + H2O2 + 2 NH3
MnO2 + 2NH4+
MnSO4 + H2O2 + 2 NH3
- http://www.wasteonline.org.uk/
- http://www.wastewatch.org.uk/
- http://www.batteryuniversity.com
José Francisco Tejón Blanco
Alumno de 4º de Licenciado en Química de la
Universidad de Málaga.
MnO2+ 2(NH4)2SO4
Obviamente, también podrá utilizase sosa, pues
lo importante es alcalinizar el medio. El dióxido de
30
OZONO ATMOSFÉRICO
Lorenzo Chicón Reina
El ozono (del griego Dæåéí, tener olor) es la
forma alotrópica del oxígeno constituida por moléculas
triatómicas del elemento del mismo nombre (O3). El
ozono gaseoso es incoloro con un tono ligeramente
azulado y tiene un característico olor acre que puede
resultar irritante. Si se le enfría a -112 oC se convierte en
un líquido azulado, capaz de solidificar a -193 oC en una
sustancia de color azul-violáceo oscuro, casi negro. En
la naturaleza se le suele encontrar como resultado de las
descargas eléctricas producidas en las tormentas y en
las capas altas de la atmósfera, particularmente en la
troposfera, como consecuencia de la acción de los rayos
ultravioleta sobre las moléculas de dioxígeno. El ozono
es una sustancia bastante inestable y altamente oxidante,
usada como blanqueador y desinfectante, utilizándose
cada vez con mayor frecuencia en los procesos de
esterilización y potabilización del agua y como bactericida
en la industria alimentaria. En la atmósfera terrestre suele
concentrarse en la estratosfera formando una capa
protectora denominada ozonosfera (ozono estratosférico)
y nos protege de las radiaciones ionizantes de corta
longitud de onda. Pero también se puede concentrar en
las capas bajas de la atmósfera (ozono troposférico)
donde se ha convertido en uno de los contaminantes
más habituales de las zonas urbanas, con efectos
claramente perjudiciales para la salud.
El ozono se descompone fácilmente para formar
dioxígeno, en un proceso claramente exoenergético, de
acuerdo con la siguiente reacción:
2 O3
3 O2
comprendidas entre 15 y 40 km (ozonosfera), se observa,
además, las reacciones [b], [c] y [d].
O2 + hn
O + O2 + M
O3 + hn
O + O3
2 O [a]
O3 + M [b]
O2 + O [c]
2 O2 [d]
(M es un sustrato aceptor de energía, normalmente moléculas de
N2 y O2)
La radiación de longitud de onda inferior a 240
nm propicia la disociación de las moléculas de dioxígeno
(O 2) como se indica en la reacción [a] y,
consecuentemente, favorece la formación de ozono (O3).
En cambio las radiaciones de longitud de onda superior
a 290 nm favorecen la destrucción del ozono (O3) para
formar dioxígeno O2 y oxígeno atómico (O), como se
puede apreciar en la reacción [c]. Finalmente, el ciclo
se completa con la destrucción de ozono como se indica
en la reacción [d]. A ese conjunto de procesos se les
denomina reacciones de Chapman.
Parece claro que se establece un equilibrio entre
la formación y la destrucción de ozono, en el que la
concentración de éste oscila entre 0,03 y 0,08 ppm (partes
por millón), alcanzando el máximo valor a unos 25 km de
la superficie terrestre.
Para expresar la cantidad de ozono en la
atmósfera se suele recurrir a las Unidades Dobson, UD
(DU según la nomenclatura anglosajona). Se define la
Unidad Dobson como la cantidad equivalente a 2.7 ×
1020 moléculas de ozono por cada metro cuadrado.
El valor medio para la superficie terrestre se
corresponde con 300 DU y para comprender su
magnitud, baste decir que todo el ozono de la
atmósfera, en condiciones normales de presión y
temperatura, tendría un espesor de tan sólo 3 mm si
se pudiese concentrar sobre la superficie de la Tierra.
Queda claro que las cifras en DU que se facilitan
habitualmente, se refieren a la cantidad de ozono que
se encuentra en la columna de aire sobre la que se
DHo = -144 kJ/mol
Como además en dicho proceso se produce un
aumento de entropía, se comprenderá ahora, por qué en
la superficie terrestre, al abrigo de radiaciones de corta
longitud de onda, el ozono es altamente inestable.
Ozono estratosférico: un filtro protector
En las capas altas de la atmósfera (por encima
de los 80 km), los fotones de alta energía disocian a las
moléculas de dioxígeno (O2), por lo que sólo es posible
encontrar oxígeno monoatómico (O), como queda
expresado en la reacción [a]. A alturas menores,
31
realiza la medición y que dichos valores cambian en
función de la latitud, la climatología o la estación del
año.
destrucción de ozono estratosférico no se vean
alterados por la acción humana, ya que, de lo contrario,
el efecto protector de la ozonosfera quedaría
seriamente mermado ante una peligrosa radiación
ultravioleta capaz de infligir serios daños a todas las
formas de vida.
La actividad humana genera una ruptura del
equilibrio en las reacciones de Chapman, con una clara
tendencia a la destrucción de ozono. Dichos procesos
pueden resumirse en las siguientes reacciones:
La ozonosfera constituye un eficaz filtro que
nos protege de la peligrosa radiación ultravioleta,
cuyos efectos se traducen en alteraciones del ADN
de los organismos vivos, además de afectar
negativamente a la fotosíntesis de las plantas y del
fitoplancton y de provocar enfermedades de la piel
en las personas. Para comprender los beneficios
producidos por la ozonosfera, obsérvese
detenidamente la figura 1. En ella se representa la
concentración de ozono, expresada en Unidades
X + O3
XO + O2 [e]
O3 + hn
O + O2 [f]
XO + O
X + O2 [g]
2 O3 + hn
3 O2 [reacción neta]
en las que el símbolo X representa a especies químicas
(fundamentalmente radicales libres) capaces de
catalizar la destrucción del ozono. Entre esas especies
podemos encontrar algunas que proceden de
fenómenos naturales como el óxido nítrico (NO) o los
radicales hidroxi (HO·), pero otras tienen un origen
claramente antropogénico como el bromuro de metilo
(BrCH 3), el tetracloruro de carbono (CCl4), los
halones o los CFCs.
Dobson por cada km de columna de aire, frente a la
altura en km. Nótese cómo la máxima concentración
corresponde a una altura comprendida entre los 20 y
25 km. Llama especialmente la atención la capacidad
de la atmósfera para retener gran parte de la radiación
ultravioleta. En concreto, retiene completamente a las
radiaciones denominadas UV-c (200-280 nm),
responsables, en gran parte, de la fotodisociación del
dioxígeno expresada en la reacción [a]. Sin embargo,
se puede comprobar como la ozonosfera no absorbe
por completo la radiación UV-b (280-320 nm),
alcanzando la superficie terrestre una pequeña parte
de ella; de ahí la importancia que tiene protegerse de
esa dañina radiación mediante el uso de cremas
solares, especialmente en las horas en que los rayos
inciden cenitalmente, situación que depende de la hora
del día, la estación y la latitud. Finalmente, la radiación
UV-a (320-400 nm) apenas si es absorbida por la
atmósfera terrestre, pero, afortunadamente, es la
menos dañina de las tres y sus efectos son fácilmente
asumibles por los seres vivos expuestos a ella.
Para comprender la magnitud del problema, hay
que tener en cuenta que en este último grupo de
sustancias encontramos compuestos altamente
estables en la troposfera, que tras un largo viaje que
puede durar varios años, alcanzan la estratosfera.
Destrucción de la capa de ozono
Se comprenderá ahora por qué es tan
importante que los procesos de formación y
32
Ahora, bajo la acción de la radiación ultravioleta más
energética, sus moléculas sufren procesos fotolíticos
de ruptura radicalaria, liberándose átomos de cloro
altamente reactivos que inician el ciclo de destrucción
de ozono de acuerdo con las reacciones [e], [f] y [g].
Un solo átomo de cloro puede llegar a destruir más
de 100.000 moléculas de ozono.
Como consecuencia de los estudios realizados
por la comunidad científica, se tomó conciencia del
problema tras las investigaciones derivadas de la
disminución progresiva de la capa de ozono antártico
(comúnmente conocido como agujero de la capa
de ozono). El Protocolo de Montreal de 1987, relativo
a las sustancias que agotan la capa de ozono, así como
las enmiendas de 1990, 1992, 1995, 1997 y 1999, ha
tratado de solucionar este grave problema, que no es
exclusivo de la Antártida y que se ha reproducido en
el Ártico, aunque con menor intensidad. La acción
coordinada de los países firmantes del tratado ha
permitido reducir las emisiones de gases
contaminantes, lo que parece estar dando resultados
que prometen ser esperanzadores.
Autores como A. D. Mathias alertan sobre una
nueva amenaza: el óxido nitroso (N2O). Este gas, se
forma de manera natural en los procesos de
desnitrificación bacteriana de los nitratos. Sin
embargo, el exceso de abonado en suelos agrícolas
está contribuyendo a un acelerado crecimiento de las
emisiones a la atmósfera de NO2, que debido a su
estabilidad química puede alcanzar la estratosfera y,
por acción de la luz ultravioleta, presentar la siguiente
reactividad:
N2O + hn
N 2O + O
y participa con un porcentaje considerable en el
calentamiento global del planeta, como consecuencia de
su contribución al denominado «efecto invernadero».
El ozono troposférico es un típico contaminante
secundario, ya que se forma por la reacción de otros
contaminantes (contaminantes primarios), con los
componentes naturales de la atmósfera y a expensas de
la radiación solar. Junto al ozono, se ha identificado una
gran familia de sustancias que participan en complejos
procesos de naturaleza fotoquímica, entre las que cabe
citar a aldehídos, cetonas, ácidos, peróxido de hidrógeno,
nitrato de peroxiacetilo, radicales libres y otras de diverso
origen como sulfatos (del SOx) y nitratos (del NOx).
Esta nueva forma de contaminación en las grandes
áreas urbanas es el denominado smog fotoquímico, el
cual se caracteriza por un nivel relativamente alto de
oxidantes que irritan ojos y garganta, ataca a las plantas,
produce olores y disminuye la visibilidad. Su origen está
en la interacción de la luz solar ultravioleta (UV) de 400
a 200 nm (energías de 290 a 580 kJ/mol) con algunos
componentes de la atmósfera. La disociación fotoquímica
se puede considerar como un proceso de dos etapas,
cuyo mecanismo se resume en las siguientes ecuaciones:
A + hn
A*
A*
B+C
Frecuentemente, el estado excitado A* es muy inestable
por lo que la segunda reacción ocurre rápidamente. Por
otro lado, B o C (o ambos) pueden ser altamente
reactivos, por lo que originarían una cadena de reacciones
químicas responsables del smog fotoquímico.
Sustancias emitidas por la industria pesada y por
las fuentes móviles (vehículos a motor), como el óxido
nítrico, NO, y los compuestos orgánicos volátiles, COVs/
VOCs, bajo la acción de la luz solar, constituyen gran
parte de la contaminación fotoquímica en la troposfera.
Este fenómeno se acrecienta en épocas de gran
insolación con bajo régimen de vientos.
El NO tiene su origen en las combustiones a
elevadas temperaturas (como consecuencia de la
reacción entre el nitrógeno y el oxígeno presentes en el
comburente) y es emitido a la atmósfera, donde se oxida
para formar NO2, el cual se considera como el principal
precursor del ozono, según se desprende de las siguientes
ecuaciones:
N2 + O [h]
2 NO [i]
Finalmente, el NO inicia el proceso de
destrucción del ozono de acuerdo con las reacciones,
[e], [f] y [g]. Según este mismo autor, la concentración
de N2O en la atmósfera se incrementa un 0,25%
anual, de tal modo que cuando el incremento neto
alcance el 25% sobre el valor actual, ello podría
suponer una reducción del ozono estratosférico en
torno al 3-4%, lo que produciría un desequilibrio
especialmente perjudicial para todos los seres vivos.
Ozono troposférico: un nuevo enemigo
2NO + O2
El ozono, esa extraña sustancia que desde las
capas altas de la atmósfera nos protege de la radiación
ultravioleta se ha convertido en la troposfera en un
contaminante de primer orden. Es el principal
protagonista de la contaminación por «smog» fotoquímico
2NO2 [j]
NO2 + hn
NO + O* [k]
Como se puede apreciar, la presencia de O
monoatómico puede dar lugar a la formación de ozono
según la ecuación [b] y por tanto se puede concluir que
33
en la troposfera la presencia de NO, y su lenta conversión
en NO2, actúa como precursor del O3, aquí ya como
contaminante. el cual a su vez puede reaccionar con el
NO de la siguiente forma:
O3 + NO
el aire ambiente. La legislación vigente fija los
siguientes niveles para el ozono troposférico,
considerando la medida del volumen a una
temperatura de 293 Kelvin y presión de 101,3 Kpa:
NO2 + O2 [l]
Se observa cómo la presencia de óxidos de
nitrógeno, NOx, por sí sola, no garantiza la formación de
ozono, ya que, a la vez que se está formando a expensas
del O liberado en la reacción [k] (paso previo a la síntesis
referida en la reacción [b]), también se está destruyendo
como se indica en la reacción [l]. Se han sugerido otras
reacciones, como es lógico, donde se forman productos
intermedios de diversos óxidos de nitrógeno, que a su
vez pueden reaccionar con otras sustancias presentes
en la atmósfera, como el vapor de agua,
4NO2 + 2H2O + O2
3NO2 + H2O
Estudiando los datos de las inmisiones habidas
en las estaciones de muestreo y análisis de la provincia
de Málaga se han obtenido los resultados que reflejan
la figura 3, donde se observa que los valores máximos
para 1 hora están próximos al límite umbral de
información, aunque lejos del umbral de alerta. Se ha
rebasado el nivel de protección a la salud un buen
número de veces (13 en El Atabal, 2 en Hilera, 10 en
Paseo de Martiricos y 28 en Marbella), aunque este
índice no es vinculante hasta el 1 de enero de 2010.
4HNO3 [m]
2HNO3 + NO [n]
abatiéndose gran parte del NO2 por formación de gotas
de HNO3, que pueden quedar en suspensión (aumenta
el poder corrosivo de la atmósfera), o bien volver a la
corteza terrestre como lluvia ácida. De acuerdo con esta
secuencia de reacciones no se justificaría la
contaminación por ozono en la troposfera.
Ahora bien, la presencia de hidrocarburos en las
capas bajas de la atmósfera propicia la formación de
radicales peróxido, ROO·, capaces de oxidar al NO hasta
NO2 (lo que inhibiría la destrucción de ozono detallada
en la reacción [l]), dando por resultado un incremento
en la producción de O3. Igualmente, la presencia de
aldehídos, cetonas, peróxidos y nitratos de acilo
promueven, en presencia de la luz solar, la formación de
radicales altamente reactivos capaces de combinarse
con el O2 para formar radicales de gran actividad química
que convierten al NO en NO2, favoreciendo por tanto la
formación de ozono (recordar que el NO2 es precursor
del O3 como se detalla en la ecuación [k]) e inhibiendo
la descomposi-ción del mismo según la ecuación [l].
Gestión y control del ozono troposférico
El control de este contaminante se realiza
mediante estaciones de muestreo y análisis, cuyo
número varía considerablemente de unos países
europeos a otros. Según datos de la Agencia Europea
de Medio Ambiente, se ha observado un porcentaje
considerable de superaciones del nivel umbral en la
mayoría de los estados miembros de la Unión,
exceptuando a los países nórdicos. España muestra
un número aceptable de estaciones y los datos de las
mediciones revelan un problema en alza, pero que
Para controlar los niveles de contaminación por
O3, la Unión Europea adoptó la Directiva 2002/3/CE
del Parlamento Europeo y del Consejo de 12 de
febrero de 2002, relativa al ozono en el aire ambiente.
Esta normativa de obligado cumplimiento ha sido
transpuesta a la jurisdicción española y desarrollada
con legislación específica de ámbito estatal y
autonómico, en particular mediante el Real Decreto
1796/2003, de 26 de diciembre, relativo al ozono en
34
todavía no es preocupante salvo en determinadas
zonas urbanas con elevados niveles de tráfico.
Este problema plantea una acción concertada que
persiga la disminución de las emisiones de óxidos de
nitrógeno, NOx y compuestos orgánicos volátiles, COVs.
Los NOx se originan en las combustiones a elevadas
temperaturas, por lo que las fuentes de emisión más
comunes son los motores de combustión de los vehículos,
las centrales térmicas y las calderas industriales.
·
·
·
·
·
Puesto que la lucha contra las emisiones de COVs
se ha mostrado insuficiente por la complejidad que
entraña, dada la variada naturaleza de los contaminantes
(barnices, pinturas, disolventes, carburantes, etc.) y la
BIBLIOGRAFÍA/WEBOGRAFÍA
CENTER FOR COASTAL PHYSICAL
OCEANOGRAPHY http://www.ccpo.odu.edu/
SEES/ozone/oz_class.htm
ESPERE-ENC http://www.atmosphere.mpg.de/enid/
8ec1890b1da07aa41cc2260ff3a594b1,0/M_s/
2__Ozono_34w.htmlKIRKWOOD,
R.C.;
LONGLEY, A.J. (1995). Clean Technology and the
Environment. Blackie Academic & Professional
(Chapman & Hall). Glasgow
O’NEILL, P. (1995). Environmental Chemistry.
Chapman & Hall. London.
PEPPER, I.L.; GERBA, C.P.; BRUSSEAU, M.L.;
MATHIAS, A.D.; y otros. (1996). Pollution Science.
Academic Press. San Diego.
WARK, K; WARNER, C.F. (1997). Contaminación
del aire. Origen y control. Limusa. México.
WIKIPEDIA http://wikipedia.org/
diversidad de las fuentes de emisión (industrial, doméstica,
automoción), los esfuerzos para reducir la contaminación
del ozono troposférico pasan por un control más efectivo
de las emisiones de los óxidos de nitrógeno, NOx. Entre
las medidas propuestas conviene citar las siguientes:
·
rebaja la temperatura de la llama y reduce las
emisiones de NOx. Tiene el inconveniente de que
puede suponer pérdida de eficiencia energética.
Uso de catalizadores, tanto en calderas como en
vehículos a motor. El objetivo es separar los átomos
de N y O, presentes en los óxidos de nitrógeno, para
formar N2, O2 y H2O. En los vehículos se usa el
catalizador de tres vías, con una alta efectividad en
los motores de gasolina, aunque con resultados más
pobres en los motores diésel. En las centrales
térmicas se usan técnicas de reducción catalítica
selectiva (SCR) en presencia de catalizadores de
óxidos metálicos.
Diseño de vehículos con motores más eficientes,
que usen tecnologías menos contaminantes y que
reduzcan su nivel de emisiones.
Mejoras en los hábitos de los ciudadanos, entre
las que se debe contemplar la mayor utilización
del transporte público o una conducción del
vehículo privado más eficiente.
Medidas políticas más restrictivas en cuanto a la
circulación de vehículos por las ciudades y
claramente favorecedoras de la peatonalización
de los centros urbanos.
Política fiscal sobre los automóviles, en función
del nivel de emisiones generadas, así como del
tipo de combustible y del consumo observado.
Lorenzo Chicón Reina
IPFA Málaga
En las centrales térmicas y calderas industriales, la
recirculación de los gases de combustión enfriados,
35
ENERGÍAS RENOVABLES I
José-Aldo Piano Palomo
Introducción
2. Para el mantenimiento y desarrollo de las
industrias, las cuales nos proporcionan un sinfín de
productos.
3. Para la distribución, venta y consumo tanto
de alimentos como de los productos producidos por
las industrias.
4. Para viajar, para uso doméstico ... etc.
Se define energía como la capacidad que
posee un cuerpo, o un sistema de cuerpos, de
proporcionar trabajo mecánico (definición física);
como vigor o como la potencia activa de un organismo
(definición biológica); o como la capacidad de producir
una corriente eléctrica y/o calor a partir de una
reacción, es decir de la transformación de masa en
energía (definición química).
Así mismo, se denomina energía interna, a la
suma de la cantidad de calor y trabajo mecánico que
puede proporcionar un sistema inmóvil.
Se definen como fuentes de energía, las
materias primas o fenómenos naturales utilizados para
la producción de energía: carbón, hidrocarburos
(petróleo), uranio, hulla blanca (agua), sol, geotermia,
viento, mareas, olas, biomasa ... etc.
Es decir, que la energía es uno de los recursos
básicos para el desarrollo humano, pero su consumo
se encuentra repartido de modo muy desigual, ya que
el 22% de la población mundial (los países
desarrollados) consumen el 82% de toda la energía
producida en el mundo (un americano consume 330
veces más energía que un etiope medio). Y, además,
el ritmo de consumo actual puede hacer peligrar la
supervivencia sobre el planeta.
Energías renovables
El gran problema energético
Todos oímos hablar de la energía. Los
periódicos, la radio, la TV, o a través del ordenador,
nos informan de la energía, de su incidencia
medioambiental (caso del Prestige, contaminación) y/
o social (precio de los combustibles, guerra de Irak,
«apagones»). Pocas veces un tema científico ha
trascendido al hombre de la calle con tanta fuerza e
insistencia. Pero es que nos hace falta para casi todo:
1. Para movermos, para calentarnos (o
refrescarnos), para cultivar y alimentarnos.
Veamos qué fuentes de energía son
renovables, y sus posibilidades de uso.
La energía eólica, utiliza el viento. Se utiliza
para generar electricidad, y su mayor potencial se
encuentra en los parques eólicos. Es posible utilizarla
en casas unifamiliares ubicadas fuera de los núcleos
urbanos, y también se utiliza para el bombeo de agua
en viviendas, pueblos o campos de cultivo.
Es una de las fuentes más baratas y
competitivas, y por tanto con mayor futuro.
36
La energía geotérmica se basa en el calor
que sale de las profundidades de la tierra, y que se
transmite por conducción hasta su superficie. El
aumento de temperatura que se observa al
profundizar en el suelo, y que es de 1°C por cada 30
metros, se denomina gradiente geotérmico.
La geotermia de alta energía utiliza distintos
tipos de yacimientos como, por ejemplo, los recursos
hidrotermales de vapor dominante, como en Larderello
(Italia), o de agua dominante, como en Cerro Prieto
(México).
La geotermia de baja energía ofrece dos
posibilidades: la explotación directa, es decir el
aprovechamiento del agua caliente para uso doméstico,
agrícola o industrial; o la producción de electricidad a
partir de yacimientos de vapor. Ambas posibilidades
se utilizan en Islandia. En algunos casos es posible su
empleo para baños termales (Alhama de Granada).
La energía solar, utiliza la energía que llega
directamente del Sol. La cantidad de energía solar en
un lugar determinado depende de la latitud del lugar y
de las condiciones meteorológicas del mismo.
Hay dos tipos de empleo de la energía solar:
la térmica y la fotovoltaica.
La térmica se basa en el aprovechamiento
de la radiación solar para calentar fluidos
(normalmente agua), y suele utilizarse para calentar
el agua de casas, colegios, piscinas y, en el sector
agrario, para granjas e invernaderos.
La fotovoltaica, consiste en la transformación
directa de luz en electricidad, y se usa para obtener
electricidad. Pero esta energía es difícil de captar,
concentrar y conservar, aunque utilizando un sistema
de captación de fotopilas de silicio (rendimiento 1012 %) o de cadmio (rendimiento 5-6 %), se consigue
suficiente energía para hacer funcionar una casa
(utilizando paneles solares de dichos materiales), o
toda una central de 1 MW como la de Puebla de
Montalbán, situada a 20 Km de Toledo, o la Plataforma
Solar de Tabernas (Almería), de 5 MW aunque es
más bien de tipo térmico, o la central de torre Solar
One de 10 MW (en California).
Las previsiones para el año 2010 para la
generación Fotovoltaica por parte del Plan de Fomento
del Gobierno, para las Comunidades Autónomas del
Estado Español, en MW, son:
En el futuro, se prevé la puesta en marcha
37
de orbito granjas eléctricas: Gigantescas centrales
solares que enviarán a la Tierra la electricidad
generada, a 36000 km. de altura, por un gigantesco
colector de paneles fotovoltaicos de miles de
kilómetros cuadrados de extensión, con objeto de
captar la energía solar fuera aún del filtro atmosférico,
y enviarla a la Tierra en forma de microondas. Como
inconveniente para su .instalación, los ecologistas
aducen que provocará la contaminación térmica de
la zona de la Tierra donde se efectúe la recepción de
las microondas para su conversión en energía
eléctrica.
La energía hidroeléctrica (hulla blanca),
que es la obtenida en las centrales hidroeléctricas al
transformar en electricidad la energía potencial del
agua, tiene a su favor el gran desarrollo de su
tecnología y su elevado rendimiento de conversión.
Entre las desventajas se encuentran el transporte (las
centrales están lejos de los consumidores) y los efectos
negativos sobre el entorno (erosión del suelo,
alteración del régimen natural de los ríos, posibles
efectos de los campos electromagnéticos sobre la
salud, inundación de terrenos fértiles ... etc.).
La energía maremotriz, aprovecha el
movimiento de las mareas. En Francia, la central
maremotriz de La Rance produce 550 millones de
kWh anuales desde 1969.
Otras centrales maremotrices son la de Marmansk
(en el mar de Barents) de 20 MW, instalada en 1968,
y la de la bahía de Fundy de 18 MW, instalada en
1984.
Atlántico Norte, cada metro de frente de ola
transporta, por término medio, una energía cinética
equivalente a 70 kW. Y aunque es imposible en la
práctica extraer toda la energía de una ola, existen
mecanismos que funcionan gracias a ella.
Así el investigador Stephen Salter ha
construido unos artilugios flotantes en forma de pera,
a los que todo el mundo llama patos, del tamaño de
una casa unifamiliar, que obtienen energía de las olas.
Otro mecanismo, es el Wave Rotor, de Chris
Retzler, en el cual dos rodillos paralelos sujetos al lecho
marino, giran en sentidos opuestos aprovechando las
corrientes que se producen al paso de las olas.
Otro sistema está funcionando en
Toftestallen, una isla noruega cercana a Bergen: En
1985 se construyó una torre hueca de hormigón
incrustada en un acantilado. Al romper las olas sobre
la base semisumergida, comprime el aire y lo lanza
hacia la parte alta del cilindro (la torre), haciendo girar
una turbina, que basta para las necesidades de 50
casas.
Por su parte la compañía Mitsui Shipbuilding
desarrolló una boya vertical que al ascender y
descender mecida por las olas, pone en movimiento
dos hélices coaxiales acopladas a un generador.
En 1979, Yoshio Masuda instaló sobre una
balsa de 80 x12 metros unas cámaras que absorbían
el movimiento de las olas comprimiendo el aire en su
interior e impulsando unas turbinas verticales: Los 2
MW de la central aún alimentan la red nacional.
Energía obtenida del mar, con el
principio de la máquina térmica: Donde mayores
esperanzas se han depositado para recuperar la energía
que almacena el mar, es en la llamada Conversión
Térmica de los Océanos (OTEC, en inglés), basada
Para instalar este tipo de centrales, es necesario
que el desnivel de las mareas sea superior a 20 metros.
Energía obtenida de las olas: En el
38
BIBLIOGRAFÍA
en el célebre principio de Carnot, segundo de la
termodinámica, según el cual se puede hacer funcionar
una máquina equilibrando el diferencial térmico entre
un foco cálido y un foco frío.
Así, el agua caliente de la superficie de los
mares de los trópicos podría evaporar un líquido de
trabajo que tuviera un punto de ebullición muy bajo,
1. www.emison.com/518.htm
2. www.upme.gov.co/energía/alternativas/ealterna.
asp
3. www.iespana.es/natureduca/
energ_biocombust.htm
4. http://jaibana.udea.edu.a/ grupos/revista/nro024/
contenido.html.
5. http://www.pangea.org.events/sostenible/doc/
cabez.html.
6. http://www.ciemat.es/proyectos/
pderbiocombus.html.
7. lillp://agroforestal.geoscopio.com/cgi-bi…/
portada.cgi?tópico=agr&fichero=biocombustible.
8. http://www.cai.org.or/ivcongreso/
biocombustible.html.
9. http://habitat.aq.upm.es/bpes/ceh2/bpesJ3 .html.
10. http://europa.eu.int/comm/research/success/fr/
ene/0264f. html.
11. Castaño, L. (1995). El gigante de la Mancha.
Revista Muy Interesante Enero-95. Madrid. G y J
España Ediciones S.L.
12. Dossier Tesoros del Mar. Energías Renovables
(1994). Revista
Muy Especial N° 18. Madrid. G
y J España Ediciones S.L.
1 3 . w w w. e n e r g í a s - r e n o v a b l e s . c o m /
index.asp?id=9&NombreE%F3lica.
14. Atarés, B. (1997) Suministros naturales para que
tu casa no contamine. Revista CNR N° 8. Barcelona.
Ediciones Reunidas-Grupo Zeta.
como el freón o el amoniaco. El vapor, generado en
un circuito cerrado, movería unas turbinas y volvería
a condensarse en un intercambiador de calor por el
que circulase agua fría de las profundidades: basta
que el agua de la superficie presente un incremento
térmico de 20°C respecto de la del fondo (22°C y
2°C, por ejemplo) para que el sistema funcione.
El primer experimento se realizó en 1930 en
la bahía de Matanzas, al norte de Cuba, donde se
logró sumergir un tubo de 1’6 metros de diámetro y
cerca de 2 km de largo, que llegó a producir 22 kWh,
aunque consumía más energía de la que producía.
José-Aldo Piano Palomo
I.E.S. La Rosaleda
39
LA ALQUIMIA DEL SALITRE EN EL
MANUSCRITO ALEMÁN DAS
FEUERWERKBUCH (HACIA EL AÑO 1400)
Miguel Ángel López Moreno
INTRODUCCIÓN
sido muy poco estudiado. El trabajo que presentamos
pretende identificar exactamente qué tipo de salitre
obtenían de la manipulación del la sal pétrea (el salitre
de las paredes), y al mismo tiempo poner de manifiesto
que algunos métodos, procedimientos y conocimientos
que tradicionalmente se situaban en el siglo XVI, ya
se apuntan en la versión MS 362 de DFWB, es decir,
siglo y medio antes.
En 2001, los profesores Gerhard W. Kramer
y Klaus Leibnitz presentaron una publicación titulada
«The Firewok Book: Gunpowder in Medieval
Germany» (The Arms & Armour Spciety. London,
2001). En ella incluyeron consideraciones sobre
datación cronológica, autoría, contenidos y, sobre todo,
la primera traducción completa al inglés del manuscrito
MS 362 (Das Feuerwerkbuch) de la Biblioteca de
la Universidad de Friburgo. Con ello pusieron a
disposición de la comunidad científica un interesante
texto cuyo estudio, sin duda, aportará novedades a la
historiografía de la pólvora.
SOBRE LAS CUALIDADES DEL MAESTRO
ARTILLERO
En torno al año 1400, cuando se redacta DFWB,
la pólvora era un producto artesanal, y el arte de
fabricarla conocimiento exclusivo de pocos iniciados.
Eran individuos ilustrados, capaces de leer y escribir,
de hacer cálculos y proporciones, y, sobre todo,
alquimistas prácticos. El maestro artillero era de los
pocos hombres capaces de transformar tres elementos
inertes, salitre, azufre y carbón, en una poderosa
mezcla ... semejante poder no podía dejarse en manos
de cualquiera:
Das Feuerwerkbuch (en adelante
utilizaremos su acrónimo, DFWB) es un manuscrito
anónimo escrito en Alemania a finales del siglo XIV.
Desde ese momento, y durante dos siglos, fue el
catecismo que utilizaron los maestros artilleros,
manipuladores de un arte emergente: la pirobalística.
Gran parte del mismo explica numerosos
procedimientos alquimistas cuyo único fin era
encontrar, producir o purificar salitre, componente
fundamental de la pólvora. DFWB también describe
la forma de confeccionar distintos tipos de ella y de
los procedimientos para regenerarla cuando se
estropeaba. No resuelve, por supuesto, el misterio de
su origen pero supone por el momento el más antiguo
y completo tratado sobre la alquimia del salitre y
manufactura de pólvora.
Él deberá honrar a Dios, tener su imagen
siempre ante él y temerlo más que otros
soldados. Cuando él trabaja con la pólvora
o el arma tiene el peor enemigo entre sus
manos. Esto requiere triple atención.
También en el entorno en el que vive deberá
ser refrenado en el comportamiento y ser un
hombre sin miedo, que actúa valientemente
en la guerra. Los hombres como él inspiran
gran confianza. Por esta razón debería ser
más confiable y reservado que otros
soldados.
Incluye DFWB la descripción y uso de una
primitiva bombarda que llaman Steinbüchse, y la
forma de disparar bolaños y otros tipos de proyectiles.
Los redactores tampoco olvidan incluir nociones sobre
poliorcética, el arte de atacar y defender castillos,
como disciplina propia del maestro artillero. En su
conjunto resulta un compendio de los conocimientos
de su tiempo sobre pirobalística, pólvora y poliorcética.
El maestro también debe ser capaz de leer y
escribir porque de ningún otro modo podrá
mantener en su mente todo el conocimiento
requerido para ejercer su arte ... También
debe estar familiarizado con las cosas con
las que se pueden atacar fortalezas y
lugares amurallados ... Él debe poder
Hasta la publicación de Kramer y Leibnitz,
debido a las dificultades de interpretación del
manuscrito original (escrito en alemán medieval), había
40
por Gebir en el siglo VIII, necesitaba un largo y
laborioso proceso a partir de la materia prima, o a
partir de la sal adulterada por comerciantes
venecianos. Una parte del manuscrito trata de lo que
Leibnitz y Kramer denominan química del salitre.
Abarca los folios 75v al 79v, y está situado en el estrato
más antiguo del texto, hacia 1380. En esas páginas se
describen catorce métodos para purificar salitre a
partir de sal pétrea, o para separar impurezas del salitre
adulterado. En todos los casos es una cuestión de
solubilidades...
manejar pesos y medidas y debe hablar y
actuar con una disposición amistosa, y
siempre estar tranquilo. En particular, debe
evitar el vino y nunca debe embriagarse (MS
362, folio 75r).
MALOS COMERCIANTES VENECIANOS
El maestro artillero sabía que la pólvora, el
alma de la pirobalística, no se debía comprar
confeccionada porque los comerciantes –
especialmente los venecianos– solían cometer fraude
en la composición, usar salitre adulterado o venderla
humedecida o degenerada. Sólo estaban seguro de la
calidad de la pólvora si ellos mismos dirigían la
confección de tan peligrosa mezcla.
SIMPLE CUESTIÓN DE SOLUBILIDADES
Para conocer qué especie química se obtiene
siguiendo los procedimientos descritos en DFWB es
preciso conocer la composición de la materia prima
de la que se partía: las eflorescencias blancas que
recogían en cuevas, o en muros de establos, lo que
hemos convenido en llamar sal pétrea (el salitre de
las paredes). La composición de estos cristales es
muy variable y depende del substrato mineral donde
haya tenido lugar el proceso natural de nitrificación
(formación de amoniaco, nitritos y, finalmente, nitratos,
a partir del nitrógeno orgánico y la participación de
nitroso y nitrobacterias). Generalmente la sal pétrea
es una mezcla de nitratos cálcico, potásico y
magnésico, con sulfatos sódico, cálcico y magnésico;
cloruro sódico y carbonato cálcico; tampoco es
extraña la presencia de cloruro de potasio y otros.
Cada uno de ellos en proporciones muy variables. Para
ilustrar esta variedad sirvan estos ejemplos de tierras
salitrosas que se recolectaban en la India y Ceilán en
los primeros años del siglo XX (Thorpe, 1923. Pág.
680-684):
Si usted necesita comprar salitre purificado,
encontrará en la siguiente enseñanza cómo
comprar salitre de Venecia sin que le estafen.
Esta enseñanza es en particular importante
cuando usted compra salitre importado de
Venecia. Elija un envase (lleno de salitre) y
empuje su mano dentro. Si se moja entonces
no está bien; si la mano permanece seca
entonces está bien (MS 362, folio 78v).
Más adelante insisten en la desconfianza:
Es especialmente difícil comprar salitre
correctamente limpio y purificado si viene
de Venecia (MS 362, folio 79r).
Azufre y carbón no presentaban demasiados
problemas, eran fáciles de conseguir, pero el salitre,
resultado de la purificación de la sal petrae descrita
41
Conocidas las substancias más frecuentes en la sal
pétrea, para entender lo que ocurre en los
procedimientos del DFWB, es necesario conocer las
solubilidades de cada una de ellas a cada temperatura.
Recordemos que la solubilidad de una sal, a una
temperatura dada, es la máxima cantidad de ella capaz
de mantenerse en disolución sin precipitar, es decir, la
concentración de su solución saturada. Se expresa
en gramos de sal disueltos en 100 gramos de agua.
3. Concentrar la disolución mediante ebullición
suave.
4. Enfriar hasta la cristalización de la sal más
insoluble.
5. Decantar o filtrar, y secar al sol la sal
obtenida.
Es decir, el salitre purificado no es más que el
resultado de la primera cristalización de una mezcla
de sales. Pero, ¿cómo se describen estos procesos
en el manuscrito? Veamos la traducción del primer
método, el más simple:
Por tanto, de las sales frecuentes en la sal
pétrea, la más soluble es el nitrato cálcico, que a
temperatura ambiente (20ºC) es capaz de mantener
disueltos casi 129 g en 100 g de agua, es decir, en la
práctica será imposible alcanzar la concentración de
saturación a no ser que evaporemos la disolución casi
hasta sequedad. De hecho el nitrato cálcico es tan
higroscópico y delicuescente que la simple humedad
ambiental lo disuelve. En esas mismas condiciones,
20ºC, de nitrato potásico «sólo» se disuelven 31’6 g
en 100 de agua. Esa diferencia es la característica
básica para separar estos nitratos entre sí; sólo habría
que evaporar la solución hasta alcanzar y superar la
concentración de saturación del nitrato potásico.
Cuando se enfríe hasta temperatura ambiente
cristalizará el exceso de esta sal para esa temperatura.
Todos los métodos para la purificación del salitre
(entendemos por esto la obtención de nitrato potásico
a partir de la sal pétrea) que se describen en DFWB,
repiten con pequeñas variantes –a veces muy
significativas– estos pasos:
Si quiere purificar salitre recién recogido,
tome tanto como tenga y póngalo en agua
hirviendo. El vino es en realidad mejor que
el agua, el vinagre fuerte mejor que el
vino. Muévalo con un palo de madera y
luego déjelo enfriar. Entonces vierta el
licor por un paño espeso para que se
quede limpio. Entonces ponga el mismo
licor sobre un fuego y déjelo hervir como
se cocina el pescado. Y luego fíltrelo por
un paño fino. Y después de que usted lo
haya filtrado, déjelo enfriar. Entonces el
salitre formará agujas; ahora escurra el
agua o el vino o el vinagre y saque el
salitre, y séquelo muy bien; así estará bien
(MS 362, folio 75v).
Es, evidentemente, un proceso muy imperfecto
porque no se indican las proporciones relativas de sal
pétrea y disolvente, y tampoco el punto final de la
ebullición. De esta manera sería una cuestión de suerte
conseguir la cristalización del nitrato potásico. De
hecho así lo advierten:
1. Disolver la materia prima en caliente, con
agitación.
2. Decantar o filtrar en caliente para desechar
insolubles.
42
A menudo resulta que el salitre no se forma
después del hervor. Esto pasa si uno ha
usado demasiada agua, vino o vinagre...
(MS 362, folio 75v).
Si las gotas se queman bien e intensamente,
y dan llamas azules entonces el salitre (que
se obtendrá de ella) es bueno (MS 362, folio
78r).
Esta indefinición se corrige en sucesivas recetas
y demuestra la evolución temporal del manuscrito y
los diferentes redactores que tuvo. Primero, acotando
las proporciones relativas...
Es decir, sabían que al quemar algunas gotas
de una disolución, el color de la llama indica qué es lo
que contiene. Sin buscarlo, estaban ensayando la
espectroscopia de emisión, que consiste en excitar
los elementos contenidos en una muestra mediante
una fuente de energía adecuada para que emitan
radiación visible y ultravioleta. Las longitudes de onda
emitidas (el color) son características de los elementos
presentes, y la intensidad de la radiación depende en
parte de las concentraciones. Que la llama sea azul
es debido a una presencia masiva de cationes potasio
en disolución. Los de calcio habrían dado una
coloración roja-anaranjada; y los de sodio la darían
amarilla. Es decir, los alquimistas que escribieron el
manuscrito alemán buscaban, sin lugar a dudas, nitrato
potásico para confeccionar la pólvora que hacía
disparar su primitivo cañón.
...tome tanto (salitre) como tenga [póngalo]
en una marmita y lo hace nivelar. Entonces
tome un palo de madera y mida [la altura de]
el salitre. Cuando lo haya hecho, haga una
señal en la madera, y otra tres dedos encima
de ella. Ahora tome vinagre bueno y llene
hasta alcanzar la señal más alta (MS 362,
folios 77v y 78r).
NOTA: En todas las citas extraídas del
manuscrito, las notas entre [corchetes] son las
aportaciones del traductor inglés al texto original.
Entre (paréntesis) las aportaciones del autor para
completar o mejorar la comprensión de los
procedimientos.
Pero, al margen de los flujos de separaciones,
otra prueba inequívoca para asegurar que el salitre
buscado era el potásico se la debemos a las malas
artes comerciales de los venecianos. Gracias a ello
conocemos varias de las enseñanzas que el maestro
artillero ofrece a sus aprendices para detectar el
fraude, y de paso nos dice que el salitre que buscaban
era nitrato potásico y nunca el cálcico. Una de ellas
dice así:
Y segundo, fijando el final de la ebullición, es
decir, la concentración adecuada para favorecer la
cristalización cuando baje la temperatura de la
disolución...
...Entonces ponga tanto salitre como quiera
en una marmita y le añade bastante de esta
lejía para cubrir justamente el salitre.
Mézclelo como se ha descrito antes y el (nivel
de) agua hirviendo baja hasta la mitad (MS
362, folio 77r).
Ahora una instrucción sobre cómo habría
que separar y purificar salitre si ha sido
mezclada sal gema con el salitre purificado.
Si usted quiere separar la sal del salitre
purificado, tome el salitre (supuestamente
impuro) y ponga agua fría sobre él, de modo
que el salitre se cubra sólo lo justo. Pero
primero debería medir [el nivel de] el salitre
con un palo de madera antes de añadir el
agua. Entonces la sal se disolverá y el salitre
permanecerá en el agua fría, porque el
salitre no es fácilmente soluble en el agua
fría y permanece (en agua fría). Escurra el
agua [con la sal], elimínela filtrando el salitre,
y séquelo en el sol. Entonces será bueno.
(MS 362, folio 77r)
LA ESPECTROSCOPIA DE EMISIÓN EN
EL AÑO 1382
Ya sabemos que si la sal pétrea contiene nitrato
potásico, es la primera sal que cristaliza. ¿Pero cómo
sabían que esos carámbanos congelados que
aparecían al enfriarse la marmita era el bueno y
poderoso salitre que buscaban? Evidentemente, era
bueno si la pólvora que confeccionaban con él era
poderosa... pero llegaron a saberlo en mitad del
proceso de purificación, antes incluso de cristalizar:
Esta receta sólo tiene sentido si el salitre es
nitrato potásico. Porque si hablásemos de una mezcla
de nitrato cálcico y sal común, al añadir agua fresca,
se disolvería inmediatamente, y en primer lugar, el
...tome el palo que ha usado para mover la
solución y un poco de la solución de salitre
de la marmita y rocíe un carbón encendido.
43
nitrato y permanecería intacta la sal. Cuestión de
solubilidades. Cuando se dice: el salitre no es
fácilmente soluble en el agua fría y permanece,
¡no pueden estar hablando del nitrato cálcico! Sin lugar
a dudas, el salitre del que se habla en el manuscrito
DFWB es potásico.
de la solución de salitre (aunque el traductor
inglés no lo sitúa, se refiere a la solución de una
receta anterior que resulta de separar por
decantación la primera cristalización de salitre).
Este es el mejor modo, y muy necesario, para
limpiar el salitre (recuperar el salitre que
permanece disuelto después de la primera
precipitación). Lo explico así: el salitre atrae
la sal común. Funciona de la misma manera
que la sal silvestrum [carbonato de potasio] o
el alumbre, que se añade al salitre para
aumentar la cantidad... (MS 362, folio 77v78r)
CENIZAS VEGETALES
Sin embargo, Kramer y Leibnitz aseguran con
insistencia que el manuscrito habla únicamente de
nitrato cálcico, cuestión que no compartimos:
Se refiere (el manuscrito DFWB)
exclusivamente al nitrato cálcico y confirma
la conclusión de que el nitrato potásico, no
higroscópico, se utilizó en la fabricación de
pólvoras sólo hacia mediados del siglo XVI.
Esta sorprendente aportación queda
establecida en el manuscrito. (Kramer, 2001.
Pág. 13)
Ca(NO3)2 + 2AlK(SO4)2
CaSO4+ Al(SO4)3 +
2KNO 3
CONCLUSIONES
En nuestra opinión, el estudio de la alquimia del
salitre contenida en DFWB descubre dos detalles que
alteran otros tantos hitos temporales en la
historiografía de la pólvora:
Kramer y Leibnitz sostienen que se comenzó a
usar nitrato potásico a mediados del XVI, coincidiendo
con la generalización del método descrito por
Biringuccio (Pirotecnia, 1540) y Agrícola (De natura
fossilium, 1546). Este procedimiento, efectivamente,
consiguió cristalizar todos los nitratos presentes en la
disolución (cálcico, magnésico, sódico, etc.) como
nitrato potásico, pero de ningún modo supuso su
primera obtención.
1. En contra de lo afirmado por Leibnitz y
Kramer, desde finales del S. XIV el salitre
que se utilizó para confeccionar pólvora fue
nitrato potásico. En ningún caso el
manuscrito describe métodos para obtener
nitrato cálcico.
2. El uso de cenizas vegetales ricas en sales
potásicas para aumentar el rendimiento en
la obtención de nitrato potásico, atribuido a
Biringuccio y Bauer, no es un método que
se iniciara a mitad del S. XVI. Está descrito
a finales del XIV en DFWB
El método consistía en añadir una lechada de
cenizas vegetales a la disolución de sal pétrea. Es
decir, añadían carbonato potásico en medio alcalino
para provocar la precipitación inmediata de carbonato
cálcico y favorecer la formación de nitrato potásico
cuando las condiciones de saturación se dieran:
Ca(NO3)2 + K2CO3
BIBLIOGRAFÍA
Bauer, Georg (Jorge Agrícola). «DE NATURA
FOSSILIUM», 1547.
Biringuccio, Vanoccio. «PIROTECNIA», 1540.
Traducción de C.S.Smith y M.T. Hundí, 1943,
Basic Books, Nueva York.
Kramer, Gerhard W. «THE FIREWORK BOOK:
Gunpowder in Medieval Germany». London,
2001.
Thorpe. «ENCICLOPEDIA DE QUÍMICA
INDUSTRIAL». Barcelona, 1923.
CaCO3 + 2KNO3
Sin embargo, en DFWB consiguen el mismo aumento
del rendimiento con alumbre (sulfato doble de aluminio
y potasio); pero incluso sabían que cuando se añade
carbonato potásico (la sal silvestrum) al salitre,
aumenta la cantidad, es decir, incrementaban el
rendimiento de la receta... aunque yerren en la
explicación. (MS 362, folios 77v-78r):
Tome comla [no identificado] o alumen
yspanitum [alumbre español, un producto
natural], vitriolum romanum [alumbre de
potasa romano], y sal commune [sal gema,
NaCl] y póngalo [sic] en el segundo hervor
Miguel Ángel López Moreno
Laboratorio de Pólvoras de la Armada
Base Naval de Rota
e-mail: milan2@galeon.com
44
ALGUNOS AVANCES
EN LA CIENCIA FORENSE
Mónica Díaz López
un veneno muy raro. Las dioxinas son éteres cíclicos
unidos a dos anillos bencénicos parcialmente clorados
y el TCDD es la 2,3,7,8-tetraclorodibenzo-paradioxina. Podemos mencionar que el TCDD es un
subproducto de la producción del Agente Naranja, el
nombre con el que se conocía un herbicida utilizado
en la guerra de Vietnam (1967-68) como defoliante
de las zonas selváticas. Se llamó así debido a la banda
naranja adherida a los bidones donde se almacenaba
el pesticida. El Agente Naranja estaba formado por
una mezcla al 50% de dos herbicidas con grupos
fenoxi: el ácido 2,4-diclorodifenoxiacético y el ácido
2,4,5-triclorofenoxiacético.
El ciudadano en general está cada vez más
informado sobre la aplicación de la ciencia para
resolver crímenes, debido principalmente a la
proliferación de programas de televisión
(documentales y series de ficción) y por informaciones
en la prensa escrita sobre casos relevantes. Actos de
terrorismo, aumento del uso de las armas de fuego,
tráfico y abuso de drogas, conducción bajo los efectos
de sustancias prohibidas, son sólo algunas de las
noticias que aparecen frecuentemente en la prensa y
en la que la ciencia forense puede ser muy útil.
El despegue del interés en esta ciencia viene
marcado por el hito de aplicar la comparación del
ADN en 1985 para la identificación de personas.1
Este método tiene una naturaleza muy específica por
lo que el margen de error es muy bajo y ha permitido
la excarcelación de muchos condenados inocentes y
la inculpación de muchos sospechosos que sin esta
prueba estarían libres.
Existen otros muchos métodos bioquímicos (de
ensayos con enzimas específicos), médicos
(relacionado con autopsias, reconstrucción de restos
humanos, etc), entomología, etc., que no lo vamos a
tratar en esta revisión. Aquí solo vamos a abordar
algunos avances en técnicas forenses analíticas que
pueden permitir unir al sospechoso (o materia a
analizar) con la escena del crimen o la víctima.2 El
lector puede consultar textos generales donde se da
una introducción muy buena sobre la ciencia
forense.3,4
La cantidad de sustancia tóxica a identificar
suele ser muy baja del orden de los nanogramos o en
el mejor de los casos de microgramos. Por ello se
necesitan técnicas con límites de detección muy bajos
para poder analizar estos problemas. En el caso de
análisis de elementos pesados (p. ej. mercurio o plomo)
en alimentos o fluidos del cuerpo se suele utilizar
técnicas como la fluorescencia de rayos-X o bien ICPMS (espectrometría de masas con fuente de plasma
acoplado) e ICP-AES (espectroscopia de emisión
atómica con fuente de plasma acoplado).
Toxicología. El trabajo del toxicólogo forense
es identificar la presencia de drogas y venenos en
fluidos del cuerpo, tejidos, órganos o en muestras en
general (p. ej. alimentos o bebidas). Un caso muy
conocido fue el envenenamiento del candidato Victor
Yushchenko a las elecciones presidenciales de
Ucrania en diciembre de 2004. En las figuras adjuntas
se ven dos fotos del Sr. Yushchenko antes y después
del envenenamiento. En la cara se detecta claramente
el cloracné. Los análisis en Ucrania fueron negativos
pero un equipo de forenses austriacos (de Viena)
identificaron en su sangre la dioxina TCDD que es
Cuando el tipo de droga es desconocido, se
suelen hacer inmunoensayos con enzimas «screening»
y si el test da positivo se puede extraer la droga para
45
confirmarla y cuantificarla. Las drogas se puede
clasificar inicialmente como ácidas (p. ej. los
barbitúricos), básicas (p. ej. las anfetaminas, cocaína
y metadona) y neutras (p. ej. morfina y opiáceos).
Esto es importante ya que para extraer al analito
adecuadamente hay que controlar el pH del extracto
de la disolución. Actualmente se utiliza mucho la
extracción en fase sólida (incluso más que la líquida)
porque se puede automatizar y ya venden equipos
que lo hacen de forma estandarizada. Una vez que
se ha extraído la droga se suele por métodos
espectroscópicos: normalmente espectrometría de
masas acoplada a un cromatógrafo de gases (GCMS) o de líquidos (LC-MS o HPLC-MS). Esta
confirmación es esencial ya que los métodos de
«screening» no son totalmente específicos y pueden
identificar familias de drogas pero no el derivado en
cuestión.
delirio, amnesia, deterioro de la función motora y
graves problemas respiratorios; III) ROHIPNOL
(fluinitrazepam). Es un medicamento de ROCHE
ilegal en EEUU pero legal en Europa de uso sedantehipnótico, relajante muscular. Su uso puede producir
amnesia y convulsiones debido a abstinencia entre
personas adictas. Se han determinado niveles (muy
bajos) de estas drogas en sangre de mujeres asaltadas
por LC-MS. Sin embargo, debemos destacar que todos
los estudios indica que el alcohol es la «droga» más
usada.
Análisis de drogas. Hay muchos tipos de
drogas y las familias más frecuentes en el análisis
forense son: cannabis, anfetaminas, benzodiazepinas,
heroína y cocaína. En la calle, estas drogas suelen
estar «cortadas»(adulteradas) por lo que también se
deben analizar las sustancias que las acompañan y
que no son inocuas en todos los casos. El análisis
consiste en la identificación de la molécula, después
su cuantificación y en algunos casos, hay que realizar
comparaciones entre drogas para establecer
relaciones.
Para finalizar este apartado deberíamos
mencionar unas drogas que han aparecido
frecuentemente en la prensa estos últimos años, nos
referimos a aquéllas denominadas «date-rape» o
violación en la primera cita (también conocidas como
drogas de asalto sexual por el acompañante).
Normalmente estas drogas son mezcladas con alcohol
y administradas alevosamente. Son principalmente
tres: I) GHB (gammahidroxibutirato) que
prácticamente no tiene olor ni sabor. Era un
compuesto usado por levantadores de pesas para
estimular el crecimiento muscular. También hay gente
que la toma de forma consciente en fiestas
normalmente junto al éxtasis. Los usuarios informan
que induce un estado de relajación. Los efectos pueden
sentirse entre 5 a 20 minutos después de ingerirse y
la euforia puede durar hasta cuatro horas. En EEUU
esta droga esta prohibida por sus efectos secundarios
(que incluyeron náuseas y vómitos, así como problemas
respiratorios, convulsiones y en algunos casos hasta
coma) y cualquier persona que posea, manufacture o
distribuya GHB puede enfrentar hasta 20 años de
cárcel; II) KETAMINA (clorhidrato de ketamina o
vitamina-K) que se usa en veterinaria para tranquilizar
a los animales. La ketamina líquida fue desarrollada
a principios de los años 60 como anestésico para uso
quirúrgico y utilizada en los campos de batalla de
Vietnam como anestésico. La ketamina en polvo
surgió como droga recreativa en los años 70 y se
conocía como «Vitamina K» en los 80. Resurgió en
los años 90 en el ambiente de fiestas «rave». Esta
droga produce alucinaciones profundas que incluyen
distorsión visual y pérdida de percepción del tiempo,
la sensibilidad y la identidad. Su uso puede resultar en
profundos problemas físicos y mentales incluidos
Las muestras de cannabis llegan al laboratorio
de tres formas, como hierba, resina o aceite. El
principal ingrediente activo psicológicamente es el
delta-9-THC (tetrahydrocannabinol). Primero se
procede a producir un extracto con etanol. Luego, los
componentes se identifican y cuantifican con GC-MS
pero hay que producir derivados para hacerlos
volátiles. Por ello, actualmente se utiliza más la técnica
HPLC-MS, ya que se pueden identificar y cuantificar
directamente los compuestos del extracto sin
necesidad de producir derivados. La familia de
anfetaminas incluye la metilanfetamina (anfetamina)
que es un anoréxico; y los entactógenos (generadores
de contacto intersubjetivo que al tener efectos
empáticos facilitan las relaciones interpersonales) 3,4metilenedioxi-anfetamina (MDA) y 3,4-metilenedioxiN-metil-anfetamina (MDMA, éxtasis). Estas drogas
tienen estructuras químicas similares a hormonas y
neurotransmisores como la dopamina, epinefrina
(adrenalina), y norepinefrina (noradrenalina).
Compuestos muy relacionados con los anteriores son
la efedrina y la pseudoefedrina (broncodilatadores) y
el bupropión y la venlafaxina (antidepresivos). Estas
drogas se pueden identificar por GC-MS o RMN
(resonancia magnética nuclear) pero se suelen
cuantificar por HPLC-MS.
Las benzodiazepinas son fármacos y por tanto
su uso controlado es legal y normalmente no se
consumen cortadas. Generalmente se encuentran en
pastillas con información sobre el fabricante. Si hay
46
dudas se suelen analizar por cromatografía en capa
fina. Estos compuestos se pueden analizar po GCMS directamente, es decir sin necesidad de producir
derivados. La cuantificación se realiza por HPLCUV (con detección ultravioleta/visible). La heroína
(diacetilmorfina) se obtiene acetilando la morfina que
se aísla de la amapola del opio. La pureza de la heroína
varía mucho en la calle aunque en promedio ronda el
35% en peso. Las dos formas de heroína mas
comunes son la base que es insoluble en agua y la sal
que es soluble en agua. Probablemente el SIDA ha
sido el causante del cambio de hábitos de consumo
de esta droga, ya que a principios de los 90 se
traficaba principalmente la sal soluble para ser
inyectada y actualmente se trafica más con la base
que se fuma. La identificación inicial de estas drogas
se realiza con el reactivo de Marquis que reacciona
con los opiáceos para dar un color azul-violeta (este
ensayo se ve mucho en las películas). GC-MS necesita
producir derivados volátiles, por lo que se suele
cuantificar con HPLC-MS que solo necesita
solubilizar la heroína en el disolvente adecuado
(dependiendo de la forma en que haya sido
preparada).
interferir el test colorimétrico (aquí tiocianato de cobre)
por difracción de rayos-X de polvo (DRXP).
Finalmente, debemos mencionar una técnica
analítica relativamente novedosa que está encontrando
mucha aplicación en ciencia forense, se trata de la
espectrometría de masas de relaciones de isótopos
estables (SIRMS). 5 En este caso, la muestra se
transforma a gases simples, p. ej. CO2, N2, CO, H2 y
SO2, que se introducen en un espectrómetro de masas
dual junto a un gas producido a partir de un material
de referencia. Se conoce las abundancias de los
isótopos más comunes 13C/12C 11000 ppm, 2H/1H 158
ppm, 15N/14N 3700 ppm, 18O/16O 2000 ppm y 34S/32S
42000 ppm. Ahora bien, dependiendo del origen de la
droga se observaron pequeñas desviaciones. Ahora
se han medido estas relaciones en diferentes regiones
del mundo y a partir de las pequeñas variaciones de
estos cocientes se puede acotar el origen de la droga.
Por ejemplo, se puede distinguir cocaína producida
en diferentes regiones de Suramérica.6
La cocaína es un compuesto natural que se
extrae de la hoja de la coca. La cocaína es una droga
estimulante y altamente adictiva. El polvo de
clorhidrato de cocaína (conocido como nieve por su
color blanco) se puede inhalar o disolver en agua para
inyectárselo. El crack es la cocaína que no ha sido
neutralizada por un ácido para convertirse en
clorhidrato de cocaína. Este tipo de cocaína viene en
forma de cristales que se pueden calentar y cuyos
vapores se pueden fumar o bien esnifar. El término
«crack» se refiere al crujido que se oye cuando se
calientan los cristales. Estas drogas se cortan en la
calle y los adulterantes más comunes son manitol,
glucosa, talco e incluso yeso. Un test rápido para la
cocaína es el isocianato de cobalto pero no es
totalmente específico. Una versión modificada más
específica es el test de Scott que da un cambio de
color. En las aduanas se intenta identificar los
compuestos que puedan tener cocaína
colorimétricamente pero los narcotraficantes añaden
sustancias para que no den esta reacción. La cocaína
negra es aquella que no da la reacción colorimétrica
por estar enmascarada químicamente. El análisis
cuantitativo de las muestras con cocaína se suele
realizar por GC-MS.
Suelos. La tierra es una de las evidencias
potencialmente más útiles para unir a un sospechoso
con la escena del crimen. Esto se debe a que la tierra
o barro se puede pegar a los zapatos o ropas de
sospechoso y víctima por lo que permite establecer
un vínculo. Sin embargo, esta prueba presenta
dificultades de interpretación ya que el margen de
error es relativamente alto. Inicialmente se
identificaban los suelos por el color y las propiedades
de textura pero estas propiedades no son muy
concluyentes. Otras variables que ayudan son: el pH
del suelo, su conductividad, la presencia de restos
orgánicos como raíces de plantas que pueden dar idea
de la profundidad de esa tierra, etc. También se puede
medir su composición elemental con técnicas como
ICP-AES para disminuir el error en las
comparaciones, pero muchas tierras tienen
composiciones elementales no muy diferentes. Sin
embargo, la técnica DRXP está cambiando este
panorama al permitir la identificación y cuantificación
de los minerales presentes en el suelo, con lo que el
margen de error en la identificación del suelo baja
mucho. Los difractogramas de los compuestos
En el ejemplo siguiente (del laboratorio forense
de la Dirección General de la Policía en Madrid) se
identifica la cocaína y la sustancia añadida para
47
cristalinos son como el ADN de los seres vivos y
permiten su identificación con errores muy bajos.
Residuos de la descarga de armas de
fuego. Los gases y las partículas que se generan
al disparar un arma de fuego se conocen como
residuos de la descarga de armas de fuego (FDR,
que es el acrónimo en inglés). Para comprender
la información que puede dar el análisis de las
muestras de FDR es necesario saber el contenido
de un cartucho típico. Un cartucho tiene tres
componentes: iniciador, la carga propulsora
(propelente), y el proyectil (la bala). El iniciador,
en un extremo del cartucho, se enciende por el
golpe del percutor del arma, y arde rápidamente.
Esto enciende/explota la carga propulsora que arde
muy rápidamente produciendo un gran volumen
de gases que fuerza a la bala a salir por el cañón.
Por tanto, cuando se dispara un arma hay dos
efectos: a) la bala sala hacia delante; y b) los
residuos FDR (del iniciador y propelente) salen
hacia el que dispara y hacia la víctima. Por esto,
la disposición y análisis de las muestras FDR se
puede usar tanto para ayudar a identificar al tirador
(o personas cercanas) como para estimar la
distancia entre el arma y la víctima.
En la figura adjunta (del laboratorio de
ciencia forense de Stuttgart) se muestra el
difractograma de una tierra donde se produjo un
tiroteo junto al difractograma de la tierra de las
suelas de unos zapatos de un sospechoso. Se puede
observar la coincidencia en los picos de difracción
de las diferentes fases cristalinas (arcillas, cuarzo,
calcita, etc.) lo que significa que se puede
establecer un vínculo, con muy poco error, entre
las dos muestras analizadas por DRXP.
Debemos destacar la utilidad de la técnica
de DRXP no solo en el análisis de suelos sino en
todas aquellas muestras sólidas que tengan fases
cristalinas, ya que permite identificar y establecer
correlaciones. Por ejemplo se puede utilizar en el
análisis de pinturas ya que aunque los polímeros y
pigmentos orgánicos suelen ser amorfos, los
aditivos que llevan (p. ej TiO 2 o talco) son
cristalinos. En un accidente de coche con huida
del infractor, suele quedar restos de pintura del
choque. Esta muestra es analizada por
Los iniciadores suelen ser sustancias
inorgánicas y los propelentes orgánicas. Una
composición típica de un iniciador es: estifnato de
plomo (explosivo), sulfuro de antimonio (combustible)
y nitrato de bario (oxidante). El propelente suele ser
un polvo que no provoque humo y que normalmente
contiene nitrocelulosa y en algunos casos
nitroglicerina. El propelente no suele arder
completamente y deja restos que contienen moléculas
que no han reaccionado mientras que el iniciador forma
vapores que se condensan para dar partículas
esféricas huecas que contienen elementos inorgánicos
(Pb, Sb, Ba) muy buenos para identificar los FDR, ya
que normalmente no están presentes en los tejidos.
Las técnicas para identificar estos elementos
inorgánicos (procedentes de los iniciadores) son
variadas, pero podemos destacar la microscopía
electrónica de barrido con análisis por energía
dispersiva (SEM-EDS). Hay munición que no contiene
plomo (p. ej. sintox) pero contiene Zn y Ti por lo que
también se puede identificar con facilidad. Los restos
orgánicos procedentes de los propelentes hay que
extraerlos en primer lugar(generalmente a vacío)
después separarlos (p. ej. con una técnica
cromatográfica, HPLC, GC) y luego analizarlo por
detección amperométrica o espectrometría de masas.
Las muestras se pueden recoger de la escena del
crimen y de los tejidos a analizar con cinta adhesiva.
espectroscopía infrarroja pero la DRXP también
permite establecer vínculos entre el resto de pintura
y la pintura del coche del sospechoso. Otro ámbito
de uso relacionado de la DRXP es en el análisis
de muestras de las paredes en particular y de
sustancias cristalinas en una casa en general (yeso,
talco, calcita, etc.). Estas partículas pueden quedar
retenidas/impregnadas en la ropa del asaltante y
se pueden analizar mediante micro-difracción de
rayos-X lo que permite establecer que el
sospechoso estuvo en la escena del crimen
mediante el cotejo de esos posibles restos y los
que se recogen cuidadosamente de la escena del
crimen por personal especializado (para evitar
contaminaciones cruzadas).
48
Explosivos. Debemos mencionar la diferencia
entre explosivo primario y secundario. Los explosivos
primarios son aquellos que detonan fácilmente
produciendo calor y una onda de choque que puede
detonar el explosivo secundario (generalmente más
estable). Por esto, los explosivos primarios son usados
como iniciadores o detonadores y se inflaman por
fricción, chispa eléctrica, alta temperatura, percusión,
etc. Los explosivos primarios más comunes son
estifnato de plomo, azida de plomo y fulminato de
mercurio. Los explosivos secundarios detonan por la
onda de choque generada por los primarios y
descomponen instantáneamente en compuestos más
estables (generalmente gases). Ejemplos de
explosivos secundarios son: TNT (trinitrotolueno);
RDX (ciclonito), PETN (tetranitrato de pentaeritrol),
y TABT (triaminotrinitrobenceno).
BIBLIOGRAFÍA
1.- P. Gill, A. J. Jeffreys, D. J. Werrett, Nature
1985, 318, 577-579.
2.- D. F. Rendle, Chemical Society Reviews
2005, 34, 1021-1030.
3.- «Crime Scene to Court: The Essentials of
Forensic Science» ed. P.C. White, Royal Society of
Chemistry, Cambridge, 2a Edición, 2004.
4.- R. Saferstein «Criminalistics: An
Introduction to Forensic Science» 8a Edición, Pearson
Prentice Hall, New Jersey, EEUU, 2004.
5.- Advances in Forensic Applications of Mass
Spectrometry, ed. J. Yinon, CRC Press, Boca Raton,
USA, 2004.
El químico forense encara dos desafíos muy
diferentes en el casos de análisis de explosivos en
función de que la explosión no haya tenido lugar
(identificación del explosivo) o bien estudio de los
restos de las explosiones. El primer caso es el mas
sencillo ya que técnicas como la DRXP permite
identificar los explosivos con una sola medida.
También se pueden utilizar otros métodos incluyendo
la espectroscopía infrarroja y la RMN. El caso de los
análisis de los residuos de las explosiones es mucho
más difícil y debe ser muy cuidadoso. En primer lugar
se deben tomar las muestras lo antes posible y
minimizar las posibles contaminaciones. Se pueden
hacer análisis en la escena de los atentados con un
aparato de espectroscopía de iones móviles (IMS).
El aparato provoca vacío sobre las superficies que se
sospechan que están contaminadas con restos de
explosivos. Se vaporizan los residuos aplicando calor,
y la moléculas se cargan eléctricamente por contacto
cercano con las partículas-b emitidas por una lámina
de 63Ni. Estas moléculas cargadas son detectas de
forma rápida y con alta sensitividad. Sin embargo,
estos ensayos en la escena deben ser corroborados
con técnicas más selectivas en el laboratorio (p. ej.
HPLC-MS).
6.- J. R. Ehleringer, J. F. Casale, M. J. Lott
and V. L. Ford, Nature 2000, 408, 311–312.
Mónica Díaz López
monikadl@gmail.com
CP de Educación infantil, primaria y secundaría
Daidin. Benahavis. Málaga.
Para finalizar, debemos destacar las dos
misiones de la química analítica forense: Identificar y
comparar. Los análisis, si son posibles y no demasiado
caros, deben ser cuantitativos. Los avances van
dirigidos a nuevas técnicas para detectar y analizar
nuevos compuestos y a disminuir los errores en las
técnicas que ya se utilizan puesto que dan lugar a
identificaciones y pruebas con mayor fiabilidad.
Agradezco la colaboración de Miguel Ángel
García Aranda en la preparación de este artículo.
49
FLORA Y VEGETACIÓN DE LAS COSTAS DE
ANDALUCÍA, PROBLEMÁTICA Y PERSPECTIVAS
DE CONSERVACIÓN
José Carlos Báez Barrionuevo
En los casi 918 km de costa que posee
Andalucía (desde la desembocadura del Guadiana
hasta su límite nororiental con la provincia de Murcia)
existen distintas condiciones geomorfológicas,
litológicas y biogeográficas, que han dado lugar a una
gran variedad de ecosistemas costeros, donde se
concentra una flora muy particular. Sin embargo, la
ley de costas de 1988, no ha sido suficiente para
proteger esta flora. En la actualidad se encuentran 6
taxones amenazados como en peligro o vulnerables,
más otro probablemente extinguido en las costas de
Andalucía.
La flora litoral se refiere al conjunto de
especies adaptadas a ambientes salinos (halofilia),
secos (xerofilia) y ricos en nitrógeno (nitrofilia) típicos
del dominio marítimo, lo que conllevan adaptaciones
de tipo morfológico y fisiológico. Entre ellas se
establece un gradiente florístico desde las zonas más
cercanas al mar hasta las más alejadas en su límite
con la vegetación climatófila típica de cada lugar.
durante el periodo de los temporales. La flora que se
asienta en esté tipo de costa se encuentra entre el
límite superior donde alcanza la salpicadura del agua
(entre 3 y 4 m por encima del nivel del mar) y la cima,
por tanto además de ser ambientes salinos, ricos en
nitrógeno y muy secos, son ambientes rupestres con
suelos muy poco desarrollados (Nieto et al., 1997).
Las especies más representativas son: Asteristicus
maritimus (Compositae), Crithmum maritimum
(Umbelliferae) y especies del género Limunium
(Plumbaginaceae), todas son caméfitos no leñosos.
Las especies del género Limunium presentes en las
costas de andalucía son L. emarginatum, en la
provincia de Cádiz, L. malacitanum, entre marina del
este y Torremolinos, y L. delicatulum en la provincia
de Almería.
Durante los últimos años es posible ver
fanerófitos leñosos cerca de la costa, se tratan de
Nicotiana glauca (Solanaceae) y Ricinus communis
(Euphorbiaceae) especies alóctonas de gran amplitud
ecológica capaces de colonizar los ambientes más
dispares. Carpobrotus acinaciformis (Aizoaceae),
es un caméfito siempre verde naturalizado, muy típico
de jardines de escaso riego, fácil de reconocer por
las hojas carnosas, curvadas y de sección triangular,
y grandes flores de color rojo. Estas especies foráneas
representan un impacto negativo para la flora
autóctona de acantilados litorales, ya que compiten
por el espacio y los recursos.
Al contrario que las costas de ablación, que
guardan todas un mismo patrón paisajístico, las costas
de acumulación son muy dispares en su fisionomía.
Existen: marismas, estuarios, deltas y acumulación de
áridos (playas de arenas, guijarros y/o gravas), en las
zonas más cercanas a la orillas se encuentran: Cakile
maritima (Cruciferae) y Salsola kali
(Chenopodiaceae) (Nieto et al., 1997). Por encima
del límite de las mareas, en playas de acumulación de
arena, por coalescencia de la arena, se forma la duna
marginal o embrionaria, muy vulnerable a la acción
de los vientos, en esta se desarrolla un pastizal
psammofilo anual, las especies más comunes son:
Elymus farctus (Gramineae) y Sporbolus pungens
(Graminae) (Nieto et al., 1997). Hacia el interior, en
En Andalucía se pueden encontrar dos tipos
fundamentales de costas: costas de abrasión y costas
de acumulación.
Las costas de ablación son aquellas sometidas
a la erosión directa del mar, son fundamentalmente
acantilados, es decir, escarpa vertical litoral de
pendiente abrupta y acusada. Pueden ser vivos,
cuando su base se encuentra sumergida, o muertos,
cuando la ablación marina ha dejado una pequeña
playa de guijarros y arena, que suele desaparecer
50
las crestas de la primera banda de dunas semimóviles
se pueden encontrar Ammophylla arenaria
(Gramineae) y Eryngium maritimum (Umbelliferae)
(Pérez et al., 1997).
En costas abiertas de acumulación eólica se
forman deposiciones de arena de altura variada en
forma de media luna y perpendiculares a los vientos
dominantes, estas reciben el nombre de cordón de
dunas litorales o dunas costeras (Borja, 1997), entre
dos frentes de dunas se forman pequeñas depresiones,
denominadas corrales, que son colonizadas por
multitud de especies psammofilas como: Linaria
tursica (Scrophulariacea), Malcomia lacera
(Cruciferae), Arenaria algavensis (Graminaceae),
Erodium aethiopicum (Geraniaceae), Evax pygmea
(Compositae), Ononis baetica (Leguminosae),
Linaria viscosa (Scrophulariacea). Sobre las dunas
estabilizadas se encuentran otro conjunto de especies
como: Nolletia chrysocomoides (Compositae),
Corema album (Empetraceae), Malcomia littorea
(Cruciferae), Rubia peregrina (Rubiaceae), Sideritis
perezlarea (Lamiaceae), estás especies forman
distintas comunidades que asientan el sustrato
reduciendo su movilidad y reteniendo la arena no
dejando que el viento la arrastre al interior, además
constituyen la orla natural de los fanerófitos leñosos
de costas de deposición.
Otras especies comunes en costas de
deposición son: Glacium flavum (Papaveraceae),
Lobularia maritima (Cruciferae), Lotus creticus
(Leguminosae), Medicago marina (Leguminosae)
y Centaurea sphaerocephala (Compositae), algunas
de estas especies pueden encontrarse en bordes de
caminos. Esta serie de condiciones favorecen que en
el margen exterior del cordón de dunas litorales se
desarrollen macrofanerófitos leñosos.
En el margen exterior del cordón de dunas
litorales en la costa de Andalucía occidental se
encuentra un bosque de Pinus pinea (Pinaceae), que
constituye una barrera protectora de la acción eólica.
Estas formaciones boscosas son las únicas de esta
especie en la Península Ibérica, por lo que se ha
dudado de la formación natural de estos bosques
achacándolo a repoblaciones en épocas pasadas. Está
especie se encuentra en otras partes de Andalucía,
de forma natural, disperso entre carrascales (Pinus
halepensis). Las especies típicas del matorral del pino
piñonero son: Erica scoparia (Ericaceae), Juniperus
oxycedrus subsp. macrocarpa (Cupressaceae),
Juniperus phoenicea subsp. turbinata, Halimium
commutatum (Cistaceae) y H. halimifolium.
Entre los municipios almerienses de El ejido
y Roquetas de Mar se conserva el mejor sabinar
costero de España formado por Juniperus
phoenicea subsp. turbinata (Cupressaceae), desde
Punta Entinas a Punta Sabinar formando pequeños
bosques a los que se añaden: Asparagus acutifolius
(Liliaceae), Pistacea lentiscus (Anacardiaceae),
Rosmarinus officinalis (Lamiaceae) y Rubia
peregrina (Rubiaceae).
La Unión Internacional para la
Conservación de la Naturaleza (UICN) desde
hace más de dos décadas se ha destacado en la
elaboración de criterios de evaluación del riesgo
de extinción de una especie. Estos criterios han
servido de base para establecer los primeros
planes de conservación de muchas especies en el
mundo. Dentro del grado de «amenaza» existen
tres categorías: en peligro y vulmerable (Blanca,
1999-2000) (Comisión nacional de protección de
la naturaleza, 2004).
En peligro critico se sitúan aquellas especies
que se considera su supervivencia a corto plazo poco
probable, en esta categoría se incluyen las especies
que han sufrido una regresión grave (> 80%) de su
población en los diez últimos años, su área de
distribución es inferior a 100 km2 y el número de
individuos es inferior a 250.
Para ser incluida en esta categoría en peligro,
las especies han debido de sufrir una regresión grave
(> 50%) de su población en los diez últimos años, su
área de distribución debe de ser inferior a 5000 km2 y
el número de individuos ser inferior a 2500.
En la categoría de vulnerable se incluyen las
especies que corren el peligro de pasar a la categoría
anterior por haber sufrido una seria regresión (> 50%)
de su población en los veinte últimos años.
Corema album, fanerofito de profusa
ramificación, su área de distribución en Andalucía se
restringe a la provincia biogeográfica Gaditano-OnuboAlgarviense. El principal riesgo al que se enfrenta
está especie es la presión turística. Se encuentra
catalogado «en peligro de extinción».
51
Juniperus oxycedrus subsp. macrocarpa,
se trata de un macrofanerófito leñoso catalogado «en
peligro de extinción», su área de distribución en
Andalucía se restringe a la provincia biogeográfica
Gaditano-Onubo-Algarviense. Los principales riesgos
a los que se enfrenta este taxón son: talas
indiscriminadas, efecto negativo de repoblaciones con
pinos, incendios, predación por herbívoros sobre
plantas jóvenes y presión humana por proliferación
de los núcleos costeros.
Nolletia chrysocomoides, terófito endémico
de la cuenca occidental del Mediterráneo, se ha citado
puntualmente en Andalucía de la que se cree extinguida
debido a los profundos cambios que ha sufrido el litoral
de la costa del sol por la presión urbanistica y turística.
Sideritis perezlarae, es una mata perenne
de base leñosa, ramosa, con tallos delgados, flexuosos,
de hasta 50 cm, se trata de un endemismo de las costas
de Cádiz. El principal riesgo al que se enfrenta es la
presión turística. Se encuentra catalogado «en peligro
de extinción».
Las medidas de conservación que se han
planteado siguen dos vías: in situ y ex sito. La primera
se desarrolla en los propios habitas de la flora a
conservar, la unidad de conservación de esta vía
debería de ser la comunidad. Las principales vías de
actuación de las acciones in situ son el aclarado de
pinares, para facilitar la expansión, creación de
cortafuegos, limitación del acceso a vehículos y
creación de superficies mínimas de espacios de uso
público.
Las técnicas o vías ex situ son aquellas que
se desarrollan espacialmente fuera del hábitat de la
planta, a su vez se pueden dividir en acciones donde
no se manipula el espécimen de forma directa y en
las que si. La primeras incluyen los instrumentos
jurídicos y de gestión de espacios naturales, su unidad
de protección es la comunidad. Las acciones ex situ
donde se manipula directamente el material vegetal
van encaminadas a la conservación de las plantas en
cultivos o su propagación asistida (mediante la
recolecta y siembra de semillas y/o otros propágulos)
y/o artificial, su unidad de conservación son las
especies y las poblaciones. Está ultima técnica de
conservación se basa en la capacidad que presentan
las células totipotenciales de los meristemos vegetales
de regenerar una nueva planta en condiciones de
asepsia.
No obstante, la estrategia de conservación
integrada es la consecución más eficaz. Además, es
necesario efectuar una revisión de los instrumentos
jurídicos y programas a nivel internacional, regional y
local, frente a la conservación y la equidad ambiental,
social y económica.
Una posible solución a corto plazo para
salvaguardar las principales poblaciones de plantas
litorales amenazadas podrían ser las «microrreservas».
Se denominan microrreservas botánicas a superficies
pequeñas de terreno (incluso inferiores a 1Ha) que
pueden establecerse en lugares con alta concentración
de plantas amenazadas, como medida para su
protección. Un ejemplo interesante lo constituye la
Comunidad Valenciana, donde existe una red de estas
microrreservas botánicas, que facilitan la
Limonium malacitanum, camefito siempre
verde catalogado «en peligro de extinción», su área
de distribución se encuentra entre Marina del Este
(Granada) y Torremolinos (Málaga). Los principales
riesgos a los que se enfrenta son la construcción de
caminos y paseos alrededor de acantilados (Como
por ejemplo el del Cantal, Rincón de la Victoria),
construcción de urbanizaciones, visitas incontroladas,
regeneración de playas, recolecciones de
inflorescencias para ornamentación, competencia con
flora alóctona, acumulación de deshechos.
Limonium emarginatum, camefito siempre
verde catalogado «vulnerable», su área de distribución
se restringe a ambos lados del estrecho de Gibraltar.
Los principales riesgos a los que se enfrenta es que
no goza de ningún tipo de protección, ya que las
principales poblaciones se encuentran fueras de zonas
protegidas. Sin embargo, gracias al menor desarrollo
urbanístico que ha sufrido el estrecho, debido
fundamentalmente a la importancia estartegica-militar
que presenta la zona.
Linaria tursica, terófito poco ramificado, su
distribución coincide prácticamente con los límites del
Parque Nacional de Doñana, lo que favorece su
conservación. Se encuentra catalogado «vulnerable».
52
conservación y gestión de la flora sin que ello suponga
un coste económico o social elevado (DOGV, 1994).
En la microrreserva queda prohibida cualquier
actividad que conlleve un daño a las plantas, incluida
la recolección de cualquier tipo de material vegetal
que tenga una finalidad diferente a la científica.
Las principales conclusiones sobre la
conservación de ambientes costeros, señalan la
necesidad de crear una conciencia colectiva de todos
los usuarios de la costa hacia el problema de
conservación, por lo que es necesario desarrollar un
conocimiento más profundo del problema en la
sociedad (Patillo, 1997).
DOGV (1994). DECRETO 218/1994, de 17 de
octubre, del Gobierno Valenciano, por el que
se crea la figura de protección de especies
silvestres denominada microrreserva vegetal.
Nº 2379 de 03.11.1994. Diario oficial
Gobierno Valenciano.
NIETO, J. M. et al. (1998). El Cantal (Rincón de la
Victoria). págs: 381-386. En: REBOLLO, M.
et al. (Eds.). Itinerarios por los espacios
naturales de la provincia de Málaga.
Universidad de Málaga-Delegación de
Educación.
PATTILLO, J. (1997). El borde costero, una visión
de la subsecretaría de marina y perspectivas
para áreas marinas protegidas. Estud. Oceanol.
16:3-11.
PÉREZ LATORRE, A. V. (1998). Dunas de Marbella
(Cabopino, Marbella). págs: 387-392. En:
REBOLLO, M. et al. (Eds.). Itinerarios por
los espacios naturales de la provincia de
Málaga. Universidad de Málaga-Delegación de
Educación.
VELASCO, C. et al. (1997). Guía botánica de
Benalmádena. Ed. Ayuntamiento de
Benalmádena. Área de Medio Ambiente.
Málaga, Benalmádena 227 pág.
BIBLIOGRAFIA
BLANCA, G. et al. 1999-2000. Libro rojo de la
flora silvestre amenazada de Andalucía. (III tomos). Junta de Andalucía.
BORJA, F. (1997). Dunas litorales de Huela (SW de
España). Tipología y secuencia Pleistoceno
superior Holoceno. En: Cuaternario Ibérico.
Asociación Española para el estudio del
Cuaternario.
COMISIÓN NACIONAL DE PROTECCIÓN DE
LA NATURALEZA (2004). Criterios
orientadores para la inclusión de taxones y
poblaciones en catálogos de especies
amenazadas. Ministerio de medio ambiente,
Madrid.
COSTA-TENORIO, M. et al. (Eds.) (1998). Los
bosques ibéricos: una interpretación
geobotánica. Planeta, Barcelona.
Páginas web: //herbarivirtual.uib.es/
José Carlos Báez
Ldo. en Biología, trabaja en el Instituto Español de
Oceanografía, Centro Oceanográfico de Málaga y
es colaborador en Universidad Málaga.
53
GÉNESIS, DESARROLLO Y TIPOS DE CIRCOS GLACIARES
Anchel Belmonte Ribas
Le expliqué lo que era un glaciar y conseguí despertar su interés. Le conté que debía
reformarse, pues un hombre que no creía ni en Dios ni en los glaciares debía ser malvado, por
no decir el peor de los incrédulos. John Muir. Viajes por Alaska (1890).
aunque existen multitud de equivalentes en distintas
lenguas tanto españolas (rincón o rinconada en
aragonés, circ en catalán) como extranjeras (corrie
o cwm en gaélico, leído «cuum», Hambrey, 1995).
La mayoría de autores definen un circo como
una depresión rodeada por una pared rocosa, arqueada
en planta, de fondo plano afectado por erosión glaciar
mientras que parte de sus paredes se han desarrollado
por erosión subaérea (Benn y Evans, 1997).
No todos los circos glaciares encajan plenamente en
esta definición, ya que –por ejemplo- los fondos pueden
ser en rampa y el grado de arqueo de sus paredes es
francamente variable.
En la salida de los circos suele haber una zona
escarpada –umbrales- que pueden represar, una vez
desaparecido el glaciar, aguas de deshielo y
escorrentía originando una laguna (ibón en aragonés,
estany en catalán, tarn en inglés). Esta puede
colmatarse dando lugar a una turbera (Foto 1).
Los circos son, con seguridad, la morfología
más conspicua dentro de las asociadas a la actividad
glaciar, tanto activa como fósil. Fáciles de identificar,
presentes en todos aquellos puntos donde ha existido
glaciarismo alpino, e incluso en áreas de salida de
glaciares de casquete, plantean no obstante algunos
problemas a la hora de establecer su génesis y patrón
de desarrollo.
Los estudios morfométricos, realizados en
diferentes montañas del mundo desde hace más de
35 años, no siempre dan respuesta a las preguntas
planteadas aunque sí permiten acotar los problemas
y dar aproximaciones razonables a la solución de estos
enigmas que duermen en lo más alto de las regiones
alpinas.
El término «circo»
La palabra circo, término que proviene del
francés cirque, es de uso general en todo el mundo,
Foto 1. Lago de origen glaciar en el Circ de Colomers (Valle de Arán, Lérida). Se observa el umbral que
represa las aguas, la cubeta parcialmente colmatada y material morrénico disperso por el entorno.
54
Conviene diferenciar los circos de las cubetas
de sobreexcavación, que aunque pueden presentar
morfologías similares, su origen es distinto ya que las
segundas se forman generalmente al confluir dos o
más lenguas glaciares sobre una misma zona. A su
formación puede coadyuvar la presencia de un sustrato
con litologías fácilmente erosionables o la existencia
de debilidades tectónicas.
El desarrollo de los circos está condicionado
por múltiples factores, cuyo peso en la morfología final
varía en función del área que estudiemos. Algunos
ejemplos son los siguientes:
· Orientación: influye en el aporte de nieve que
recibe el glaciar tanto por precipitaciones
como por alimentación eólica de la nieve ya
caída. Además controla la insolación que
sufre el hielo.
· Estructura: la presencia de fracturas
importantes puede condicionar la distribución,
dibujo y grado de desarrollo de los circos.
· Relieve preglaciar: difícil de estimar (Evans
y Cox, 1995) ya que casi todos sus indicios
suelen haber sido borrados por la propia
erosión glaciar.
· Tiempo de permanencia del hielo en el circo:
resulta sencillo saber cuándo se ha producido
la deglaciación pero es complicado
aproximarse al número y duración de fases
glaciares antiguas.
· Tipo de glaciar que ha originado la geoforma:
los mecanismos de erosión en el caso de
glaciares templados (alpinos) o polares son
diferentes y también el tipo de aparatos a los
que acostumbran a dar lugar (glaciares de
valle y de casquete respectivamente).
En zonas donde el glaciarismo se desarrolla en
climas a priori poco propicios, como por ejemplo los
Pirineos o Sierra Nevada, es necesario introducir un
matiz importante a la hora de discernir posibles circos
glaciares. Y es que todas las morfologías que
consideremos circos han debido ser área fuente de
hielo para algún glaciar. Sin embargo, no todas las
áreas fuente de hielo tienen necesariamente
morfología de circo. Los ejemplos en las montañas
españolas con impronta climática mediterránea son
frecuentes (Belmonte Ribas, 2003).
puede ser muy grande (kársticas, estructurales, etc…)
y la existencia de varios episodios de ocupación glaciar
o nival añaden más matices a la situación ideal
planteada.
El retroceso de las paredes, en las zonas de
exposición subaérea, ocurre principalmente por
procesos de hielo-deshielo, generadores de carga
sedimentaria para el transporte glaciar y responsables
del modelado afilado de las crestas que rodean al circo
(Belmonte Ribas, 2005).
La superficie de pared que permanece bajo
el hielo, así como el fondo del circo, se ven afectados
tanto por la tracción que ejerce el hielo al avanzar en
contacto con el substrato, como por la acción de las
aguas de fusión que circulan –en los glaciares
templados- en la interfase hielo-roca.
Además de estos procesos físicos, pueden
invocarse otros de meteorización química, como la
disolución kárstica en el caso de circos desarrollados
sobre litologías calcáreas. Aunque las bajas
temperaturas nos sugieren una ralentización o
detención de los fenómenos kársticos en alta montaña,
diversos estudios indican la coexistencia de ambos
procesos morfogenéticos tanto en los Pirineos
(Belmonte Ribas, 2001, 2004) como en los Alpes
(Souchez y Lemmens, 1985) o en los Picos de Europa
(Smart, 1986).
Clasificación
En Benn y Evans (1997) se recogen cinco
categorías de circos glaciares que procedemos a
resumir:
1. Circos simples: morfologías independientes
nítidamente delimitadas de otras de su entorno
(Foto 2).
Origen de los circos
Aunque el espectro de situaciones posibles es
amplio, se asume que los circos glaciares se originan
a partir de depresiones previas, como los nichos de
nivación, que se van agrandando progresivamente por
retroceso de las paredes y ahondamiento del fondo.
Sin embargo, la variedad de depresiones preexistentes
Foto 2. Circo simple, con un ibón en su fondo
represado por una morrena, en el Valle de Benasque,
Huesca.
55
2. Circos compuestos: formados por la
coalescencia de dos circos de similares
dimensiones.
3. Circos complejos: contorno polilobulado por
la presencia de más de dos circos en una sola
cabecera.
4. Circos escalonados: dos o más circos situados
uno encima de otro (Foto 3).
Otros factores como la litología y las directrices
estructurales de la zona deben cruzarse con los
parámetros ya citados de cara a una completa
caracterización del área estudiada.
De dichos análisis se desprende, con carácter
general pues no existe unanimidad en varios aspectos,
que la orientación (Embleton y Hamann, 1988) y la
estructura geológica (Benn y Evans, 1997) son
determinantes a la hora de definir la ubicación y
desarrollo de un circo.
Evolución postglaciar
Una vez que la ablación del aparato glaciar
se ha completado, los circos inician una nueva etapa
en su evolución geomorfológica.
En función del régimen climático pueden alojar
glaciares rocosos en su seno (Foto 4), dando salida
así al habitualmente importante volumen de clastos
generados en sus paredes, donde es frecuente que
continúen los procesos de crioclastia y, por tanto, su
retroceso erosivo.
La actividad ligada a condiciones
periglaciares da también lugar a acumulaciones de
clastos en forma de canchales. Su proliferación puede
incluso afectar a la conservación de la primitiva forma
glaciar.
Foto 3. Circos escalonados en el alto Valle de
Benasque, Huesca.
5. Circos artesa: el circo señala en este caso el
límite superior de una artesa.
Es preciso señalar que estas situaciones
teóricas permiten diversas combinaciones en la
realidad, no siendo necesariamente excluyentes unas
de otras.
Como ya se ha comentado al principio, las
cubetas de fondo de circo son susceptibles de alojar
lagunas que, a medida que se colmatan, evolucionan
hacia turberas.
Por último, en zonas de litologías calcáreas
son notables los fenómenos kársticos. El agua de
fusión nival, excepcionalmente agresiva con la caliza,
profundiza las cubetas (que deben denominarse glaciokársticas) y siembra de dolinas los replanos de fondo
de circo, desfigurando en ocasiones las formas
originales.
Análisis morfométricos
El estudio de los circos glaciares de un macizo
o de una cordillera se suele enfocar desde un punto
de vista morfométrico. De este modo se caracterizan
la totalidad de circos de un área pudiendo obtenerse
relaciones estadísticas entre los distintos parámetros
medidos.
Aunque dichos parámetros varían en función
del autor que acomete el estudio, suelen medirse los
siguientes:
-Longitud (L): medida desde la cresta hasta el umbral
de salida en la dirección de flujo del hielo.
-Anchura (W): máxima distancia en la perpendicular
a la longitud.
-Profundidad (H): Desnivel entre el pico más alto que
cierra el circo y el umbral.
-Ángulo entre la pared del circo y su fondo.
-Orientación.
-Área.
Las relaciones L/W y L/H, relacionadas con
la orientación suelen aportar datos expresivos acerca
de la influencia de ésta en el grado de desarrollo de
los circos.
Conclusiones
Los circos glaciares, morfología característica
de las áreas de montaña en las principales cordilleras
del mundo, son lugares donde se ha acumulado hielo
que alimenta o alimentó a un aparato glaciar.
Su origen suele estar asociado a depresiones
previas, esencialmente nichos de nivación, que
posteriormente van siendo agrandados mediante
procesos de crioclastia (paredes) y arrastre y
meteorización química (fondo).
De todos los factores que influyen en su
génesis y desarrollo, la orientación y la estructura
geológica del substrato parecen ser los más
determinantes.
56
Foto 4. Circo de Sarrato, sobre los Baños de Panticosa (Valle de Tena, Huesca). Se observa un glaciar
rocoso en su fondo y varios canchales y conos de derrubios tapizando las paredes del circo.
Benn, D.I. y Evans, D.J.A. (1997). Glaciers
and Glaciation, Arnold, Londres, 734p.
Embleton, C. y Hamann, C. (1988). A
comparison of cirque forms between the Austrian Alps
and the Highlands of Britain. Zeitschrift für
Geomorphologie, Suppl.-Bd. 70, 75-93.
Evans, I.S. y Cox, N.J. (1995). The form of
glacial cirques in the English Lake District, Cumbria.
Zeitschrift für Geomorphologie, 39-2, 175-202.
Hambrey, M. (1995) Glacial Environments.
UCL Press, Londres, 296p.
Smart, P.L. (1986). Origin and development
of glacio-karst closed depressions in Picos de Europa,
Spain. Zeitschrift für Geomorphologie, 30-4, 423443.
Souchez, R.A. y Lemmens, M. (1985).
Subglacial carbonate deposition : an isotopic study of
a
present-day
case.
Paleogeography,
Paleoclimatology, Paleoecology, 51, 357-364.
Una vez retirado el hielo, la superposición de
otros modelados sobre el glaciar puede dar lugar a la
pérdida de frescura de las formas iniciales, lo que
ocurre sobre todo en ambientes de periglaciarismo y
karst activos.
BIBLIOGRAFÍA
Belmonte Ribas, A. (2001). Análisis
geomorfológico del macizo de Cotiella (Pirineo
oscense). Instituto de Estudios Altoaragoneses, 134pp.
(y un mapa). Inédito.
Belmonte Ribas, A. (2003). La extensión
máxima del glaciarismo en el macizo de Cotiella
(Pirineo oscense). Boletín Glaciológico Aragonés,
4: 69-90.
Belmonte Ribas, A. (2004). Aportaciones a
la geomorfología del Macizo de Cotiella (Pirineo
Oscense). Lucas Mallada, 11: 25-40.
Belmonte Ribas, A. (2005). El paisaje
altoaragonés: una aproximación desde la
geología. Cuadernos Altoaragoneses de Trabajo, 26,
Instituto de Estudios Altoaragoneses, Huesca, 84p.
Ánchel Belmonte Ribas
I.E.S. Bajo Cinca. Mequinenza (Zaragoza).
57
MOVIMIENTO DE PARTÍCULAS CARGADAS EN
UN CAMPO MAGNÉTICO UNIFORME
Rafael Quintana Manrique
1.
tres pilas alcalinas de 4,5 V, conectadas en serie para
generar el campo magnético.
Introducción.
La siguiente experiencia (1) forma parte de una
serie que utilizo para que mis alumnos de Física de 2º
de Bachillerato observen fenómenos que
habitualmente sólo se describen de manera teórica
en el aula de un instituto. Una de las premisas de que
parto es el que las experiencias sean sencillas y
puedan ser construidas fácilmente por los alumnos,
sin materiales o aparatos costosos. La otra, que tengan
un cierto grado de variación en algún parámetro para
que puedan llevar a cabo una cierta experimentación
autónoma.
2.
Placa superior: con una lámina de papel de aluminio
cortada del grosor de la placa y colocada en la parte
interior de la placa (Foto 2). Se sujetará con una pinza
Objetivo de la experiencia.
Con la experiencia se pretende que los alumnos
observen cómo es el movimiento de partículas
cargadas eléctricamente (iones en este caso) en
presencia de un campo magnético más o menos
uniforme y que lo comparen con el movimiento en
ausencia del mismo. También deben estudiar y
observar cómo influye un cambio en el sentido del
campo y cómo influye la carga positiva o negativa de
los iones. No se pretende un análisis cuantitativo
riguroso, difícil para estos niveles, aunque se intentó
(de hecho, se realizaron estimaciones de la masa de
los iones OH- en movimiento a partir de la corriente
en el solenoide y del voltaje aplicado en la electrólisis,
pero los resultados estaban muy por encima del valor
real y no eran reproducibles; esto lo interpreto por la
solvatación de los iones y la asociación con las
moléculas del indicador).
3.
de cocodrilo que actuará de contacto eléctrico,
aunque al verter la disolución se adhiere por
capilaridad a la pared de vidrio.
Electrodo de platino. Sujeto mediante un soporte
de laboratorio, se apoya en el punto medio de la placa
de Petri superior (Foto 3). Lleva adherido un trozo de
tubo de plástico abierto por una lado, para dar salida
a los iones sólo por ahí.
Construcción del aparato.
Consta de dos placas de Petri de vidrio.
Placa inferior: 30 espiras de hilo de cobre esmaltado
de 0,5 mm arrolladas en el borde exterior de la placa
(Foto 1). Para que no resbale sobre el vidrio, es
conveniente pegar una capa de fixo o similar, al igual
que entre capa y capa del devanado. Finalmente, para
fijar todo, aplicar una capa de cola blanca y dejar
secar. Los extremos del alambre se lijarán para
permitir un buen contacto eléctrico. Se conectará a
58
4.
Montaje.
polaridad en la electrólisis y cambio de indicador, se
usó anaranjado de metilo).
Eliminación del tubito de plástico adherido al
electrodo central.
Uso de un electrodo de grafito en lugar de
platino.
Aumento de la intensidad del campo magnético.
Sobre la placa inferior se coloca la placa
superior. En ésta se vierte una disolución de la sal
indicada (la concentración no es crítica, se trata sólo
de dar conductividad al agua) con unas gotas de
fenolftaleína. Se apoya el electrodo de platino como
se ha indicado. Éste se conecta al polo negativo de
una fuente de alimentación (o varias pilas en serie,
mínimo 12 V) y el polo positivo se conecta a la pinza
que sujeta el papel de aluminio (Foto 3). Todo el
montaje se puede realizar encima de un retroproyector
para su visualización a toda la clase.
5.
Desarrollo de la experiencia.
7.
Una vez conectada la corriente, comienza la
electrólisis del agua. En el polo negativo (electrodo
central), se genera hidrógeno gaseoso y deja iones
OH-, que viajan hacia el polo positivo del borde de la
placa de Petri. Los iones OH- se hacen visibles con
fenolftaleína. Si el campo magnético no está
conectado, los iones, en forma de fluido violeta, van
uniformemente hacia el borde. Pero si se conecta los
iones comienzan a desplazarse en espiral debido a la
acción de la fuerza magnética. El sentido de giro,
horario o antihorario, depende del sentido del campo
magnético aplicado. Ese cambio se realiza cambiando
el sentido de la corriente en el solenoide.
6.
Conclusiones.
La observación de la desviación magnética de
partículas cargadas, debido a la fuerza magnética y
descrita por la Ley de Lorentz, se puede realizar con
esta experiencia sencilla y fácil de montar, con
materiales sencillos y presentes en cualquier
laboratorio de instituto. La variación del sentido del
campo magnético y de la carga de los iones permite
realizar interpretaciones mediante la Ley de Lorentz.
(Esta experiencia fue premiada con la 1ª
Mención de Honor en la modalidad «Demostraciones
de Física» del 6ª Certamen Ciencia en Acción
celebrado en Tenerife en septiembre de 2005, y formó
parte de la representación española en el 4º Science
on Stage, en el CERN de Ginebra).
Variaciones del experimento.
La descripción realizada aquí es la que permite
una óptima observación del fenómeno,
fundamentalmente por el excelente contraste que da
el color violeta de la fenolftaleína; no obstante, se
sugirieron a los alumnos algunas variaciones que
pusieron en práctica con el material que disponía el
laboratorio y que tuvieron que explicar, por ejemplo:
generación de iones positivos en lugar de
negativos en el centro de la cápsula (inversión de la
Referencias bibliográficas
(1) The Royal Society of Chemistry
« Experimentos de Química Clásica», Ed. Síntesis,
2002.
Rafael Quintana Manrique
I.E.S. Doctor Francisco Marín, Siles (Jaén)
59
EL MONOPOLO MAGNÉTICO
José Antonio Martínez Pons
experimentando, comprobo que cambiando el sentido
de la coreinte también cambiaba el sentido de giro de
la aguja.Publicó su descubrimento el 21 de julio de
1820 y no volvió sobre el tema. Pocos días despues ,
el francés Dominique Arago (1786—1853) comprobó
que un cable por el que circulaba corriente también
atraía limaduras de hierro y el mismo año André Marie
Ampère (1775- 1836) comprobó que si hacia pasar
correinte por sendos cables paralelos en el mismo
sentido los cables se eatraían y en sentido contrario
se repelían. En 1823 William Sturgeon enrolló un cable
de cobre en torno a una barra hierro en forma de
herradura y al hacer circuar corriente por el hilo de
cobre observo que el aparato era capaz de levantar
como veinte veces su peso. En 1831 Josep
Henry(1797-1878), mejoró la idea aumentado el
número de vueltas y utilzando un cable aislado y
consiguió un imán más potente capaz de levantar hasta
una tonelada de hierro. Michel Faraday (1791-1867)
consiguió el efecto contario, introdujo un imán de barra
en un soleneoide desconectado de la corriente y por
el solenoide circuló corriente eléctrica en un sentdio,
cuando lo retiró se prujo en sentido contrario. Faraday
continuo experimentando con diferentes dispositivos.
La conclusión de este conjuto de experimentos era
que electricidad y magenetismo estaban intemamente
ligadas.
PRIMERAS INVETIGACIONES
Desde que en siglo XII (1269) el francés
Petrus Pereginus describió la orientación de las
limaduras de hierro cuando se hallaban en la vecindad
de la piedra imán y acuñó los términos «polo norte» y
«polo sur», las observaciones apuntan a que no importa
cuan pequeño sea el imán, siempre poseerá dos polos,
norte y sur, será pues un dipolo. La experiencia prueba
que si se toma un imán recto este presenta polo norte,
polo sur y zona neutra pero si se corta el imán se
obtienen dos nuevos imanes con las mismas
características (Figura 1).
ECUACIONES DE MAXWELL
El estudio de las relaciones entre la
electricidad y el magnetismo se inicó por el físico
danés Hans Chistian Oersted (1977-1851) quien
oponiéndose al pensar mayoritario en su tiempo razonó
que si la corriente eléctrica al pasar por un cabe
producía calor, pero si el cable se hacia más delgado
producía, al pasar por un cable aun más delgado tal
vez podría producir efectos magnéticos, Oersted no
era un hábil experimentador y desde que tuvo la primer
intuición , en 1813 hasta que la verificó, transcurrieron
7 años, concretamente en una conferencia pública
sin previa comprobación colocó un cable muy fino de
platino sobre una aguja magnética, al conectar la
corriente, la aguja se movió un poco, asombrando al
propio Oersted. Concluida la conferencia sontinuó
La explicación y cuantificación de estos
hechos se deben a James Clerk Maxwell. La
descripción matemática de las ideas de Maxwell se
resume cuatro ecuaciones diferenciales relativamente
sencillas, las llamadas ecuaciones de Maxwell. Para
Maxwel (1864) el magnetismo se explica por cargas
eléctricas en movimiento de modo que el caso límite,
el más pequeño imán sería un electrón orbitando en
torno al núcleo y este imán elemental seguiría con
una cara norte y una cara sur (Figura 2).
Puesto que la materia esta formada por
átomos y estos a su vez cuentan con electrones
«orbitando» en torno al núcleo se puede decir que
cada átomo puede ser un dipolo magnético. A un
60
MODELO DE LAS «MASAS MAGNÉTICAS»
Otro modelo hoy día prácticamente en desuso,
para explicar el magnetismo, utiliza el concepto de
«magnetismo libre», «carga» o «masa magnética»1
y describe la interacción mediante una fórmula,
semejante a la de Coulomb para la electrostática, del
tipo f =
C
µ
×
mm ′
. en el sistema cegesimal C= 1 y
r2
ì (para el «éter», sic en el Chwolson)=1 con lo que
f =
f
mm ′
y de ahí H = , inclusive se establecen
2
m
r
1
3
las dimensiones de m [m] = M 2 L2 T −1 considerando
ì, permeabilidad magnética, es un número
adimensional.2
No obstante, en este modelo se advierte que
las masas magnéticas, que podrían equipararse a los
monopolos «son sustancias ficticias»(sic), que no
pueden aislarse.
circuito se le asigna la magnitud momento magnético
que el momento se define para un circuito plano como
el producto de la intensidad que lo recorre por el
vector superficie. En un circuito complejo será
necesario descomponerlo en circuitos elementales y
proceder a la correspondiente integración. El momento
dipolar es pues un vector y en el S.I se mide en A.
m2. Normalmente los momentos dipolares elementales
se orientan al azar, por tanto a escala macroscópica,
se compensan, sin embargo si de alguna manera se
produce un cierto grado de orientación, a escala
macroscópica aprece un momento resultante no nulo,
dicho sea de modo muy elemental, el cuerpo será
entonces un imán (Figura 5).
Una consecuencia inmediata de la
imposibildad de separar los polos magnéticos es que
las línes de fuerza, o de campo, magnéticas siempre
seran cerradas, en cambio las líneas de campo
electrostático pueden ser abiertas (Figuras 3 y 4).
Obviamente dividiendo el material la
distribución se conservará y volverán a aparecer las
correspondientes caras norte y sur.
MONOPOLOS COMO ENTES REALES
En 1931 Dirac propuso la existencia de
«monopolos magnéticos» es decir imanes con sólo
cara norte o con sólo cara sur, con lo que justificaría
la cuantificación de la carga eléctrica, generalmente
admitida como postulado o hecho experimental. Sin
embargo jamás se habían detectado objetos de esta
especie. Las masas magnéticas popuestas en el
modelo coulombiano adquirirían pues existencia real,
no serían meros artificios matemáticos.
Se
trataba
ahora
de
probar
experimentalmente la existencia de tales entes. El
físico norteamericano de ascendencia española, Blas
Cabrera, hijo de Nicolás, especialista en estado sólido
y nieto de Blas, especialista en magnetsimo, lo intentó
preparando un elegante experimento utilizando un
complejo sistema de anillo superconductor. La idea
61
A LA CAZA DEL MONOPOLO
básica acorde con lo predicho por Paul Dirac es la
siguiente, en el campo de la construcción de una gran
teoría de unificación de las fuerzas de la naturaleza,
tal vez el Santo Grial más buscado por los físicos
teóricos, en los 10-35 primeros segundos despues del
Big Bang se crearon monopolos magnéticos
superpesados 3. Gerrad’t Hoff y Alexandr Poliakov,
independientemente hacia 1974 llegaron a la conclusión
de que en las grandes teorías de unificación (conseguir
explicar todas la interacciones físcas dentro de una
única teoría) se deberían incluir la existencia de
monopolos. Estos debían ser mostruosamente
El dispositivo preparado por Blas Cabrera II
se basaba en la interacción electromagnética de largo
alcance de una carga magnética en movimiento con
el estado cuántico macroscópico representado por un
anillo superconductor y un seguidor de corriente
«SQUID» (dispositivo de interferencia cuántica
superconductora), insensible a la velocidad, dirección,
masa y carga de las partículas que lo atravesaran y
que no en inmutaría ante el paso de cargas electricas
ni de dipolos mágnéticos pero que daria un profundo
salto de la corriente circulante al paso
del monopolo a través del supercondutor.
El dia 14 de febrero de 1982 (festividad
de San Valentín) a las 13,53 registró el
salto esperado. Había indicios para
pensar que por fin la esquiva partícula
había sido «cazada» aunque el
experimento de Cabrera puede admitir
otras interpretaciones (Figura 6).
En cualquier caso, las
estimaciones actuales sobre la densidad
de monopolos, parecen indicar que la
probabilidad de que el dispositivo de
Cabrera detecte un monopolo es de uno
cada 5000 años. Cabrera lo «cazó» solo
a los cuatro meses de instalar su
dispositivo, por un parte, tuvo mucha suerte y por otra
justificaría el hecho de que no se haya vuelto a producir
ninguna nueva captura desde entonces. Sobran
comentarios.
Finalmente decir que las predicciones iniciales
contemplaban la posibilidad de la detección del
monopolo mediante un dispositivo de este tipo, y que
otra de las implicaciones tóricas que traería consigo
la existencia de monopolos superpesados sería la
posibilidad de que estos esquivos entes contuvieran
«la masa que falta en nuestra galaxia».
pesados, en terminos energéticos como de 10 28
electron voltios, lo que equivaldría unos 1,8·10-12 kg
es decir, uno 20 espermatozoides humanos, todos
encerrados en una partícula subatómica. Con lo que
sabemos hoy no es posible ningún proceso que lo
consiga, solo las condiciones que reinaron cuando se
produjo el Big-Bang ( si es que se produjo) con la
energía altamente concentrada, permiten su
formación más o menos 10-34 s después del Gran Pum.
En este instante tal vez se formaron muchos
monopolos norte y sur que se aniquilaron unos a otros
pero alguno no encontró ningún homólogo y sobrevivió
y conforme el Universo se fue expenadiendo la
probabilidad de choque se hizo menor y en
consecuencia la probabilidad de supervivencia, mayor.
Estos entes, por ejemplo, deberían existir en los rayos
cósmicos y según algunos autores, en proporción
relativamente elevada y, debido a su masa se moverían
con gran lentitud y escaparían a los habituales
detectores de partículas, diseñados para «cazar»
partículas que se mueven a velocidades próximas a
la de la luz. Esto justificaría que no se les hubiera
detectado.
(Footnotes)
1
Véase por ejemplo O.D. Chwolson Tratado de
Física. Tomo X. Barcelona 1921
2
La lectura de los viejos textos, otrora clásicos,
puede convertirse en apasionante y formativo
ejercicio intelectual
3
Carrigan R. A. y Tower P.W. «Monopolos
magnéticos superpesados» Investigación y ciencia
Junio 1982.
José Antonio Martínez Pons
IES Las Lagunas. Rivas Vaciamadrid
62
NANOQUÍMICA Y NANOTECNOLOGÍA
Rafaela Pozas Tormo y Laureano Moreno Real
Introducción
vivos, ya que no poseen metabolismo ni organización
celular, con lo que nos encontramos en la frontera entre
lo inerte y lo vivo. En este sentido hay que indicar que
las partículas de los virus tienen la característica del
mundo inanimado de formar cristales, ya que estas
partículas nanométricas son fundamentalmente de
forma y tamaño iguales, con lo que se pueden
empaquetar ordenadamente en un cristal. Esta
capacidad de autoduplicarse es una propiedad muy
interesante para futuros nanosistemas artificiales
inteligentes, aunque hoy en día esta idea pertenece al
mundo de la ciencia ficción.
Cada día las ciencias en general y la química en
particular nos ofrecen un panorama de nuevos caminos
en nuestro conocimiento, repercutiendo en mayor o
menor medida en el desarrollo de aplicaciones
tecnológicas interesantes. Recientemente se está
produciendo el despegue de una nueva rama de la
química, y en este siglo XXI que acaba de empezar
estamos asistiendo a sus principios y a sus posibles
aplicaciones. Este campo no es nada nuevo, ya que los
principios reales de la nanoquímica los tendríamos que
situar en los trabajos de A. Einstein, otra vez este
eminente científico, en relación a la justificación del
movimiento browniano coloidal: las pequeñísimas
partículas coloidales soportan los choques de las
moléculas del medio dispersante-agua u otro disolvente.
Este estudio demostraba lo que se conoce como la teoría
cinético-molecular en relación al movimiento caótico
de las moléculas por la agitación térmica. La química
coloidal y las nanopartículas son ya el presente real de
la nanoquímica, aunque los sistemas coloidales ya se
conocían desde varios siglos antes, como los coloides
de oro, que vuelven a renacer en estos años por sus
aplicaciones. También hay que reseñar la síntesis de
zeolitas hacia la mitad del siglo pasado, aluminosilicatos
con tamaño de poro controlado y aplicaciones
importantísimas en la industria y el laboratorio como
tamices moleculares y catalizadores (aquí el aspecto
nanométrico está recogido en la forma y el tamaño del
poro, no por la estructura cristalina tridimensional e
indefinida del silicato).
Por otro lado la naturaleza siempre nos ha
ofrecido innumerables ejemplos de objetos fabricados
con forma adecuada para una función y con dimensiones
nanométricas, como las bacterias magnetotácticas.
Estas bacterias sintetizan, de forma intracelular,
cristalitos asociados de magnetitas de 40 a 80 nm,
generando una cadena de perlitas magnéticas con la
que estos microorganismos se orientan y se ordenan
en su medio de acuerdo al campo magnético terrestre.
También tenemos en la escala nanométrica otro ejemplo
relevante en las partículas de los virus que tienen la
propiedad de autoduplicarse a costa de las células que
invaden. Este mecanismo reproductor es lo único que
las partículas de los virus tienen en común con los seres
Fig 1. El Dr. Kroto con un modelo molecular del C60.
Lo que imaginamos se puede hacer realidad
como lo demuestra el primer nanocoche, de tamaño
inferior a los 5nm, construido recientemente por
investigadores de la Universidad de Rice en Estados
Unidos, se trata de un chasis de una sola molécula con
forma de H, derivada del feniletileno, cuyas cuatro
ruedas son moléculas esféricas de fullerenos C60 (fig1,
nueva variedad alotrópica del carbono con forma de
balón de fútbol, constituida exclusivamente por sesenta
átomos de carbono, descubierta en 1985 por H.Kroto
et al.; por este trabajo H.Kroto, R.F.Curl y R.E.Smalley
recibieron el premio Nobel de Química en 1996). Este
nanocoche puede girar sus ruedas sobre una superficie
de oro cuando es estimulado eléctricamente con la punta
de un microscopio de efecto túnel (fig2), con lo que
podría tener aplicaciones en el transporte de moléculas
para las construcciones nanotecnológicas.
63
de interés para aplicaciones muy precisas. Con la
nanoquímica podremos construir máquinas
moleculares, por lo que los físicos y químicos del estado
sólido y los ingenieros dispondrán de «piezas tipo
puzzle» a escala molecular para la construcción de
dispositivos electrónicos y electro-ópticos, con
dimensiones más pequeñas que los fabricados mediante
la tecnología de miniaturización actual, la
microtecnología del micrómetro (1mm = 1 x 10-6 m,
mil veces más grande que un nanómetro).
La microtecnología y su miniaturización tiene un
limite la llamada «Ley de Moore»: se dejará de cumplir
por diversos factores como el físico, ya que la densidad
electrónica en un semiconductor es baja en relación a
la de un metal; disponemos de un electrón en 1000 nm3
de semiconductor. En menos de dos décadas tendremos
chips sin electrones libres, pero también podremos tener
problemas de tipo económico que pueden aparecer
antes.
Fig 2. El nanocoche con ruedas esféricas de C60.
¿Qué es la nanoquímica?
La química siempre se ha ocupado de la escala
nanométrica, es el nivel de la materia que interesa al
químico: el prefijo nano define sistemas atómicos y/o
moleculares mil millones más pequeño que un metro (1
nanómetro = 1 x 10-9 m). El borde de una copa - 1mmvendría bien grande a este mundo, ya que este filo sería
un millón de veces mas grande que algo en la nanoescala.
Para verlo mejor diremos que en un nanómetro se
pueden colocar alineados cuatro átomos de hierro.
Ahora bien la tecnología actual ha propiciado, con la
ayuda de los modernos microscopios, tanto de efecto
túnel y fuerza atómica (STM y AFM), como con los
microscopios electrónicos actuales de alta resolución
(resolución del orden de 0,2nm), el desarrollo de lo que
se conoce como nanotecnología. Horst Störmer, Premio
Nobel de Física de 1998, dijo: «la nanotecnología nos
otorga las herramientas para experimentar con la más
extensa caja de juguetes: los átomos y las moléculas; a
partir de ahí, la posibilidad de crear cosas nuevas parece
ilimitada».
La materia exhibe una serie de propiedades que
vienen definidas por el empaquetamiento espacial
indefinido de los átomos, es decir del conjunto
estructural global de sus átomos, no por sus fragmentos
atómicos discretos o moléculas- los ladrillos- que sirven
para su construcción. Por ello nos podríamos hacer la
siguiente pregunta: ¿hasta qué nivel de escala podemos
reducir las dimensiones de una partícula sin prescindir
de sus propiedades macroscópicas? Así, una pieza
metálica, hilo o placa, conduce la corriente eléctrica,
mientras que un solo átomo metálico o un cluster
metálico de pocos átomos no lo hace (cluster metálico:
cúmulo o conjunto fuertemente enlazado de dos o más
átomos metálicos). Es decir, las propiedades de la
materia pueden cambiar drásticamente cuando el tamaño
de partícula se sitúa entre 1nm y 100nm.
Podríamos atrevernos a dar una definición de
nanoquímica: diseño y arquitectura con átomos o
moléculas, limitado a dimensiones nanométricas,
mediante reacciones y técnicas físicas adecuadas, con
el fin de crear materiales o dispositivos con funciones
Materiales nanoestructurados
Evidentemente las aplicaciones de la
nanotecnología no quedan confinadas al campo de los
materiales, aunque parece que es el que ha empezado
más rápidamente a desarrollarse con la aparición de los
materiales nanoestructurados, «nanomateriales»:
materiales que poseen al menos una de sus dimensiones
en la zona más baja del rango nanométrico, y que esto
tiene gran influencia en sus propiedades físicas y
químicas.
Los materiales nanoestucturados pueden estar
formados por fases cristalinas sencillas o múltiples,
cuasicristalinas o amorfas, pudiendo ser su naturaleza
metálica, cerámica, semiconductora o bien polimérica.
Dentro de los materiales nanoestucturados vemos:
Ø
Materiales nanocristalinos: presentan
regularidad en la disposición de una determinada
clase de átomos o moléculas.
Ø
Nanocomposites.
Ø
Nanoporosos, zeolitas y sólidos porosos
con topologías relacionadas.
Ø
Nanotubos y nanohilos, nanoestructurados
2D (con dos dimensiones en el rango nm). Aquí
podemos destacar las potenciales aplicaciones de
los nanotubos de carbono o fullerenos tubulares,
que pueden ser de composiciones diversas; por
ejemplo también se han sintetizado y caracterizado
nanotubos de sulfuros metálicos. En principio
cualquier compuesto con estructura laminar es
susceptible de dar sistemas semejantes a los
fullerenos.
Ø
Materiales laminares nanométricos y
nanoláminas, aplicaciones biológicas importantes
como membranas. Los sistemas de múltiples
láminas nanométricas inorgánicas tienen grandes
aplicaciones en dispositivos electrónicos,
propiedades ópticas y magnéticas.
64
Abanico de posibilidades de la nanoquímica y de la
Conclusiones
nanotecnología
Los campos de aplicaciones de la
nanotecnología es muy extenso, y habrá que esperar y
trabajar fuertemente para su desarrollo, pero lo que está
claro es que las inversiones en nanotecnología en el
mundo han ido creciendo de manera constante en los
últimos años, ya viéndose resultados para el futuro como
las pantallas ultraplanas de los teléfonos móviles o
dispositivos de almacenamiento magnético. Más a largo
Son muchas, y podemos decir que todo un mundo
paralelo al nuestro se abre allá abajo, interpretando lo
que dijo el Premio Nobel de Física R. Feynman en su
ya clásica conferencia en el congreso anual de la
Sociedad Americana de Física el 29 de diciembre de
1959 «¡Hay muchísimo espacio al fondo!», que se
refería lógicamente al nanoespacio. Cuando me refiero
a que un mundo paralelo se crea, es que la nanoquímica
tendrá repercusiones en muy diversos campos desde
la medicina, pasando por todas las ciencias, y recalando
en las diferentes ingenierías, y no nos podemos
imaginar los logros que se podrán alcanzar con su
desarrollo; algunos hablan incluso de la nanoenergía o
de la nanociencia del medioambiente entre otras. Las
perspectivas que se presentan son sorprendentes y será
posible en un futuro conseguir avances que ahora nos
parecen de ciencia ficción. También hay que decir que
actualmente viene siendo normal que el término
nanotecnología reúne tanto al conjunto de conocimientos
científicos básicos como sus aplicaciones reales o de
futuro. Las principales líneas en las que la nanoquímica
y la nanotecnología exhibirán su mayor potencial serán:
plazo se podrán diseñar sistemas que funcionen bajo
computación cuántica, autoensamblado molecular,
injertos precisos de moléculas orgánicas en polímeros
o sobre superficies, etc
La nanotecnología es multidisciplinar con la
participación de la Química, Física, Ciencia de
Materiales, Medicina, Ingeniería, Biología, y las Ciencias
de la Computación, por lo que el esfuerzo de algún o
algunos campos pueden tener consecuencias inmediatas
en los demás, generando un efecto multiplicador que
habrá que estimular.
Evidentemente todo está por hacer, pero la
nanotecnología es ya una realidad como podemos ver
en sus productos y materiales afines, así como en el
número de científicos que investigan en esta nueva
ciencia y los presupuestos cada vez mayores que los
países más desarrollados dedican a esta tecnología
emergente.
1) Transmisión y almacenamiento de la información:
nanoelectrónica, optoelectrónica, materiales
magnéticos.
2) Nanomateriales: cerámicas y materiales
nanoestructurados, nanotubos, nuevos materiales
recubiertos con nanopartículas, etc.
BIBLIOGRAFÍA
3) Nanobiotecnología: encapsulado y dosificación local
y precisa de medicamentos.
U. Schubert and N. Hüsing. «Synthesis of
Inorganic Materials»,Wiley-VCH 2005.
M.DiVentra, S.Evoy and J.R.Heflin Jr
(ed).»Introduction to Nanoscale Science and
Technology», Kluwer Academic Pub., 2004.
G.A.Ozin
and
A.C.Arsenault.
«Nanochemistry. A Chemical Approach to
Nanomaterials»RSC Pub., 2005.
http://www.encuentrosmultidisciplinares.org/Revistanº12/
Indice%20nº%2012%20-%202002.htm
4) Nanosensores. Se está trabajando en el desarrollo
de nanosensores que pueden detectar, en poco
tiempo e in situ, muy bajas concentraciones de
drogas en la sangre de un deportista. También
recientemente una empresa canadiense ha
informado que uno de sus equipos de investigación
ha logrado la detección y cuantificación de pequeñas
cantidades de bacterias con el uso de los
nanosensores.
5) Nuevos sistemas catalíticos y electroquímicos
basados en la nanotecnología.
Rafaela Pozas Tormo, Profesora del IES Puerto
de la Torre (Málaga).
Laureano Moreno Real, Catedrático de
Química Inorgánica de la UMA.
6) Producción, conversión y almacenamiento de
energía
7) Tratamiento y depuración de aguas y soluciones a la
contaminación del aire
65
INTRODUCCIÓN AL USO DEL GPS
José Luís Bermúdez García
María Dolores Peinado Cifuentes
total. Si utilizamos dos satélites obtenemos que el
receptor se encuentra sobre una circunferencia que
resulta de la intersección de las dos esferas.
Si adquirimos la información de un tercer
satélite, la nueva esfera solo corta a la circunferencia
en dos puntos, uno de ellos se descarta por absurdo al
dar una posición sobre elevada, y el otro seria el
correcto. Pero, dado que la sincronización exacta
entre el reloj interno del GPS y de los relojes atómicos
de los satélites, no es precisa, la posición no es
correcta.
Este hecho nos obliga a utilizar un cuarto
satélite, que minimizaría el error de sincronización
entre los relojes, y nos da una posición en 3
dimensiones (latitud, longitud y altura), bastante buena
que se encontria dentro de un pequeño volumen que
hay que tratar de reducir a un solo punto.
El GPS, tan en auge en los últimos años,
constituye el receptor de un sistema global de
posicionamiento. Cada vez tiene más utilidades tanto
en el campos científico como personal.
a) Los elementos que componen un sistema
de recepción GPS son:
1. Sistema de satélites, formado por 21
satélites operativos y 3 de repuesto en órbita sobre la
Tierra a unos 20.182Km, abastecidos por paneles
solares. Completan su orbita cada 12 horas,
sincronizados de tal manera que un mínimo de 6
satélites puedan ser recibidos a la vez desde cualquier
punto.
2. Estaciones terrestres, envían información
de control a los satélites para controlar las órbitas y
mantenerlos sincronizados. Esta formado por una serie
de estaciones situadas a la altura del Ecuador y
distribuidas más o menos uniformemente (Hawai,
Ascensión, Diego García, Kwajalein), a su vez
coordinadas por un centro principal de control en la
base aérea de Falcon (Colorado, USA).
3. Receptores, que nos indican la posición en
la que estamos, entre otras cosas, conocidas como
unidades GPS. A grandes rasgos podemos diferenciar
unidades portátiles de pequeño tamaño, fijas,
normalmente de un tamaño un poco mayor (coches y
barcos) y profesionales para trabajos de gran detalle
por parte de ingenieros etc... Con una gran cantidad
de marcas, prestaciones y precios.
Las fuentes de errores en los GPS, es variable
y principalmente depende de:
1. Retrasos en la señal por contaminación en la
ionosfera y troposfera.
2. Rebotes en la señal por edificios, montañas,
bosques, humedad, etc..
3. Errores orbitales, los datos de las orbitas de los
satélites no son precisas.
4. Número de satélites visibles en ese momento, puede
cambiar según posición y hora del día, es conveniente
un mínimo de 8 satélites visibles.
5. Geometría de los satélites visibles, si se encuentran
cerca de la horizontal los errores son mayores.
6. Errores locales en el receptor del GPS, reloj interno,
software utilizado o estado de la pila.
7. Hora del reloj del GPS, ya que informa del Huso
horario donde se encuentra el receptor.
b) Funcionamiento:
Los receptores de GPS, miden la distancia a
los satélites, y usa esta información para calcular su
posición. Esta distancia se mide sencillamente,
calculando el tiempo en que la señal tarda en llegar al
receptor. Conocido este tiempo y sabiendo que la
velocidad de la luz es de 300.000 Km/s (salvo
correcciones), la única incógnita es la distancia.
Cada satélite indica que el receptor se
encuentra en un punto en la superficie de una esfera
con centro en el propio satélite y de radio la distancia
Además de estos errores hay que añadir el
concepto de Disponibilidad selectiva, debido al
carácter militar del sistema GPS, el departamento de
Defensa de los Estados Unidos, se reserva la
posibilidad de incluir un cierto grado de error aleatorio
en las medidas: entre 15 y 200 metros. En la actualidad
este error solamente es aplicado a determinadas zonas
66
«conflictivas» anteriormente hasta el 2 de mayo del
2000 se aplicaba a todo el planeta.
Para poder evitar estos errores se utilizan los
GPS diferenciales, estos se basan en la existencia de
una estación base en tierra, con coordenadas muy
bien definidas, que recibe señales de los satélites,
calcula su posición con los datos recibidos de los
satélites, y dado que su posición es fija la diferencia
entre las posiciones, nos dará el error, y esta
corrección se manda a un receptor GPS mediante
cualquier tipo de señal.
Con este método se pueden conseguir errores
menores a los 2 metros.
Estas correcciones se pueden obtener
también mediante satélites independiente de los
militares americanos, como es el EGNOS (programa
Galileo) de Europa, WASS de Estados Unidos, y
MSAS Japonés.
La precisión de los GPS puede tener una doble
lectura, es necesario que sea la mayor posible para
casos de localizaciones muy precisas y urgentes como
puedan ser accidentes de tráfico o personas heridas,
en cambio la precisión también va a depender del
mapa que utilicemos para leer la posición, donde la
medida mínima que podamos leer es muchísimo mayor
que la precisión del GPS, a modo de ejemplo en un
mapa 1:50.000, 1mm son 50 metros de la realidad por
lo tanto un error de posicionamiento de 10 ó 15 metros
no es significativo.
Es un sistema empleado en todo el mundo,
fundamentalmente por su uso militar. El
sistema representa un punto por dos
coordenadas X,Y. La coordenada X o
«easting» (este) y la coordenada Y o
«northing» (norte).
El sistema UTM divide el globo terráqueo en 60
husos (numerados del 1 al 60), franjas verticales que
dividen la tierra (cada una de estas franjas o husos
corresponden con 6º de longitud). Cada uno de estos
60 husos, a su vez, se divide en 20 zonas horizontales,
10 zonas en el hemisferio Norte y 10 en el hemisferio
Sur, y a cada una de estas zonas le corresponde una
letra. La península ibérica está dividida en tres
husos: 29, 30, 31 y dos zonas: T y S. Cada una de
estas zonas tiene su origen de coordenadas UTM,
por esto siempre se nos pide el huso por el que nos
vamos a mover y que denominaremos como: 29T, 30T,
31T, 29S, 30S, 31S.
Como ya hemos dicho las coordenadas UTM, se
pueden designar por su coordenada X , Y ó por sus
coordenadas Este y Norte, como referencia la X en
una resolución de 1 m, siempre será una cifra de 6
dígitos, mientras que la coordenada Y en resolución
de 1 m, siempre será una cifra de 7 dígitos.
Si la tierra fuese una esfera perfecta, podríamos
utilizar cualquiera de los dos alegremente, pero de
todos es sabido que la tierra se ensancha hacia el
ecuador y que este ensanchamiento no se produce
de una manera uniforme (es irregular) es en este
momento donde debemos introducir el concepto de
esferoide y asemejar la tierra a un sólido de revolución
obtenido a partir de una elipse de referencia (que es
elegida por cada país según el que más se asemeje a
su forma).
Los parámetros necesarios para definir un
elipsoide son tres:
Radio polar = b
Radio ecuatorial = a
Aplastamiento = f = (a - b) / a
El elipsoide utilizado por los GPS en su recepción
y transmisión de datos a programas de software por
defecto es el WGS 84 (Sistema Geodésico Mundial),
en España los mapas utilizan el elipsoide Datum
Europeo 1950 (ED-50) y en las Islas Canarias el
elipsoide Pico de las Nieves, el software de los GPS
permite cambiar entre diferentes Elipsoides.
Los sistemas de posicionamiento más
clásicos son:
a) Sistema de coordenadas geográficas.
Este sistema divide la tierra en una serie de
anillos imaginarios paralelos al ecuador
(paralelos) y otros de círculos perpendiculares
a los mismos que convergen en los polos
(meridianos).
El origen de las coordenadas se sitúa en el
punto donde se corta el ecuador con el primer
meridiano, el llamado meridiano de
Greenwich. Las posiciones quedan definidas
como las interacciones entre un paralelo y un
meridiano.
Por encima del Ecuador las Latitudes
son positivas y por debajo negativas. Al Este
del meridiano de Greenwich, de valor 0º, las
longitudes son positivas, y hacia el Oeste son
negativas. La latitud y la longitud normalmente
se expresan en grados, minutos y segundos.
b) Coordenadas UTM (Universal Transversal
Mercator).
c) Prestaciones.
Al encender un GPS, aparecen diferentes páginas,
según los modelos, versiones y firmware que
contengan, a modo de resumen los elementos más
67
característicos que pueden aparecer en un GPS portátil
son:
1.
En la primera página de encendido,
aparece el estado de conexión entre
nuestro receptor y los satélites, se muestra
como se va conectando a cada uno de los
4 satélites más cercanos, una vez
establecida la conexión, aparece el error
de posicionamiento, como es lógico a
menor error mejor será la localización, en
otros modelos aparecen los satélites
localizados en el espacio, la designación
de estos, el número de ellos conectado, el
número total de ellos, y el grado de
recepción de cada uno de ellos. Hora y
Fecha.
2.
En una segunda pantalla, no siempre es
en el mismo orden en todos los modelos,
una brújula móvil nos indica la dirección
en la que nos desplazamos, esta utilidad
solo es útil cuando el receptor se mueve.
También proporciona datos referentes a
nuestro desplazamiento.
a) Posición según coordenadas UTM o
cartográficas (Existen cerca de 30
formatos de Posicionamiento
diferentes).
b) Altura, en algunos modelos se puede
calibrar con un barómetro.
c) Distancia recorrida (Parcial o total).
d) Tiempo empleado y función
cronometro.
e) Dirección a la que nos dirigimos y
dirección que estamos llevando.
f) Si se fija un punto, nos indicara la
distancia y el tiempo en llegar a este
punto.
g) Velocidad máxima, media y real,
alcanzada al desplazarse el GPS
3.
4.
5.
Waypoint (La traducción al castellano
podría ser «baliza», o «punto en el
camino»), es un punto de coordenadas
conocidas que determina la posición de un
objeto, se puede marcar directamente con
el GPS. Un waypoint también puede ser
creado tomando las coordenadas de un
mapa, e introducirlo en el PC. La lista de
waypoint es almacenada en el ordenador
(entre 500 y 1000 puntos) mediante: un
nombre, un símbolo identificatívo (árbol,
coche, puerto, piedra, etc.,), coordenadas,
altura, hora, etc.…Los valores de este
punto pueden ser modificados a posteriori.
6.
68
Este punto puede ser visualizado en la
pantalla mapa del GPS, se pueden hallar
otros waypoint cercanos a este, te puede
dirigir a cualquier punto conocido mediante
la función GOTO. Los waypoint se
pueden transferir a un ordenador y
viceversa mediante un cable de conexión
especifico, quedan registrados como
archivos: * wpt.
RUTA, es una sucesión de Waypoint
almacenados en la memoria del GPS que
seguiríamos para dirigirnos a un
determinado lugar, los waypoint pueden ser
trazados directamente o introducidos
manualmente. Las rutas se componen
normalmente de 50 puntos y pueden
almacenar de 1 a 30 rutas. El GPS nos
puede indicar la distancia, tiempo, espacio
y la dirección entre cada punto de la ruta,
como es lógico los puntos y la dirección
de la ruta puede ser visualizada en la
pantalla mapa. Los datos de una ruta
puede ser transferidos un PC y
recíprocamente, quedando almacenados
como archivos * rte.
TRACK, es un itinerario registrado por
un GPS mediante una serie de puntos (de
1000-3000 puntos) del camino seguido por
el GPS. El cual quedaría marcado en el
mapa del GPS, y puede ser almacenado
(de1-10 track) y transferido a un PC
mediante archivos * plt.
Los archivos de waypoint (*wpt), rutas
(*rte) y track (*plt), pueden ser tratados
por programas informáticos como
Oziexplorer, Fugami, Yunset, etc…, y
compartidos por diferentes usuarios.
La función track, se puede utilizar
también para dibujar elementos del mapa
que no aparecen, como caminos, curvas
de nivel, o localizar el límite entre
vegetaciones, materiales geológicos, fallas,
etc.…
La función más interesante de un track,
es la posibilidad de realizar un trackback,
es decir deshacer el camino seguido, como
pequeñas migas de pan que hubiéramos
tirado, hasta la posición original. El GPS,
nos indicaría que camino seguir, la
velocidad, el tiempo que tardaríamos en
llegar, y es espacio que queda.
MAPA, es una representación en la cual
aparece la posición actual del GPS
(mediante un icono móvil), waypoint, rutas
7.
y track, estos mapas se pueden cambiar
de escala desde 50m a 500 km, en cada
una de las pantallas pueden ir apareciendo
más detalles (como nuevos waypoint,
etc.…), algunos modelos llevan
cartografía digital de serie (en blanco y
negro o color) de una determinada área
(con curvas de nivel, calles, numero de
casas, gasolineras, etc..), en estos mapas
suelen contener mapas de detallas al
disminuir la escala. Otros GPS, se le puede
introducir diferentes tipos de mapas, y por
último algunos GPS, se pueden conectar
con un PDA mediante un cable y con
sofware adecuado introducir cualquier
cartografía digital o escaneada y calibrada
previamente.
Otras funciones que presentan los GPS
son:
1. Cambio de Hora y Huso horario.
2. Cambio de tipo de datum (unos 50
datum diferentes) y sistemas de
posicionamiento.
3. Elección de idioma (10 a 15
diferentes).
4. Elección de unidades (metros, millas
náuticas, etc...)
5. Elección de interfase, modo de
comunicación con los ordenadores,
normalmente secuencias NMEA, la
conexión se suele realizar mediante
un puerto en serie, más raro USB.
6. Intensidad de la luz.
7. Hora de puesta y salida de sol y la
luna.
8. Horario de mareas.
9. Mejoras horas para pescar y cazar.
10. Modo de ahorro pilas.
11. Barómetro, termómetro.
12. Declinación magnética.
N.T. Para la descripción de los GPS, hemos utilizado
un modelo «ficticio» que se adapta lo más posible a la
gran cantidad de modelos existentes en el mercado.
REFERENCIAS
Puch, Carlos (2000) «Manual práctico del GPS». Ed.
Desnivel. Manuales grandes espacios.
http://www. garmin.com
http://www.lowrance.com
http://www.magellangps.com
http://www.eaglegps.com
http://www.proteccioncivil.org/mapas.htm#6
http://www.elgps.com/
http://www.rutasyviajes.net/
José Luís Bermúdez García
IES. Pablo Ruiz Picasso. Chiclana-Cádiz.
María Dolores Peinado Cifuentes
IES. Huerta del Rosario. Chiclana-Cádiz.
d)
1.
2.
3.
4.
5.
6.
7.
Aplicaciones.
Navegación terrestre, marítima y aérea.
Topografía y geodesia.
Salvamento.
Deporte, acampada y ocio.
Enfermos y discapacitados.
Aplicaciones científicas a trabajos de campo.
Geocaching, actividad consistente en buscar
«tesoros» escondidos por otros usuarios.
8. Rastreo y recuperación de vehículos.
69
RAZÓN, EMOCIÓN Y
CONOCIMIENTO CIENTÍFICO
Antonio J. Lechuga Navarro
Introducción
cimientos y se aleja de la ingenuidad con la afirmación
de que es el deseo y el afecto, más bien que la razón, la
esencia humana. Para intentar comprender la naturaleza
de esa amalgama inestable hagamos una reseña de
ambas formas de relación con el medio.
Nuestra condición básica es la de organismos,
seres del mundo dotados de unidad orgánica, estructural
y funcional, entes singulares en conexión con todo lo
que nos rodea. Nuestra frontera es aquella que nos
separa del resto del Universo aunque éste sea nuestra
matriz y nuestro fundamento. Todos los organismos se
relacionan con alguna forma de realidad externa a cuyo
anclaje cotidiano se ven irremisiblemente obligados.
Independientemente de nuestro lugar en el morfoespacio
de la vida, los seres vivos afrontamos una lucha esencial:
aquella que se libra frente al tiempo. La verdadera batalla
nos enfrenta a la hueste de lo efímero y su victoria es la
duración, la supervivencia. ¿Cuáles son, como
organismos que somos dotados de individualidad,
nuestras «armas de duración masiva»?
Cualquier animal con un mínimo de complejidad
viene al mundo con un regalo gratuito e imprescindible:
su equipamiento emocional. Será su brújula vital y su
conducta estará motivada en base a que apunte al norte
de la satisfacción y se aleje del desagrado. Si no estamos
desnortados, las emociones que llamamos positivas nos
marcarán la congruencia esencial con la supervivencia
y representan, por tanto, el núcleo primordial del ajuste
con la vida. La experiencia emocional de esta naturaleza,
inserta en el tiempo, representa la vivencia subjetiva de
la continuidad y nos augura, por así decirlo, una leve
promesa de infinitud.
Particularmente, los seres humanos venimos
equipados además con la potencialidad racional, aunque
esta advenediza evolutiva será más conquista que regalo:
necesitará de nuestro esfuerzo y dedicación, además
de la inmersión en un medio cultural determinado que
la promueva y le dé forma. Cualquier contacto con un
noticiario, por breve que sea, nos recordará que la razón
camina entre nosotros con un estigma de recién llegada
de la que desconfiamos. La racionalidad, al contrario
que la emoción, aspira a la intemporalidad1 aunque
impedida para hacérnosla sentir no nos libra por sí misma
de la angustia de la finitud.
La integración entre razón y emoción, verdadero
reto del espíritu humano, debe hacerse bajo la premisa
clarificadora de quien lleva el peso del binomio. Spinoza
así lo planteó en su Ética: el racionalismo pone sus
Baruch Spinoza
Emoción
La emoción es una respuesta automática, sólo
necesita un estímulo disparador y cuando éste se produce
se convierte en un torrente que discurre por la pendiente
inclinada del organismo sin más cauce que su propio
ímpetu. La emoción es ciega, una vez activada, su lógica
inconsciente nos atrapa de modo completo surgiendo
desde lo más profundo. La emoción es
fundamentalmente innata, nos acompaña desde que
comenzamos a ser. La emoción es atávica y ancestral,
ya que su eficacia ha sido destilada a lo largo de la
cadena filogenética y los eones. La emoción es
programada y rígida, deja poco espacio a la reflexión
consciente. La emoción nos urge y nos totaliza2 porque
responde a la llamada primaria, la de la supervivencia.
La emoción estrecha nuestra perspectiva, está
irremisiblemente ligada a un espacio y un lugar aunque,
por otra parte, nos une a la existencia, proporcionando
algo así como una raíz o un ancla que nos da firmeza y
seguridad (o todo lo contrario). La emoción representa
la energía vital del organismo.
70
Si fuera por el espacio, el Universo me rodearía
y se me tragaría como un átomo, pero por el pensamiento
yo abrazo al mundo.
Razón
La razón se basa en la abstracción y su objeto
fundamental es el símbolo. Los modernos modelos de
procesamiento de información visual en el córtex cerebral
ponen de manifiesto una jerarquía de interconexión
neuronal en la que, a medida que ascendemos, se van
perdiendo los prolijos y molestos detalles y va
sobreviviendo el «todo» de las cosas, llamémosle nombre
o símbolo3. La generación de información abstracta,
basada en símbolos, permite un salto cualitativo: el
almacenamiento y procesamiento de una ingente
cantidad de información, una auténtica representación
o modelo del mundo que nos rodea, que es aprehendido
así en nuestra mente posibilitando un mejor ajuste a su
complejidad. El hecho de que nuestra mente sea capaz
de captar significados y reflexionar 4 implica un
mecanismo de autorregulación que la hace escapar a la
estricta obediencia de las leyes de la Física y de la
Química, introduciendo un nivel de fenómenos que
impide la reducción a estas leyes. En este nivel
emergente, el cerebro, al menos en parte, se
autodetermina escapando así a la rigidez de su
funcionamiento mecánico y brindando la posibilidad de
un proceder versátil, flexible y abierto a los matices del
contexto. Un cerebro meramente asociativo tiene unas
posibilidades reducidas a la hora de extraer información
y de responder al medio. Un cerebro que se autorregule
a través de la captación de información abstracta y de
significados es mucho más potente en estos aspectos.
Paradójicamente, al incorporar al mundo nos alejamos
de su contacto directo: la abstracción nos separa del
mundo5 siendo este el peaje que pagamos para penetrar
en el territorio de su posible comprensión. El
pensamiento simbólico carece de la luminosidad
vivificante de lo inmediato, aunque en su existencia
fantasmal inaugura una verdadera «otra realidad», la
realidad abstracta. Con el pensamiento abstracto hemos
conquistado el espacio y el tiempo y en ocasiones esta
amplitud nos deja asomados a un inmenso mirador sobre
la existencia no exento de vértigo. En efecto, el camino
de la razón es frágil e inseguro6, como la propia vida,
pero ahora con la conciencia que nos otorga lo sabemos
permanentemente. Despojándonos de la esclavitud del
instante incorpora la conciencia del tiempo en nuestro
existir. Calibrando la complejidad aparente y nuestra
propia fragilidad, nos conduce a un sentimiento de
indefensión e insignificancia que, también
paradójicamente, nos mueve a conquistar
intelectualmente el mundo en busca de orden,
otorgándonos una mayor independencia y un mayor
poder sobre éste7. La conciencia racional produce una
mezcla de desasosiego y prodigio que queda muy bien
expresada en un fragmento de uno de los pensamientos
de Pascal:
Razón y emoción
La dialéctica razón-emoción parece ser uno de
esos péndulos bipolares de los que no podemos
desembarazarnos por más que su vaivén permanente
nos incomode. Desde el campo racionalista la
componente emocional es percibida como un ruido de
fondo, como un desvarío a controlar, como un canto
de sirena que nos encamina a la infancia intelectual y la
zozobra permanente. Para el bando opuesto, la razón
es tachada de ingenua y presuntuosa; acusada de lindar
peligrosamente con el error, la duda y el vacío existencial
y moral, es considerada alienante porque proyecta
escenarios que comprometen nuestra espontaneidad
instintiva y porque su ancha perspectiva nos debilita
arrancándonos de nuestra posición de privilegio en el
Universo. Desde luego, como en toda antinomia
persistente, ha surgido la tentación de negarla por
identificación de ambos polos enfrentados. Desde la
psicología constructivista se ha planteado que la
distinción entre emoción y cognición proviene más bien
de nuestro legado filosófico y cultural, y concibe a
ambas como expresiones de procesos holísticos y
sistémicos del ser humano. Desde la perspectiva
evolucionista, que enfatiza la continuidad filogenética,
estamos tentados de caracterizar la emoción como una
cognición ancestral o la razón como un tipo de emoción
consciente y deliberada que ha evolucionado muy
recientemente. Pero si son lo mismo, ¿a qué se debe su
inveterado afán por la confrontación mutua? ¿Por qué
sentimos el fragor de esa pelea en nuestra vida cotidiana?
El neurólogo estudioso de las emociones, Joseph
Ledoux, defiende abiertamente la distinción. En su libro
«El cerebro emocional» (pp. 76-79) expone las razones
de su posición, que podemos resumir así:
· El estudio de lesiones cerebrales conduce a
pensar que el cerebro procesa por separado la
representación perceptiva de un objeto y la
evaluación de su significado emocional.
· El procesamiento emocional es más rápido: es
posible que el cerebro sepa si algo es bueno o
malo antes de saber exactamente qué es.
· Los mecanismos del cerebro que se ocupan
de registrar, almacenar y recuperar los
recuerdos de la significación emocional de los
estímulos son diferentes de los mecanismos
que procesan los recuerdos cognitivos de los
mismos estímulos.
· La evaluación emocional de una situación
estrecha nuestro margen de respuestas a las
que ya han tenido éxito a lo largo de la
71
verdad11. Hemos comprendido que en ese lazo, que de
por sí anuda la razón y la emoción, reside nuestro
crecimiento intelectual y espiritual. Por lo tanto,
arrostramos el incómodo, y a veces gélido, viento de
cara que esa larga marcha nos depara, sabedores de
que crecemos a medida que nuestra perspectiva es más
ancha y profunda12.
Heráclito proclamó con una sentencia que todavía
resuena en nosotros:
Hay un mundo uno y común para el que está
despierto. Para el que está dormido se reduce a un
mundo propio.
Dormidos en nuestra verdad local de organismos
que quieren sobrevivir, hemos despertado al veneno de
la verdad a secas y hemos construido teorías no ya de
nuestro ambiente inmediato13, sino del Cosmos en el
que vivimos. Nos hemos desperezado del sueño con el
mito que, aún coloreado de subjetividad emotiva,
contiene ya la semilla de una racionalidad incipiente. En
plena vigilia, la vieja noción griega de Logos se ha
levantado como un gigante que ha resistido milenios y
que aún continúa vivo devorando apariencias
incomprensibles y caóticas en su crecimiento.
Hablábamos de la dificultad en la génesis de la
racionalidad científica y podemos avanzar más en esta
idea contraponiendo la lógica formal con la racionalidad
que podríamos llamar cotidiana. De hecho, según
Johnson-Laird, las personas despliegan su racionalidad
sin el dictado de la corrección lógica. Utilizamos lo que
este psicólogo ha denominado modelos mentales,
ejemplos hipotéticos, sacados de experiencias pasadas
o de situaciones imaginadas. Por otra parte, las
limitaciones de tiempo, complejidad y volumen de
información relevante, así como la incertidumbre
respecto a ciertos aspectos de esta información, conlleva
la dificultad de usar métodos exhaustivos para la
realización de juicios. Tversky y Kahneman han
identificado lo que ellos han llamado heurísticos: reglas
y estrategias cognitivas lo más sencillas y elementales
posibles que generan soluciones rápidas, aunque no
siempre exactas, a los problemas.
Con los pies de barro, como hemos visto, la
racionalidad cotidiana se puede permitir el desvarío de
la soberbia. Consciente de la complejidad y dificultad
de su objeto de estudio, la racionalidad científica se ha
hecho necesariamente humilde14 incorporando en su
seno la semilla de su propia insuficiencia: el escepticismo
organizado y la necesidad de validación empírica.
Necesitada de una precisión y claridad de la que el
lenguaje cotidiano carece, ha encontrado por el camino,
y ha ayudado también a dar forma, al más extraño de
los lenguajes, aquél en el que la Naturaleza parece
expresarse: el lenguaje de las Matemáticas.
¿Cuál es el sentido evolutivo de la racionalidad
científica? Habremos de convenir en la dificultad de
evolución. La evaluación cognitiva no está tan
directamente conectada a los mecanismos de
control de respuestas, posibilitando la
flexibilidad y la innovación.
· La evaluación emocional produce sensaciones
físicas mientras que el procesamiento cognitivo
es menos probable que se asocie a este tipo de
experiencia.
Que sean algo distinto, o precisamente por serlo,
no anula la posibilidad de influencia mutua. La razón es
fuertemente sesgada en el sentido emocional (si ella
misma no establece los controles pertinentes) y la
emoción en nuestra especie también es evaluada
conscientemente e interactúa con planes de decisión,
esquemas cognitivos e información general almacenada
en la memoria8. Por otra parte, nuestra expresión
emocional puede ser controlada, reprimida o simulada
deliberadamente, al menos parcialmente, lo que inaugura
en la filogenia la importantísima estrategia social de la
mentira o el disimulo intencional9. Podemos toparnos
con personas frías y calculadoras como el silicio y seres
humanos que no merecen o detestan el apelativo de
sapiens que los taxónomos les han atribuido alegremente,
pero la mutua influencia entre razón y emoción no nos
debe llevar a la presunción ingenua de que normalmente
la relación se establece de igual a igual. El propio Ledoux
lo expresa así:
La mente tiene poco control sobre las emociones,
y las emociones pueden avasallar la conciencia. Esto
es así porque en este momento de nuestra historia
evolutiva las conexiones que comunican los mecanismos
emocionales con los cognitivos son más fuertes que las
que comunican los mecanismos cognitivos con los
emocionales.
La historia de la Ciencia en particular, la historia
en general y el presente, nos demuestran sobradamente
que los peores augurios derivados de la afirmación
anterior cuentan con la firma, el sello y el registro de
salida de la realidad.
Racionalidad científica
Anteriormente hemos caracterizado a la razón
como una conquista y a la luz de la demoledora cita de
Ledoux su posición estratégica no parece muy
consistente. De hecho es así y si el desarrollo del
pensamiento racional es sorprendente, su versión fuerte,
la racionalidad científica, podríamos decir que circula
«al filo de lo imposible». Casi recién nacida, en términos
históricos, prosperó en la incubadora amable de algunas
mentes entregadas a su cuidado, sin que la cultura
general la asumiera de buen grado, y en ocasiones con
hostilidad y desconfianza10. Sólo una llamada, débil pero
irrenunciable una vez sentida, ha acudido en su ayuda
de lactante desvalida: la pasión por el conocimiento y la
72
Estamos ahora en condiciones de plantearnos la siguiente
pregunta: ¿cuáles son las motivaciones que impulsan al
conocimiento científico? ¿Dónde reside su beneficio
emocional? Podríamos aceptar, en primera instancia, la
respuesta parsimoniosa que equipara la dedicación
científica a cualquier otra actividad y seguramente
acertaremos en una gran proporción. A pesar de esto,
queremos distinguir algunos motivos sobre los demás
en la presunción, en principio intuitiva e hipotética, de
que se encuentran más representados de lo normal en
aquella porción que podríamos llamar «los grandes
científicos», aquellos que han sido capaces de construir
hitos visibles en el camino de su ciencia particular. Nos
referimos, en la terminología de Cattell, a un ergio, la
curiosidad, y a dos sentimientos, el estético y el
metafísico.
establecer la cadena de adaptaciones funcionales que
conducen hasta el cálculo diferencial e integral, la tabla
periódica o el descubrimiento del código genético. Si la
supervivencia pasada no ha dependido de nada de esto15
¿cómo es posible que la evolución le proporcione carta
de naturaleza? La respuesta a este enigma reside en el
carácter contingente de la dinámica evolutiva. El
paleontólogo y biólogo evolutivo, S. J. Gould, ha
denominado exaptaciones a las adaptaciones no previstas
y accidentales de la evolución y enjutas a su base
estructural16. En su libro «La estructura de la teoría de
la evolución» defiende la importancia de la exaptación
en la comprensión del curso evolutivo y en relación
directa con nuestra especie plantea:
¿Acaso las enjutas en cadena del cerebro humano
no deben pesar más que las presuntas adaptaciones
primarias de los cazadores-recolectores africanos
ancestrales a la hora de establecer el perfil de lo que
ahora llamamos naturaleza humana?
El corolario es inmediato: la racionalidad
científica bien puede ser un «efecto colateral» de
utilidades más prosaicas.
Ciencia y emoción
En nuestra especie, la emoción, a pesar de su
profunda raíz, asoma su punta de iceberg sobre lo
consciente. Es descrita y nombrada por lo que es así
presentada ante la nueva sociedad, evolutivamente
hablando, de la conciencia verbal. Consciente, al menos
en parte, y susceptible de contribuir al archivo de
memoria que tenemos abierto sobre el yo, con el nombre
de identidad, puede convertirse en sentimiento y
motivación. De esta forma, la emoción, o su recuerdo,
anticipación o integración trans-situacional como
sentimiento17, puede atravesar el instante en el que habita
para convertirse en dinamizadora o activadora18 de
conductas futuras y, en su caso, dar sentido a toda una
vida.
El psicólogo R. B. Cattell, utilizando la técnica
estadística del análisis factorial multivariado aplicado a
diversos conjuntos de datos empíricos, ha enunciado
una teoría factorial de la personalidad. En cuanto a la
motivación se refiere, esta teoría distingue dos tipos de
motivos básicos: los ergios y los sentimientos. Los
ergios se podrían considerar innatos, aunque pueden
ser influidos por la socialización, siendo los más
importantes: sexo, seguridad, autoafirmación,
gregarismo, curiosidad, protección paternalista,
creatividad, belicosidad y narcisismo. Los sentimientos
parecen reflejar patrones actitudinales determinados
esencialmente por el ambiente, y por tanto, susceptibles
de influencia cultural. Lógicamente son más variados y
podríamos citar como ejemplos el sentimiento religioso
o el profesional.
Albert Einstein
La curiosidad comparte territorio con el asombro,
la admiración y el entusiasmo y tiene frontera con el
misterio. El crecimiento estimulado por la curiosidad
se verifica frente a la sombra embaucadora de lo
desconocido que nos espera bajo un horizonte de
promesa y tentación. El muy reciente y aceptado modelo
de personalidad de McCrae y Costa consta de cinco
factores independientes, siendo uno de ellos el llamado
«Apertura a la experiencia», descrito por rasgos y facetas
como: fantasía, estética, sentimientos, acciones, ideas
y valores. Describe mejor que la curiosidad innata de
Cattell el tipo de motivación que puede impulsar a grandes
figuras de la Ciencia: una mezcla de curiosidad
p rimordial con sentimientos, creatividad e
intelectualidad. Acudamos a uno de los grandes,
Einstein, para que nos lo haga explícito:
El misterio es lo más hermoso que nos es
dado sentir. Es la sensación fundamental, la cuna
del arte y de la ciencia verdaderos. Quien no la
conoce, quien no puede asombrarse ni
maravillarse, está muerto. Sus ojos se han
extinguido.
73
de los átomos, y de las reacciones entre ellos; es
un sentimiento de lo dramático y maravilloso que
es. Es un sentimiento sobrecogedor, de reverente
temor científico, que yo estaba convencido de que
podría ser comunicado mediante un dibujo a
quienes también sintieran esta emoción. Quizá,
por un momento, les evocase esta sensación de
las glorias del Universo.
Para algunos físicos el sentimiento estético
proporciona un recurso heurístico19. Empecemos por
Heisenberg:
Si la Naturaleza nos conduce a formas
matemáticas de gran simplicidad y belleza… que
nadie ha encontrado previamente, no podemos
dejar de pensar que son verdaderas, que revelan
un rasgo genuino de la Naturaleza.
Y sigamos con Dirac:
Es más importante que una ecuación sea
hermosa que el encaje con la experimentación.
Acabemos la serie de testimonios sobre el
sentimiento estético con el de Dobzhansky. Este
biólogo ha sido autor del documento fundador de la
conocida como síntesis moderna en teoría de la
evolución, «Genética y el origen de las especies». Este
libro comienza así:
Al hombre siempre le ha fascinado la gran
diversidad de organismos que viven en el mundo
que le rodea. Ha habido muchos intentos de
comprender el sentido de esta diversidad y las
causas que la ocasionan. Este problema posee un
irresistible atractivo estético para muchas mentes.
Puesto que la investigación científica es una forma
de ejercicio estético, la Biología debe su
existencia en particular a este atractivo.
Para referirnos ahora al sentimiento metafísico
acudamos a Heidegger que aborda su caracterización
en el opúsculo «¿Qué es Metafísica?»:
Sólo porque la nada es patente en el fondo
de la existencia, puede sobrecogernos la completa
extrañeza del ente. Sólo cuando nos desazona la
extrañeza del ente, puede provocarnos
admiración. De la admiración –esto es, de la
patencia de la nada- surge el ¿por qué? Sólo
porque es posible el ¿por qué? en cuanto tal,
podemos preguntarnos por los fundamentos y
fundamentar de una determinada manera. Sólo
porque podemos preguntar y fundamentar, se nos
viene a la mano en nuestro existir el destino de
investigadores.
El libro termina con la que, según Heidegger,
sería la pregunta fundamental de la Metafísica20: ¿Por
qué hay ente y no más bien nada?
El Cosmos nos viene dado pero, si lo pensamos
detenidamente, su propia existencia puede ser
radicalmente extraña, por lo que necesitamos
(…) La alegría de contemplar y conocer es el
regalo más hermoso de la Naturaleza.
El carácter de pasión primaria y gozosa frente
al misterio es glosado por Newton:
No sé qué opina el mundo de mí; pero yo
me siento como un niño que juega en la orilla del
mar, y se divierte descubriendo de vez en cuando
un guijarro más liso o una concha más bella de lo
corriente, mientras el gran océano de la verdad
se extiende ante mí, todo él por descubrir.
El sentimiento estético, protagonista principal
también del factor «Apertura a la experiencia» de
McCrae y Costa, es un motivador esencial de la
actividad científica. Preferimos el orden conceptual
a la disonancia cognitiva y esa prelación, tan lógica
por otra parte en un mundo complejo como el que
habitamos, conduce al gozo en la contemplación de la
coherencia racional: ésta es sentida como bella y
elegante. La voz de Heráclito nos lo muestra en su
peculiar estilo profundo y enigmático:
Una armonía invisible es más intensa que
una visible.
El encuentro entre la unidad abstracta y racional
y el orden natural adquiere un tinte de unión casi
mística que, de nuevo, encuentra expresión explícita
en los textos de Einstein:
El individuo siente la futilidad de los deseos
y las metas humanas, del sublime y maravilloso
orden que se manifiesta tanto en la Naturaleza,
como en el mundo de las ideas. Ese orden lleva a
sentir la existencia individual como una especie
de prisión, y conduce al deseo de experimentar la
totalidad del ser como un todo razonante y
unitario.
Lo más incomprensible es que el Universo
se pueda comprender.
El divertido e iconoclasta Feynman, premio
Nóbel de Física, no es ajeno a los sentimientos como
base de su tarea y nos confiesa en su autobiografía
contada:
Yo deseaba muchísimo aprender a dibujar, por una
razón que siempre he guardado para mí: yo quería
plasmar una emoción que la belleza del mundo
causa en mí. Resulta difícil describirla, porque es
una emoción. Es un sentimiento análogo al de la
experiencia religiosa de que hay un Dios que
controla todo el Universo; se tiene ese sentimiento
de generalidad al pensar en cómo cosas que
parecen tan distintas y se comportan de tan distinto
modo están todas regidas «entre bastidores» por
una misma organización, por las mismas leyes
físicas. Es una captación de la belleza matemática
de la Naturaleza, de su funcionamiento interno;
una comprensión de que los fenómenos que vemos
son resultado de la complejidad de las entrañas
74
que lo abarcase todo. Einstein no estaba motivado
por las cosas que a menudo relacionamos con la
actividad científica, como, por ejemplo, intentar
hallar una explicación para estos o aquellos datos
experimentales. Lo que le impulsaba era una
creencia apasionada en la idea de que una
comprensión más profunda del Universo pondría
de manifiesto la auténtica maravilla: la sencillez
y el enorme poder de los principios en los que se
basa. Einstein deseaba explicar el funcionamiento
del Universo con una claridad nunca antes
conseguida, lo que nos permitiría a todos nosotros
contemplar con asombro y admiración su belleza
y elegancia absolutas.
Einstein nunca consiguió hacer realidad su
sueño, en gran medida porque ciertas limitaciones
le cerraban el camino: en sus tiempos, un buen
número de características esenciales de la materia
y de las fuerzas de la naturaleza eran aún
desconocidas, o, en el mejor de los casos, apenas
se comprendían.
S. Hawking en reciente entrevista publicada
por el periódico El País (20-3-2005) expresa su
creencia de que la humanidad está más cerca que
nunca de comprender los fundamentos del
Universo. La pregunta que mantiene viva su mente
(y quizás hasta su mismo cuerpo enfermo) es la
siguiente: ¿Por qué el Universo se toma la molestia
de existir? Otra versión más de la gran pregunta, la
pregunta más radical que podamos imaginar, la vieja
pregunta de la Metafísica.
El físico J. Wheeler ha escrito:
Un día se abrirá una puerta y aparecerá el
rutilante mecanismo central del mundo en toda su
belleza y simplicidad.
En una versión más moderada y matizada, el físico E.
Witten, uno de los padres de la teoría de supercuerdas,
ha dicho:
Creo que estamos tan avanzados con la
teoría de cuerdas que –en mis momentos de mayor
optimismo- me imagino que algún día la forma final
de esta teoría podría caer del cielo e ir a parar a
las manos de alguien. Sin embargo, cuando soy
más realista, creo que nos encontramos
actualmente en camino de construir una teoría
mucho más profunda que cualquiera que hayamos
tenido anteriormente, y que bien entrado el siglo
XXI, cuando yo sea demasiado viejo para tener
alguna idea útil al respecto, los físicos más jóvenes
tendrán que decidir si realmente hemos
descubierto la teoría final o no.
El ensayista y poeta H. M. Enzensberger,
haciéndose eco de las resonancias metafísicas de la
investigación física, en su libro «Los elixires de la
fundamentarlo y no parcialmente en cuanto tal o cual
objeto, ni siquiera antropocéntricamente como seres
humanos, sino en su mismo ser, lo que iguala en interés
a todo lo que es, y, por tanto, aspiramos a fundamentar
su existencia como totalidad. Es el hecho mismo de
la existencia del Universo el que lo convierte en el
objeto de la gran pregunta: ¿cuál es el fundamento de
la realidad si es que lo tiene? ¿Por qué existe?
Aunque esta preocupación, desde la
perspectiva racional, ha sido el campo de trabajo
tradicional de la Metafísica, también podemos
rastrearla en los modernos intentos de unificación
teórica en Física que están abriendo una posible puerta
a su respuesta. Por lo tanto, esta ciencia tiene un
indudable interés metafísico que además anima
explícitamente a algunos de sus más conspicuos
cultivadores.
El gran divulgador de la Ciencia, Paul Davies,
nos dice en su libro «Súper-fuerza» (que traza un
bosquejo de los intentos de unificación teórica de la
Física):
La palabra Universo tiene el mismo origen
que unidad y uno. Significa, literalmente, el
conjunto de las cosas consideradas como un todo.
Curiosamente, en inglés, la palabra que significa
«totalidad», wholly, deriva del mismo origen que
la palabra holy («sagrado»), lo cual refleja las
profundas asociaciones místicas y metafísicas de
la Cosmología. (…) Indudablemente mucha gente
se siente unida espiritualmente a la totalidad de
las cosas, pero hay también en la Ciencia una
tradición paralela de forjar tales vínculos.
Inspirado en primera instancia por un
sentimiento estético y metafísico, Einstein fue el
primer físico que planteó como problema consciente
la unificación teórica de la Física:
Las teorías nuevas son necesarias, sobre
todo, cuando encontramos fenómenos que no
pueden explicarse mediante las teorías existentes.
Pero este pretexto resulta, por así decirlo, trivial,
impuesto desde el exterior. Existe otra motivación,
más sutil, de no menor importancia: lograr la
unificación y la simplificación de las premisas de
la teoría como un todo.
El físico Brian Greene, que actualmente trabaja
en teoría de supercuerdas, uno de los caminos
exploratorios de unificación teórica de la Física, rinde
tributo al gran Einstein como visionario y primer
perseguidor de la teoría final 21. En su libro «El
Universo elegante» dice:
Durante los últimos años de su vida, Albert
Einstein buscó incesantemente lo que se llamaría
una teoría unificada de campos, es decir, una
teoría capaz de describir las fuerzas de la
naturaleza dentro de un marco único, coherente y
75
planificar y ejecutar acciones que, en última instancia y
con mayor o menor éxito, revierten al mundo.
5. ¿Será por esto por lo que Aristóteles decía que todas las
personas intelectualmente eficientes que conocía eran
melancólicas?
6. Bertrand Russell escribió en su «Autobiografía»: Me he
imaginado sucesivamente como liberal, socialista y
pacifista, pero en el sentido más profundo, jamás he sido
nada de esto: siempre el intelecto escéptico, cuando más
deseaba su silencio, me ha susurrado la duda, me ha
arrancado del fácil entusiasmo de los otros y me ha
transportado a una soledad desoladora.
7. Fernando Savater nos plantea en su libro «Criaturas del
aire» que acaso la civilización no sea más que el intento de
sustituir el pánico por la angustia.
8. Podemos citar como ejemplos de este tipo de relación,
desde la Psicología, la teoría transaccional de Lazarus sobre
el estrés o la teoría cognitiva de la depresión de Beck, que
enfatizan la influencia de la lectura cognitiva de la situación
en la respuesta emocional.
9. Jane Goodall, la conocida estudiosa de los chimpancés,
cuenta la siguiente y divertida anécdota en su libro «En la
senda del hombre»: un joven chimpancé que ella conocía
como Figan divisó un plátano en un árbol bajo el que
descansaba el macho dominante del grupo; sabedor de
que no podría controlar la expresión de su excitación y que
ésta rebelaría a su poco delicado amigo la situación, se
escondió detrás de una tienda hasta que Goliat, nombre
por el que era conocido el macho, se marchó; en ese
momento Figan apareció y se comió el preciado premio.
10. En una actualidad en la que la mentalidad científica ha
sido ampliamente aceptada en el acervo cultural general,
todavía asistimos, especialmente en los Estados Unidos,
al falso debate entre el Génesis (en su literalidad) y la Teoría
evolucionista. Los llamados creacionistas, a veces
revestidos de una aparente (aunque burda) racionalidad
como tarjeta de visita, incurren en la falacia de presentar
en pie de igualdad un mito y una teoría científica. Las
exigencias racionales, empíricas y metodológicas que la
Ciencia prescribe en su construcción, son obviadas en
aras de la reivindicación de un tratamiento equitativo y
¡democrático! que pretende llevar las ocurrencias de un
grupo de fanáticos a las escuelas (algunas de ellas tan
abiertamente estúpidas como la que justifica la desaparición
de los dinosaurios por su incapacidad para entrar en el
arca de Noé).
11. Como dice Vidal Peña, responsable de la edición
española de la Ética de Spinoza (recogida en la bibliografía
final) en su introducción al libro: Alguna clase de pasión
de la verdad debe acompañar nuestra captación de las
demostraciones, sin lo cual éstas serán impotentes contra
la verdad de la pasión.
12. No faltan los abandonos. Uno de los que mejor lo
expresa es el filósofo Will Durant que en carta a Bertrand
Russell decía: ...Todo nos lleva a concluir que la mayor
equivocación de la historia humana ha sido el
descubrimiento de la verdad. No nos ha liberado, salvo
de las ilusiones que nos consolaban y de las limitaciones
que nos preservaban; no nos ha hecho felices, pues la
verdad no es hermosa y no merecería ser perseguida con
Ciencia» compara los largos túneles del CERN con
una catedral subterránea:
Estos espacios subterráneos recordaban la
nave central de una catedral, aunque los ritos y
misterios con que se ocupaban sus sumos
sacerdotes eran de naturaleza completamente
distinta.
«No debiera rechazarse una analogía así»,
me decía Christopher Llewellyn-Smith, entonces
director general del CERN. «Es claro que nuestro
proyecto tiene una dimensión espiritual. Tiene que
ver con nuestros sentimientos, con la pregunta
sobre nuestro lugar en este Universo. Trabajamos
en nuevas formas de energía y materia, con los
elementos básicos de aquello de que estamos
hechos.»
En el panorama científico actual nos
encontramos a las Matemáticas, la más estética de
las disciplinas racionales, colaborando con la Física,
la más metafísica de las ciencias, intentando dar forma
a una teoría basada en los conceptos de simetría y
unificación que aspire a comprender el fundamento
último de la Naturaleza. El filósofo Spinoza22, que tuvo
el atrevimiento de plantear de modo explícito la idea de
que la salvación humana se puede alcanzar por el
beneficio afectivo asociado al conocimiento esencial e
intemporal, «sub specie aeternitatis», de la Naturaleza,
quedaría hoy profundamente fascinado, sin ninguna
duda, por esa arrebatadora síntesis de estética,
metafísica y racionalidad.
Un viejo proverbio latino anónimo dice: «cave
ab homine unius libri» (guárdate del hombre de un
solo libro). El cuerpo pide suscribirlo sin reservas ni
excepción por el aroma de fanatismo o enfermiza
obsesión que los libros únicos transmiten, pero para
no ser hombres de un solo aforismo, dejemos al
margen de esa sana prevención, por inmenso, bello,
prodigioso y extraño, a los dedicados al libro único de
la Naturaleza.
NOTAS
1. Spinoza lo expresó así: En la medida en que la
inteligencia concibe una cosa de acuerdo con el dictado
de la razón, resultará afectada por igual tanto si es idea
de una cosa futura como pasada o presente.
2. El neurólogo Joseph Ledoux lo expresa así: Las
emociones crean una furia de actividad dedicada a un
solo objetivo. (….) Todo el yo queda inmerso en la emoción.
3. Nos referimos a la teoría secuencial de procesamiento
neuronal propuesta por Jeff Hawkins.
4. Entenderemos por significado el conjunto de relaciones
ramificadas con otros símbolos que implican a un símbolo
dado, y por reflexión una operación que se ejecuta sobre
representaciones internas. Esta operación permite trabajar
con modelos simbólicos con el objetivo de evaluar, decidir,
76
tanta pasión. Si repasamos la trayectoria del receptor de
la carta sabremos que no le afectó en demasía.
13. Los psicólogos Guidano y Liotti, padres del conocido
como modelo cognitivo estructural, han conceptuado a
los organismos, en base a una idea de Weimer, como teorías
de su ambiente.
14. Eso no quiere decir que los científicos en sí o el proceso
de construcción de la ciencia sea exclusivamente un
dechado de virtudes y heroísmo intelectual. La solidez en
el resultado final deriva del cultivo, como seña de identidad
colectiva, de la honestidad intelectual. Puede haber errores,
vías muertas, visiones interesadas, farsantes y fiascos de
toda índole pero a la larga son descubiertos o reconocidos.
15. Podríamos decir que la supervivencia actual sí ya que
la Ciencia nos la facilita. A esta objeción habría que
responder en dos tiempos. Primero: las adaptaciones son
moldeadas por la evolución en el momento presente y no
pueden ser cribadas selectivamente por sus consecuencias
futuras. Segundo: está por ver el carácter facilitador para
la vida del enorme poder que nos confiere el conocimiento
científico (por lo pronto, la conocida ecuación de Drake,
que formaliza el cálculo de probabilidad de vida inteligente
en nuestra galaxia, incluye un poco tranquilizador término
que tiene en cuenta que una civilización inteligente y
tecnológica puede autodestruirse).
16. Actualmente se piensa, por ejemplo, que las plumas
evolucionaron primariamente con fines termorreguladores
y sólo de modo exaptativo posibilitaron el vuelo.
17. Podríamos definir los sentimientos como estados
emocionales de baja especificidad situacional, intensidad
moderada y larga duración, capaces de promover y motivar
conductas a muy largo plazo. Ledoux dice que: …los
sentimientos conscientes son el ornamento que recubre
sólidamente a las emociones.
18. Es decir, representa el componente energético de la
conducta. La labor de dirección y programación teleológica
será asumida por el componente cognitivo.
19. Es posible que esa preferencia por la elegancia
matemática no sea sólo sentimental sino también de lo más
lógica: en definitiva la Naturaleza en su existir ordenado
parece «preferir» la simetría y la belleza; si esto es lo que
encontramos podemos ir por el buen camino.
20. El diccionario de Filosofía de Ferrater nos indica que
esa pregunta, casi literal, fue originalmente planteada por
Leibniz, aunque la preocupación por el ser y el no ser
resuena desde Parménides y otros filósofos griegos.
21. Para una descripción de sus esfuerzos frustrados en
esta dirección, que consumieron sus últimos años de
actividad intelectual, ver el artículo «La unificación de las
fuerzas» de George Musser, en el monográfico sobre
Einstein de Investigación y Ciencia de noviembre de 2004.
22. Una de las influencias intelectuales y sentimentales de
Einstein.
BIBLIOGRAFÍA
BELLOCH, A., SANDÍN, S., RAMOS, F. Manual
de Psicopatología. McGraw-Hill. Madrid,
1995.
BERMÚDEZ MORENO, J. Psicología de la
Personalidad. UNED. Madrid, 1991.
CABALLO, V. E. (comp.).Manual de Técnicas
de terapia y modificación de conducta.
Siglo XXI. Madrid, 1991.
DAVIES, P. Súper-fuerza. Biblioteca Científica
Salvat. Barcelona, 1988.
EINSTEIN, A. Mi visión del mundo. Tusquets
Editores. Barcelona, 1980.
ENZENSBERGER, H. M. Los elixires de la
Ciencia. Anagrama. Barcelona, 2002.
GOODALL, J. En la senda del hombre.
Biblioteca Científica Salvat. Barcelona,
1986.
GOULD, S. J. La estructura de la teoría de la
evolución. Tusquets Editores. Barcelona,
2004.
GREENE, B. El Universo elegante. Crítica /
Planeta. Barcelona, 2001.
FEIXAS, G., MIRÓ, M. T. Aproximaciones a la
Psicoterapia. Ediciones Paidós. Barcelona,
1993.
FERRATER MORA, J. Diccionario de Filosofía
de bolsillo. Alianza Editorial. Madrid, 1983.
HEIDEGGER, M. ¿Qué es Metafísica? Editorial
Renacimiento. Sevilla, 2003.
LEDOUX, J. El cerebro emocional. Ariel /
Planeta. Barcelona, 1999.
LEIGHTON, R. ¿Está Vd. de broma, Sr.
Feynman? Alianza Editorial. Madrid, 1987.
MORALES, J. F. et al. Psicología Social.
McGraw-Hill. Madrid, 1994.
MUSSER, G. La unificación de las fuerzas.
Investigación y Ciencia. Noviembre, 2004.
PASCAL, B. Pensamientos. Cátedra. Madrid,
1998.
PUEYO, A. A. Manual de Psicología
Diferencial. McGraw-Hill. Madrid, 1997.
RUSSELL, B. Autobiografía. Testimonio Edhasa.
Barcelona, 1990.
SAGAN, C. Cosmos. Editorial Planeta. Barcelona,
1982.
SAVATER, F. Criaturas del aire. Taurus. Madrid,
2004.
SPINOZA, B. Ética. Alianza Editorial. Madrid,
1987.
Antonio J. Lechuga Navarro
77
POBLACIÓN HUMANA,
DESARROLLO Y MEDIO AMBIENTE
José Aldo Piano Palomo
I-POBLACIIONES:
TAMAÑO Y CRECIMIENTO.
depende no de su número potencial, sino de los nacidos
y supervivientes.
Para toda especie, las poblaciones crecen,
se desarrollan y varían en función de una serie de
factores. Sin embargo la especie humana ha
manipulado a su favor, a través del tiempo, estos
factores con el consiguiente impacto sobre el resto
de las especies, y sobre el medio ambiente.
En efecto, la densidad de las distintas
poblaciones depende de muchos factores: la
disponibilidad de alimentos, los factores ambientales
abióticos, etc. En un ecosistema, la población más
grande es la de los seres vivos productores, es decir,
las plantas y otros seres autótrofos. Después de los
productores, los organismos más abundantes son los
consumidores primarios de pequeño tamaño, como
los ratones, conejos, ardillas, etc. Y la población más
pequeña es la de los grandes depredadores.
Es imposible que en un ecosistema haya más
depredadores que consumidores primarios, ya que
entonces la población de depredadores disminuiría por
la escasez de alimentos. Por la misma razón, la
población de consumidores primarios debe ser menor
que la de productores. En un ecosistema, los grandes
depredadores, como el león, forman siempre las
poblaciones más pequeñas.
Así pues, el crecimiento de toda población
viene determinado por la interacción de dos factores,
uno interno y otro externo. El factor interno consiste
en la capacidad fisiológica de las especies para
multiplicarse y el deseo innato que impulsa a todo
individuo a hacer uso de esta capacidad. El factor
externo comprende el medio, tanto físico como social,
dentro del cual se mueve cada individuo. La capacidad
de una especie para multiplicarse depende de la
facultad de producir óvulos y espermatozoos que
poseen, respectivamente, hembras y machos.
Prácticamente, en todos los tipos orgánicos
reside esta capacidad en superabundancia casi
fantástica, de suerte que no existe hoy una especie
incapaz de cubrir el globo en unas pocas generaciones
si no hubiera algo que detuviera su multiplicación. Este
freno al crecimiento es el factor extrínseco o ambiental,
ya que el verdadero volumen de una población
Todo ser viviente formula a la Tierra dos
exigencias: alimento y espacio vital. La Tierra es, sin
embargo, finita y la cantidad de ambas necesidades
fundamentales está estrictamente limitada. Cada
especie tiene, además, exigencias particulares. Las
fuentes de alimento sufren una renovación constante,
pero el espacio vital permanece prácticamente
invariable. Si, en un momento dado, ocurriera que una
especie determinada hubiera agotado sus reservas de
alimento o espacio vital, vería limitada sus posibilidades
de crecimiento. La insistente urgencia reproductora
impele a toda especie, en todo tiempo, a alcanzar su
desarrollo máximo, con las consiguientes presión y
competencia extremas.
Pudiera parecer a simple vista que la especie
humana ha escapado a esta ley rígida. De sobra es
conocido que la humanidad ha ido en aumento
constante desde su aparición hasta nuestros días y
que este aumento se ha acelerado más que retardado
en las últimas generaciones.
La multiplicación humana no obedece a
ninguna diferencia fundamental en la ley de
reproducción, sino al hecho de que el hombre ha
podido ensanchar su medio. Esto lo ha conseguido de
dos maneras:
1. Expandiéndose, como ninguna otra especie,
por todo el globo.
78
total del medio ambiente en el 2% del tiempo de
permanencia del hombre sobre la tierra (que se estima
en 1 millón de años).
Y los expertos en demografía confiesan su
incertidumbre sobre el margen en que la tecnología y
la industrialización permiten un aumento de población
sin sacrificio de su nivel de vida, pero es indudable
que tal margen tiene un límite. El imperativo en el
orden de la naturaleza es que se establezcan
limitaciones al crecimiento demográfico. De la
naturaleza de tales limitaciones, así como del modo y
consistencia con que se establezcan, depende en gran
medida la paz y prosperidad futuras del género
humano.
El problema no es el nacimiento «per se», sino
el hecho de que más del 90 por ciento de los
nacimientos se producen en los países menos
capacitados para hacer frente a las necesidades y a
las condiciones ambientales del crecimiento de sus
poblaciones. El aumento de los habitantes de los
países en desarrollo es del 24,6 %, y el de la población
en los países industrializados solo del 5,2%.
2. Desarrollando procedimientos y técnicas
especiales para aumentar la productividad de
la Tierra.
Ambos factores se han conjugado de tal modo
que cada uno ha hecho posible el mayor desarrollo
del otro.
Pese, sin embargo, a esta excepcional y
notable evasión por la que el hombre ha escapado al
cumplimiento de la ley de población estacionaria
impuesta por la naturaleza, el crecimiento de la especie
humana se ha efectuado en realidad muy lentamente
hasta la Edad Moderna. Ello obedeció, en parte, a
que la utilización de los dos factores de expansión y
cultura económica requirió un tiempo enormemente
largo y, en parte, a que el hombre no juzgó oportuno
dedicar exclusivamente estas ventajas a la
multiplicación de su propia especie. La conjugación
de ambos factores, ocupación de nuevas tierras y
perfeccionamiento de las artes de expansión, permitió
no sólo mantener una población más numerosa en un
medio determinado, sino también sustentar la misma
población en un nivel de vida superior o bien lograr
una combinación de ambos fenómenos. La historia
cultural de la raza demuestra que la mayoría de las
sociedades, no del todo consciente o deliberadamente,
prefirieron crear su bienestar material a mantener la
máxima población numérica en los mismos linderos
del hambre, Así en 1800, la población total de la Tierra
ascendía sólo a 900.000.000. Entonces se produjo un
cambio notable, y en 200 años el aumento de población
ha sido mayor que en toda la anterior existencia del
hombre.
Pero cuando hace 200 años comenzó la
revolución industrial, cuya filosofía era la producción
de bienes con la idea de abastecer a la población y
aumentar su nivel de calidad de vida, la población
apenas era de 1000 millones de personas y se contaba
con un medio (tanto terrestre como marítimo) muy
productivo, y un medio ambiente en el que el hombre
aún mantenía (al menos en una gran parte) un perfecto
equilibrio.
Quizás por ello no se pudo prever una
sociedad industrial que, empujada por el interés,
penetrase en los rincones más lejanos e impenetrables
de la tierra y del mar, se adentrase en el espacio
exterior y alterase irreversiblemente los grandes
sistemas naturales que mantienen, aún, la vida en la
tierra.
El precio a pagar por este gigantesco
consumismo industrial que está llevando al sistema
económico al límite de su supervivencia y que corroe
los cimientos de nuestra sociedad, soportando una
población de más de 6000 millones de personas (con
incrementos anuales de 86 millones), es la degradación
II-DESARROLLO Y MEDIO AMBIENTE.
Como vemos, todo lo dicho anteriormente
sufre drásticas alteraciones en el caso del hombre al
ser el depredador más feroz del planeta, el cual
modifica a voluntad y expolia, rebasando así su lugar
en la Naturaleza. Los espacios naturales están
disminuyendo rápidamente en el mundo, sin que los
efectos de esa regresión sean tenidos en cuenta de
modo operativo.
De este modo, cuando el hombre necesita más
tierra de cultivo no tiene inconveniente en modificar
un paisaje natural para adaptarlo a sus necesidades.
La erosión humana sobre el medio es importante, y
en una serie de casos se halla en fase máxima de
intensidad. A ello contribuyen los poderosos medios
de destrucción que proporciona la tecnología moderna
(pesticidas, elementos no biodegradables, motores de
combustión interna, etc.), así como las decisiones
políticas meditadas en base a un beneficio económico
(deforestación salvaje para obtención de papel,
fundamentalmente).
Con la deforestación y posterior dedicación
a tierra de cultivo, se transforma un área oscura en
una mucho más reflectante, y por tanto, disminuye la
radiación solar absorbida, la máquina climática.
Especialmente importantes son los bosques tropicales,
dada su trascendencia en los balances globales
energéticos e hídricos del planeta, y por lo tanto en
las posibles alteraciones del clima. El 50% de las lluvias
tropicales son aguas evapo-transpiradas, es decir,
recicladas a través de los propios bosques. Por lo tanto
79
Hasta finales del siglo XVIII la fuente de
energía utilizada era la solar o la de aquellas sustancias
orgánicas en la que había quedado almacenada, como
los alimentos o la madera. Asimismo, la mayor parte
de los materiales empleados para el trabajo eran
tomados de la propia Naturaleza y por lo tanto
biodegradables, es decir, formaban parte del ciclo
natural de la materia de los ecosistemas.
Con la revolución industrial se introducen en el
proceso de producción, máquinas herramientas
elaboradas a base de materiales más complejos y
no es de extrañar que a la selva del Amazonas se la
llame el pulmón del planeta.
En lo que se refiere a las consecuencias del
consumo abusivo del agua, la cantidad utilizada por el
hombre crece sin cesar, de forma que en las áreas de
mayor déficit se plantean trasvases entre cuencas
hidrográficas, el empleo de aguas subterráneas y, cada
vez más, la desalación del agua de mar. Pero, como
siempre, no se trata de un problema de mayor uso,
sino de una utilización inadecuada, con la secuela de
una contaminación creciente.
Esto contrasta con la actividad de las
hormigas: hay 1.000.000 por cada hombre, suponen
el mayor movimiento de tierras del planeta, se
alimentan de plantas y hojas de los árboles (pero nunca
hasta dañarlos de forma irreversible) y de otros
insectos, y sin embargo su incidencia en el medio
ambiente es escasa.
La deforestación de las masas boscosas y de
otras zonas altera, además del ciclo natural del
carbono, la composición atmosférica ya que la materia
orgánica quemada o descompuesta libera CO2 y otros
contaminantes gaseosos y sólidos. Y la desaparición
de todos los espacios naturales representaría la
liquidación definitiva de muchas especies salvajes.
De ahí el enorme interés de los parques
nacionales en los cinco continentes, y en especial en
África, y la necesidad de mantener amplias reservas
de vida natural frente al proceso de ocupación
agrícola, urbana e industrial, que actualmente se está
dando en vastos territorios hasta hace poco
prácticamente vírgenes (Brasil, Colombia, Perú,
Sudeste de Asia, Siberia, Filipinas, Indonesia, etc.).
Y es que el hombre, desde su aparición en la Tierra,
ha influido sobre el equilibrio ecológico, alterándolo
de tal manera que ha provocado una regresión de los
sistemas naturales. De no haber existido la especie
humana, la biosfera tendría un aspecto distinto al que
tiene actualmente.
En un principio y durante miles de años, el
hombre, cazador y pescador, ejerció una influencia
similar a la de cualquier animal, así el hombre actuaba
como depredador y competidor en las comunidades
de las que formaba parte.
Con la aparición de la agricultura y el pastoreo,
el hombre empezó a alterar el equilibrio ecológico de
la biosfera. La necesidad de un mayor espacio para
pastos y cultivos le indujo a quemar y talar bosques.
Esta práctica, continúa y abusiva, hizo que quedaran
amplias extensiones convertidas en sábanas e incluso
en tierras áridas y pobres, lo que trajo consigo
modificaciones climáticas en muchas zonas de la
Tierra. Y, al mismo tiempo, la población humana
comenzó a aumentar y esto trajo consigo mayores
necesidades de materia y energía.
accionadas mediante nuevas formas de energía. Dicha
energía se obtiene a partir de diversos combustibles,
cuyo consumo va siendo cada vez mayor. Los
residuos de la combustión fueron ejerciendo
progresivamente sus efectos nocivos sobre la
Biosfera, pues al tratarse de sustancias que, en
muchos casos, no se reciclan se van acumulando en
la Naturaleza, siendo además muchas de ellas tóxicas
para los seres vivos. A esta acumulación de materiales
no reciclables contribuyen también muchos de los
productos empleados en la elaboración de las
herramientas como l os plásticos, fibras sintéticas, etc.
A todo esto hay que añadir los efectos del
fenómeno urbano. Con la revolución industrial, se inicia
el proceso de emigración del campo a la ciudad,
trayendo consigo un desequilibrio en la densidad de
población de la especie humana. Este desequilibrio
provoca una exportación masiva de alimentos de las
zonas rurales a las ciudades. Las primeras se ven
obligadas, para completar su ciclo de materia, a
enriquecer artificialmente sus tierras con abonos, a
pesar de los efectos nocivos secundarios que provoca
su utilización masiva. Por el contrario, las ciudades
se van llenando de sustancias de desecho, muchas de
ellas no reciclables y a un ritmo mucho mayor del que
la Naturaleza puede asimilar.
80
Otro aspecto de algunos contaminantes es que
en muchos casos su presencia no se detecta en el
medio ambiente, aunque esto no significa que no existe
contaminación. Lo que ocurre es que los productos
son acumulados por los seres vivos a lo largo de las
cadenas tróficas hasta alcanzar concentraciones muy
superiores a las del medio (como ocurre con el DDT,
plomo, boro y aluminio, que se acumulan en el
organismo humano). Es decir, que las cadenas tróficas
actúan como amplificadores biológicos de los
contaminantes.
Así, el DDT usado hace tiempo para eliminar
piojos, mosquitos y otros parásitos, se acumulaba en
las plantas, y así se introducía en la cadena trófica,
concentrándose a medida que se ascendía en dicha
cadena (plantas, herbívoros, carnívoros superiores).
Este compuesto afecta a las hormonas sexuales
y en el caso de las aves, por ejemplo, aumenta el
número de huevos estériles o de cáscara frágil. Y el
problema consiste en que se sigue utilizando en los
países en vía de desarrollo, como la India, para tratar
de extinguir al mosquito que transmite la malaria, entre
otros.
Y como se trata de un compuesto orgánico
volátil, asciende a las capas superiores de la atmósfera
(donde daña la capa de ozono debido a su contenido
en cloro), y se expande por toda la tierra. Y como
todo gas desciende al suelo en las regiones más frías,
de modo que los inuits (habitantes del polo), son los
más contaminados por el DDT que se usa ¡en la India!
Otros efectos negativos son:
- Contaminación del agua por nitratos, metales
pesados, todo tipo de residuos (tanto urbanos
como industriales), compuestos orgánicos
persistentes, bacterias, virus, etc.
- Contaminación atmosférica por ruidos (ondas
sonoras), partículas de los materiales más
variados, compuestos orgánicos volátiles,
ondas electromagnéticas, entre otros.
- El efecto invernadero.
- El adelgazamiento de la capa de ozono.
- La lluvia ácida.
- La contaminación radioactiva.
- La contaminación de los suelos por todo tipo
de contaminantes.
- La desertización y erosión de los suelos.
- La proliferación de virus y/o bacterias debido
al aumento de temperatura.
Sin embargo, la economía se ha hecho tan
interdependiente que a nadie le interesa que deje de
funcionar, y por ello es necesario aprovechar la
experiencia adquirida para construir un modo de vida
con una escala de valores, en donde nuestra
integración en el medio constituya el eje fundamental,
al mismo tiempo que permita el desarrollo de los
pueblos que no lo posean: Es el llamado
DESARROLLO SOSTENIBLE.
En líneas muy generales, las medidas a tomar
ante todos estos problemas y para la conservación de
la biosfera y la misma antroposfera, son diversas: no
extensión de los cultivos a aquellas zonas de las que
no se puede esperar una producción continua –evitar
la roturación de la selva tropical-, comprensión de la
importancia de la fauna y la flora salvaje como fuente
de alimentos y de diversidad genética y para la
conservación de la naturaleza dado su papel regulador,
creación de reservas semiprotegidas para el estudio
y depósito de la información genética, investigación y
lucha contra la contaminación, modificación de las
actuales tendencias de la población humana, y el
reciclado de todo tipo de residuos.
Del fenómeno de la contaminación hay que
distinguir dos causas:
1. Transformación de elementos naturales de la
Tierra en otros que no son biodegradables.
2. Acumulación de materias, aún no siendo
contaminantes, que la Naturaleza no puede
asimilar.
Por lo tanto hay que procurar producir menos
residuos y reciclar los existentes y los que se generan,
de manera rápida y limpia.
En definitiva, la humanidad debe comenzar a vivir
dentro de los límites de capacidad de carga de la
Tierra. Se deben adoptar estilos de vida y pautas de
desarrollo (el llamado desarrollo sostenible), que
tengan en consideración los límites de los recursos
naturales y actúen dentro de ellos. Para ello no hay
porque olvidar los avances y logros tecnológicos, sino
simplemente intentar que la tecnología avance dentro
de los límites de la naturaleza.
Y tan importante, o más, es el hecho de que los
países desarrollados no debemos abusar de los que
no lo son. Hoy día los países que más contaminan en
valor absoluto son Estados Unidos y China (que,
casualmente, son los principales opositores a que se
aplique el Protocolo de Kioto), seguidos por todo el
sudeste asiático e India. Sin embargo resulta que
Estados Unidos, al confeccionar el mapa de la relación
entre lo que un ecosistema produce cada año en masa
vegetal y lo que consumen sus habitantes, esta
relación es tan solo del 24%, del 6% al 12% en África
y América del Sur, y del 70% al 80% en el este de
Europa, y Asia del sur y del este.
Naturalmente, en este estudio se pasa por encima
del hecho de la explotación de los países ricos hacen
del resto del planeta.
Así, los países pobres suelen vender su suelo para
que se depositen residuos, incluso nucleares, que otros
81
económica. Pero a cambio sufre un gran impacto
social y ambiental debido a este monocultivo: han
desaparecido 150.000 productores familiares (en total
se han arruinado 400.000 pequeños productores, y
hay muchos más endeudados con los bancos),
extensas zonas rurales han quedado despobladas,
semillas OGM, herbicidas Monsanto (compañía USA),
carísimas máquinas de siembra directa, etc. Además
la propiedad de la tierra se concentra (6.000 empresas
son dueñas del 50% de la tierra productiva), y el
capital extranjero controla 16 millones de Ha.
El comercio internacional de soja aumenta por la
demanda de China, que no cesa de aumentar. El
resultado es que cada vez se dedican más tierras para
su producción, lo cual supone la tala salvaje de montes
y selvas, algunas de gran valor, como la selva de
Yungas, Reserva de la Biosfera de la UNESCO. Sólo
el norte del país está sufriendo una destrucción
forestal que es cinco veces superior al promedio
mundial. El resultado final, aparte del coste social,
son un empobrecimiento de las tierras, y pérdida de
biodiversidad: En definitiva, se ha perdido la
oportunidad de un desarrollo ambiental y social más
justo que el proporcionado por la soja transgénica,
muy provechosa para terratenientes y sociedades
extranjeras.
Por ello debemos tener cuidado de no consumir
ni maderas ni otros productos que no hayan sido
gestionados de una forma responsable y sostenible,
desde criterios sociales y ambientales exigentes.
no quieren para sí, hipotecando su futuro y el de sus
habitantes. Y no menos importante es el hecho de
que la deuda externa con los países ricos ahoga su
economía, lo que les impide mejorar su estatus.
Así, compañías de Japón y Corea explotan la
madera de Indonesia, arrasando sus bosques y
degradando su medio ambiente. Otro tanto ocurre con
otras sociedades, como la Stone norteamericana, que
ha plantado 25 millones de «melinas» (árbol de
crecimiento rápido natural de Indonesia) en Costa Rica
con el fin de obtener materia prima para sus
actividades.
Otro tanto ocurre con los árboles amazónicos, que
son talados indiscriminadamente por empresas
madereras (excepto una suiza, que hace una tala
responsable: corta un árbol y planta tres), con lo que
el suelo pierde parte de su cobertura. Entonces se
planta café (para exportarlo a Europa), y las siguientes
lluvias se llevan el suelo fértil, con lo que hay que
BIBLIOGRAFÍA
1II Encuentro de Profesores de Ciencias
de la Naturaleza. Septiembre de 1995.
Málaga.
2Imhoff, M. ¿Qui épuise le planéte ? Août
2004. Sciences et Avenir SARL. ID OBS.
Paris.
3«Lo que se esconde tras los muebles de
teca». Agosto 2004. Integral Nº 296. RBA
Revistas. Barcelona.
4Natera, Mª L. 1991. Libro del reciclaje.
Agencia del Medio Ambiente. Sevilla.
5Piano Palomo, J.A. 1991. «Reducir,
Reutilizar y Reciclar». Spin Cero Nº 4.
IES Pablo Picasso. Málaga.
6«Soja transgénica: el pan para hoy de los
argentinos». Agosto 2004. Integral Nº
296. RBA Revistas. Barcelona.
7www.earthday.net/footprint/index.asp
(podrás calcular tu huella ecológica, es
decir, cuanto contaminas).
«comerle» más terreno al bosque, y así hasta que el
pulmón del planeta desaparezca.
Y no creamos que nosotros somos inocentes:
<<En el sureste asiático, de donde proviene la mayor
parte de los muebles de teca que se venden en España,
la depredación de los recursos forestales, la
corrupción política, la tala ilegal y la pérdida de sus
bosques, dominan el sector forestal>>. La cita es de
Greenpeace. En este contexto, solo la compañía Ikea
mantiene una actitud responsable.
En la antigua Birmania, lugar de donde procede
buena parte de la teca, ocurre algo peor: la dictadura
militar utiliza la madera como moneda de cambio para
armarse y mantenerse en el poder, en lo que
internacionalmente se denomina «madera de
conflicto».
Argentina es el tercer productor mundial y el
segundo exportador (tras Brasil) de soja, con 36
millones de toneladas en la última cosecha. El 95%
de esta soja es transgénica y acaba vendida como
aceites o harina para el consumo de vacas, cerdos y
aves. Para el país está siendo una magnífica fuente
de divisas, esenciales dada su mala situación
José-Aldo Piano Palomo
I.E.S. LA ROSALEDA
82
COMPROMISOS DEL PROTOCOLO DE KYOTO
Elisa Manzanares Rodríguez
Parece universalmente admitido hoy día que
la emisión a la atmósfera de gases de efecto
invernadero (GEI) por parte del hombre está
provocando una modificación del balance de energía
del sistema climático que conduce a un calentamiento
global. De él a su vez se derivarían cambios en otras
variables climáticas e impactos considerables tanto
en el sistema natural como en las actividades humanas.
Dicho cambio estaría ya generando manifestaciones
en forma de tendencias crecientes en las temperaturas
planetarias como fenómeno más destacable.
derecho al desarrollo sostenible de todos los pueblos
y la cooperación para la promoción de un sistema
económico internacional abierto y propicio al desarrollo
sostenible e igual para todos.
Como en la Convención Marco no se había
especificado el nivel de concentración de gases de
efecto invernadero que se exigía ni los plazos en que
debía alcanzarse, fue necesario continuar las
negociaciones a nivel internacional para alcanzar
compromisos firmes. En la tercera sesión de la
Conferencia de las Partes (firmantes de la Convención
Marco) que tuvo lugar en Kyoto en diciembre de 1997,
se adoptó un instrumento legal conocido como
Protocolo de Kyoto que ponía límite a las emisiones
netas de gases de efecto invernadero para los
principales países desarrollados y con economías en
transición al desarrollo.
El 4 de junio de 1992 se abrió a la firma la
Convención Marco sobre el Cambio Climático,
coincidiendo con la celebración de la Cumbre de la
Tierra en Río de Janeiro. La conferencia fue firmada
por 155 países, por lo que se consideró como el mayor
logro de dicha reunión.
Los principios que inspiraron esta Convención
fueron la preservación del medio ambiente para las
generaciones futuras, las responsabilidades
diferenciadas de los países, el de precaución, el
El 31 de mayo de 2002 la Unión Europea y
sus 15 estados miembros depositaron en la sede central
de Naciones Unidas en Nueva York sus respectivos
instrumentos de ratificación del Protocolo de Kyoto a
83
la Convención Marco sobre el Cambio Climático. Si
bien la Convención se halla en vigor, y sus
compromisos son vinculantes para España, los
compromisos de Kyoto aún no se encuentran en vigor
y no son vinculantes. Esto, no obstante, no es óbice
para que España se considere obligada a su
cumplimiento desde que el Parlamento ratificase el
Protocolo el 8 de mayo de 2002.
En virtud del artículo 3.1 del Protocolo, los
países desarrollados y en proceso de transición a una
economía de mercado asumen el compromiso de
reducir, individual o conjuntamente, sus emisiones
antropogénicas de los seis gases objeto de control al
menos un cinco por ciento en el período 2008-2012.
Los seis gases mencionados son el dióxido de carbono,
el metano, el óxido nitroso, el hexafluoruro de
hidrógeno, los hidrofluorocarbonos y los
perfluorocarbonos.
De acuerdo a las últimas negociaciones,
Canadá, Japón y Nueva Zelanda decidieron ratificar
este acuerdo internacional. EEUU, país responsable
de la emisión de un cuarto del CO2 del planeta, a
través del petroadicto George W.Bush, y a pesar de
haber participado en todas las negociaciones
intentando bloquear el proceso, decidió autoaislarse
en la lucha contra el cambio climático, secundado por
Howard, presidente de Australia, rechazando el
Protocolo. Tras la ratificación por parte de Rusia en
septiembre de 2004 el Protocolo de Kyoto alcanzó la
categoría de Ley internacional. España publicaba hace
apenas un año en el Boletín Oficial del Estado el
Instrumento de Ratificación del Protocolo de Kyoto
al Convenio Marco de las Naciones Unidas sobre el
Cambio Climático.
En aplicación del principio de responsabilidad
compartida pero diferenciada de los países, no todos
los países desarrollados deben reducir sus emisiones
de igual modo. Además se permite que grupos de
países decidan cumplir conjuntamente los
compromisos de limitación y reducción de emisiones,
siempre que se especifiquen los compromisos de cada
uno de los mismos. La Unión Europea se ha acogido
a esta posibilidad, asumiendo el compromiso de reducir
en un 8% las emisiones de seis gases invernadero
respecto al año 1990 en el horizonte temporal 20082012, lo cual quedó refrendado por la Decisión 2002/
358/CE de aprobación del Protocolo de Kyoto.
Como las emisiones reales de Rusia cayeron
con el colapso económico de principios de los 90, la
84
La posibilidad de comerciar con los derechos de
emisión no parece si no un artefacto creado para
acelerar la puesta en marcha del Protocolo con la
adhesión interesada de Rusia y justificar así el mismo
Protocolo, reavivándolo después de años de olvido.
¿Acaso no resulta aparente la reducción de emisiones
de GEI, si se adquieren los derechos de otros países
menos contaminantes o en vías de desarrollo? ¿Es
que el planeta siente la diferencia entre contaminar
gratis o contaminar pagando?¿No es cierto que los
beneficios de este crecimiento contaminante son
mucho mayores que los derechos de emisión que
pagan?. Son muchos los que piensan que se ha creado
una falsa ilusión de cumplimiento del Protocolo, de
progreso y modernidad y de protección del medio
ambiente.
concesión creó un significativo excedente de
«derechos» de contaminación (conocido como «aire
caliente») que podría ser vendido al mejor postor. A
pesar de las propuestas de los grupos ecologistas
indicando con una gran variedad de estudios cómo
las naciones industrializadas podrían fácilmente
exceder los modestos objetivos contenidos en el
Protocolo a través de medidas de reducción
solamente, los políticos de algunos países decidieron
que necesitaban mayor flexibilidad para lograr sus
objetivos. Incluyeron en el acuerdo de Kyoto
mecanismos para el «Comercio de Emisiones»
(posibilidad de comprar excedentes de CO2 a otros
países que hayan reducido sus emisiones), un
«Mecanismo para un Desarrollo Limpio» (proyectos
en países en desarrollo por parte de países
industrializados) y los sumideros (dependencia de los
bosques y la vegetación para absorber CO2).
El principal compromiso asumido por España
es el de limitar el crecimiento neto de las emisiones
de gases de efecto invernadero de manera que en el
periodo 2008-2012 sus emisiones de los seis gases
considerados medidos en dióxido de carbono
equivalente no superen en más de un 15% las
emisiones del año 1990.
Junto a este compromiso persisten otros,
genéricos, asumidos con la Convención (elaboración
de inventarios nacionales de gases de efecto
invernadero, elaboración de planes de minimización
de emisiones y de desarrollo sostenible, etc), así como
compromisos adicionales en la obtención y remisión
de información a los organismos internacionales y
cumplimiento de las obligaciones de acuerdo con las
formas y procedimientos establecidos. Asimismo,
como consecuencia del proceso negociador, España
conjuntamente con los demás miembros de la UE,
Canadá, Islandia, Noruega, Nueva Zelanda y Suiza,
suscribió la declaración política por la que se
comprometen a facilitar recursos destinados a países
en desarrollo para financiar acciones de lucha contra
el cambio climático y de adaptación a sus efectos por
un importe de 450 millones de euros anuales a partir
del año 2005. Se trata de un compromiso político que
requiere remisión periódica de información sobre la
cantidad de recursos aportados. Recientemente, en
marzo de 2004, España aprobó sendas partidas de
90.150 • destinadas al Fondo para el Medio Ambiente
Mundial y al Fondo de Garantía del IPCC
respectivamente.
Fotografía 2 y 3. El cambio climático es un hecho
constatado.
En cuanto al mercado de derechos de emisión
de gases de efecto invernadero, puede resultar difícil
entender en qué lugar del objetivo del Protocolo de
Kyoto («luchar contra el cambio climático mediante
una acción internacional de reducción de las emisiones
de determinados gases de efecto invernadero
responsables del calentamiento del planeta») encaja.
España habrá de responder ante el Comité de
Cumplimiento creado al amparo del Protocolo en caso
de incumplimiento de cualquiera de estas obligaciones.
En función de cuál sea la infracción, será una u otra
85
Fotografía 1. El tiempo y el clima. El tiempo atmosférico depende de muchos factores que lo hacen
distinto de un lugar a otro; a lo largo del tiempo cada zona tiene su clima, determinado por sus
«estadísticas del tiempo».
sección del Comité la que entienda del asunto. Pero
además deberá responder ante las instituciones de la
Unión Europea ya que su incumplimiento puede
provocar que el conjunto de la Unión cumpla sus
compromisos globales.
F
REAL DECRETO LEY 5/2004, de 27 de agosto,
por el que se regula el régimen del comercio de
derechos de emisión de gases de efecto
invernadero. BOE núm. 208 de 28 de Agosto
2004.
F Consejería de Medio Ambiente de la Junta de
Andalucía:
www. juntadeandalucia.es/medioambiente
F Instrumento de Ratificación del Protocolo de
Kyoto al Convenio Marco de las Naciones
Unidas sobre el Cambio Climático, hecho en
Kyoto el 11 de diciembre de 1997.
BOE núm.33, 8 febrero 2005.
F Curso de Sostenibilidad Energética, subvencionado
por el Fondo Social Europeo, organizado por
Visible, S.L.
En la actualidad ya se ha adoptado un Plan
Nacional de Asignación de Derechos de Emisión (ver
Real Decreto 1866/2004) y se ha regulado el régimen
de comercio de derechos de emisión de gases de
efecto invernadero (Real Decreto Ley 5/2004).
Ambas medidas, aprobadas recientemente y efectivas
a partir del 1 de enero de 2005, dotan al marco
normativo nacional con las herramientas necesarias
para trabajar hacia la reducción de emisiones de gases
de efecto invernadero.
Elisa Manzanares Rodríguez
BIBLIOGRAFÍA
Licenciada en Química
F
Secretaría de la Convención Marco de las
Naciones Unidas sobre el Cambio Climático: http:/
/unfcc.int
86
JUAN MANUEL DE ARÉJULA Y EL RECHAZO DE
LA TEORÍA DE LA ACIDEZ DE LAVOISIER
José María Bocanegra Garcés
Introducción
El desarrollo científico en España durante el
siglo XVIII no fue un proceso superficial,
protagonizado sólo por una minoría ilustrada, sino que,
lo que podríamos llamar renovación científi-ca, tuvo
hondas raíces en el pasado. Ya durante la segunda
mitad del siglo XVII se observan las nuevas tendencias
hacia su renovación. El cambio dinástico que se
produce en esta época va a favorecer el desarrollo
científico, alcanzando su máximo esplendor durante
el reinado de Carlos III, ya que el Gobierno, por medio
de sus Ministerios, se erigió en el principal
protago-nista de la implantación de la enseñanza y el
cultivo de las ciencias experimentales en España; para
estabilizarse posterior-mente en los años finales del
siglo XVIII, precisamente cuando se recogen los
frutos de la obra realizada durante el siglo.
A lo largo del período ilustrado, los logros
conseguidos en el campo de la Química, como en el
de otras ciencias, difícilmen-te serán superados en
España con posterioridad. Baste recordar que de los
109 elementos químicos conocidos, tres de ellos fueron
descubiertos o descritos por primera vez por científicos
españoles, y precisamente en esa época: el platino
(Antonio Ulloa, 1748), el volframio (Juan José y Fausto
de Elhúyar, 1783) y el vanadio (Andrés del Río, 1802).
En Septiembre de 1777 es aprobada la
creación de la Cátedra de Química de Vergara
(Guipúzcoa), que quedaría bajo la dirección de la
Sociedad Económica Vascongada de Amigos del País.
La inaugu-ración de la cátedra fue realizada por el
químico francés J.L. Proust en mayo de 1779, fecha
en que se puede datar el comienzo de la enseñanza
regular de la química en España. Más tarde se
inaugurarían las Cátedras de Química de Madrid
(1788), Valencia (1791), Segovia (1792) y Cádiz
(1795). En enero de 1788, Pedro Gutiérrez Bueno
inauguraba la enseñanza de la Química en el Real
Laboratorio de Madrid fundado por el Ministerio de
Estado. En el mismo mes daba a conocer su traducción
castellana del Méthode de Nomenclature Chimique.
No obstante, en nuestro país se dieron
determinados factores que impidieron que calara
adecuadamente el espíritu experimenta-dor que surgió
en otras naciones. En ello pudo influir de forma
especial una coyuntura decisiva: la falta de profesores
bien preparados y la carencia de libros de filosofía
natural actuali-zados. En una de sus Cartas Eruditas,
el padre Feijoo resume la situación en España en los
siguientes puntos:
El corto alcance de algunos de los
profesores de entonces.
La preocupación que reina en España
contra toda novedad.
El errado concepto de que cuanto nos
presentan los nuevos filósofos se reduce a
curiosidades inútiles.
Un vano temor a que las doctrinas nuevas
en materia de filosofía traigan un perjuicio a la
religión.
En Andalucía como en el resto de España,
llegaron a lo largo del siglo XVIII las nuevas ideas
filosóficas y científicas desarrolladas en el extranjero
87
y que conocemos como la ilustra-ción, estas ideas
son fundamentalmente racionalistas y críticas hacia
las tradiciones y los conocimientos establecidos. Como
consecuencia de la practicidad que implicaba el
desarrollo de dichas ideas se va a potenciar la
enseñanza de las ciencias útiles tales como: Botánica,
Física, Química y Matemáticas, en detrimento de las
denominadas ciencias especulativas, como la
Metafísica. Se trataba pues de eliminar las ideas
aristotélicas, especulativas, en beneficio de la
experimentación científica.
Durante este siglo, y sobre todo en su
primera mitad, la actividad científica en las
Universidades fue casi nula, permaneciendo la
estructura de las mismas prácticamente invaria-ble
con respecto al modelo establecido en el siglo
anterior, quizás debido a que las mismas estaban
en su mayor parte en manos del estamento
eclesiástico que se oponía de forma decidida al
cambio, de ahí que nacieran durante esta época
otros organismos extrauniversitarios que tuvieron
una decidida participación en la difusión de la
ciencia en la región andaluza.
Así en Sevilla nació el Real Colegio Seminario
de San Telmo creado en el último tercio del siglo XVII,
que fue una institu-ción destinada desde sus comienzos
a la formación profesional del personal que iba a
dedicarse a la marina mercante. Según indica el
profesor Cano Pavón, en su documentado libro sobre
la ciencia en Sevilla, existía en la biblioteca del Colegio
diversas obras de Matemáticas (entre los que se
encontraba los Elementos de Euclides) y de Geografía,
y se disponía de un pequeño laboratorio de
instrumentos náuticos.
El otro organismo fue la Regia Sociedad
de Medicina y demás Ciencias, fundada en 1700,
por un grupo de médicos revalidados y que
desarrolló su actividad en los campos de anatomía,
botánica, física y química. En botánica llegó a
organizar un completo jardín botánico para el
cultivo de plantas de interés farmacológico. En
1785 se adquirió, por parte de la Sociedad, una
maquina neumática de Boyle.
En Cádiz el centro más importante fue el
Observatorio de Marina, construido junto a la
Academia de Guardiamarinas. Fue solicitado por
Jorge Juán al marqués de la Ensenada y conoció su
época de mayor esplendor durante la dirección de
Vicente Tofiño. En él se realizaron importantes
trabajos científicos, se organizó la expedición de
Malaspina (1789-94) alrededor del mundo, el
levantamiento del atlas de España (1783-88), etc., en
1798 dicho Observatorio fue trasladado a San
Fernando.
También existía en Cádiz un centro docente
de rango universitario: el Real Colegio de Medicina y
Cirugía, que con los años se transformaría
administrativamente en Facultad, y que tuvo un
excelente nivel durante todo el siglo XIX, dicho Colegio
nació por la petición realizada al marqués de la
Ensenada por parte del cirujano militar al servicio de
la armada real Pedro Virgili en 1748, quien, junto con
un reducido número de médicos militares, había
abrigado la esperanza de erigir un colegio en el cual
se enseñara la medicina y la cirugía partiendo del
estudio de la anatomía comparada y de los
experimentos físicos, observaciones y experiencias
prácticas. Ese mismo año de 1748, firmaba el Rey
Fernando VI la cédula de erección del mismo, lo que
se haría dos años más tarde, construyéndose un
edificio anejo al Hospital Real, con un anfiteatro
anatómico, una biblioteca, una colección completa de
instrumental quirúrgico, un laboratorio químico y un
jardín botánico.
Inicialmente se constituyó con cuatro
profesores y sesenta alumnos, siendo su primer
director el propio Pedro Virgili. La corriente imperante
en él era la mecanicista y la concepción del cuerpo
humano como una «maquina», sometida a leyes fijas
que pueden ser conocidas a través del estudio
anatomo-fisiológico y el de la física experimental . La
metodología utilizada en el diagnóstico, tratamiento y
88
curación de las enfermedades nos habla, asimismo,
de la modernidad de los cirujanos gaditanos en la
concepción de la ciencia médica. Su mentalidad,
abierta a las innovaciones y a los adelantos científicos
del momento, se manifiesta no sólo en los frecuentes
viajes que los profesores realizan al extranjero, sino
también en las becas que se crearon para que los
estudiantes más aventajados perfeccionasen sus
estudios en los principales centros europeos, así en
los primeros años, tres de ellos fueron enviados para
cursar estudios de medicina a Leyde y a Bolonia y
seis para cursar los de cirugía a París, y este fue el
común denominador en los años sucesivos, lo que da
idea de la altura intelectual que alcanzó el Colegio.
A finales del siglo XVIII tuvieron especial
importancia en Andalucía las Sociedades Económicas
de Amigos del País, fundadas a imagen de la Sociedad
Vascongada. La primera de ellas fue la de Baeza,
fundada en 1774, y la última fue la de Loja en 1804.
La de Málaga fue creada en 1776 y tuvo una
actividad tan efímera como insustancial en su primera
época, celebrando en 1797 su última reunión. Estas
Sociedades tenían una actividad docente centrada
fundamen-talmente en dos sectores: el de las escuelas
patrióticas y las enseñanzas especiales.
Es notable reseñar que Aréjula formaba parte
de la nómina del Laboratorio Químico que dirigía en
Madrid Pedro Gutiérrez Bueno en calidad de
«Profesor forastero que no enseña» y ello sólo por
haberse previsto que enseñara allí química a su vuelta
de París. Fruto de la etapa formativa en Francia fue
la publicación en 1788 de sus Reflexiones sobre la
nueva nomenclatura química de la cual Aréjula
realizó una nueva redacción con traducción francesa
para su publicación en el fascículo de octubre de 1788
de la revista Observations sur la Physique. Entre
1790 y 1791 compuso una Memoria sobre la nueva
y metódica clasificación de los fluidos elásticos
permanentes y gaseosos que presentó este último
año a la Real Academia de Medicina de Madrid. En
1795 publicó su Discurso sobre la necesidad de la
Química en la teoría y práctica de la Medicina,
que fue el texto del discurso de apertura de ese año
en el Real Colegio de Cirugía de Cádiz y que puede
considerarse como la introducción del programa de
Fourcroy en el colegio gaditano.
En los primeros años del siglo XIX, dedicó su
actividad a combatir la fiebre amarilla que se había
desencadenado en Andalucía, fruto de este trabajo
epidemiológico fueron sus escritos sobre la
enfermedad que le hicieron universalmente conocido,
en especial por su Breve descripción de la fiebre
amarilla publicado en 1806. Como protomédico en
Cádiz, a partir de 1807, se ocupó de la mejora sanitaria
de la ciudad y de luchar contra el intrusismo para
defender la profesión médica.
Biografía
Juan Manuel de Aréjula y Pruzet nació en
Lucena (Córdoba) el 24 de junio de 1775. Era
hijo de Juan de Aréjula Burgos y de Francisca
Pruzet, su nacimiento en Lucena se debió al cargo
que ocupaba su padre como cirujano del
Regimiento de Dragones de Edimburgo destacado
en esta ciudad. A los 17 años ingresó en el Colegio
de Cirugía de Cádiz, ejerciendo como cirujano
militar entre 1776 y 1784; durante esta época
permaneció embarcado y visitó las colonias
americanas donde tuvo sus primeros contactos
personales con la fiebre amarilla. En 1784 fue
enviado a París a estudiar química con Antoine
François Fourcroy; su larga permanencia en la
capital francesa al lado de una personalidad tan
destacada, con quien llego a ser «demostrador»,
le permitió vivir momentos cruciales en la
definitiva constitución de la química. Ente 1789 y
1791 Aréjula recorrió Inglaterra y Escocia
haciendo una recopilación de instrumental para
el laboratorio que pensaba establecer en Cádiz.
Volvió a España en 1791 como profesor de química
en el Colegio en que se formó, pero la carencia
de laboratorio hizo que hubiera de enseñar
Materia Médica y Botánica.
Dado su carácter liberal, en 1814 cayo en
la marginación profesional, lo que le convirtió en
un activista político; estas mismas razones y su
sólido prestigio le llevaron a ocupar un cargo en
la Dirección General de Estudios en 1821, en la
que se encargó en especial de la reforma de los
estudios médicos en la línea apuntada por las
Cortes de Cádiz; en esta tarea le resultó muy útil
su experiencia junto a Fourcroy, que había
desarrollado un cometido similar en Francia. En
1823, hubo de exiliarse en Inglaterra, apartado
de toda actividad científica. A las 9 de la mañana
del día 16 de noviembre de 1830 moría en su casa
de Seymour Street de Londres, siendo enterrado
cuatro días más tarde en la parroquia de St.
Pancras.
89
El rechazo de la teoría de la acidez de
Lavoisier
15 partes de hidrógeno y 85 de oxígeno por cada 100
partes de agua, hacía del hidrógeno la sustancia capaz
de combinarse con la mayor cantidad de oxígeno. Sin
embargo, el producto resultante de la combinación no
era ácido. Luego también esta cuarta proposición era
falsa.
Una vez rechazada la teoría de la acidez de
Lavoisier y demostrada la impropiedad del termino
oxigeno, Aréjula propondrá una nueva denominación
basándose en diversas consideraciones de orden
químico respecto a la propiedad más general y
característica del elemento en cuestión. Será
precisamente aquella operación química, la
combustión, cuyo mecanismo aclaró Lavoisier, donde
Aréjula se basaría para proponer la alternativa a dicho
nombre.
Lavoisier llamó combustión a toda combinación
del carbono y el oxígeno, y será esta combinación,
analizada en todas sus circunstancias, donde Aréjula
se detendrá más ampliamente para apoyar las razones
que le llevaron a dar al oxígeno el nombre de arxicayo
o principio quemante. Además de este cambio del
termino oxigeno por arxicayo, Aréjula propondrá el
cambio de la denominación francesa gaz azotique,
por contravenir la regla establecida para nombrar a
las sustancias simples en estado gaseoso. Según ésta,
el oxigéne en estado gaseoso se llamaría gaz oxigéne
y el hidrogéne, de la misma forma, se denominaría
gaz hydrogéne. Pero en el caso del azote (nitrógeno)
los reformadores franceses no siguieron esta regla y
llamaron gaz azotique cuando se encontraba en
estado gaseoso. Aréjula señaló la anomalía introducida
y propuso llamarle azoe a la sustancia simple y gas
azoe a la misma sustancia en estado gaseoso.
De las innovaciones preconizadas por Aréjula
en sus Reflexiones, sólo el cambio de gaz azotique
por gaz azote sería aceptada por la comunidad
científica europea. El difusor y defensor de tal cambio
sería Foucroy quien lo incorporó en la tercera edición
de sus Eléments d´histoire naturelle et de chimie
(1789). En España el primero que se hizo eco de la
crítica de Aréjula al término oxígeno fue Trino Antonio
Porcel en el artículo que publicó en los Extractos,
órgano de expresión de la Sociedad Vascongada de
Amigos del País, pero Porcel, aunque acepto todos
los fundamentos esgrimidos por Aréjula para rechazar
la teoría de la acidez de Lavoisier, señalando que la
propiedad más característica del oxígeno era la de
ser responsable de la combustión, no aceptó la
denominación de arxicayo y consideró que la más
apropiada era la de comburente.
Si, como Aréjula demostró y la historia
corroboró, la teoría de la acidez de Lavoisier era falsa,
cabe preguntarse por las causas de que no fuese
Desde un primer momento Aréjula mostró su
total aceptación de los principios metodológicos que
cimentaban a la nueva nomenclatura química
propuesta por Guyton de Morveau, Lavoisier, Bethollet
y Fourcroy, lo que ponía de manifiesto en sus
Reflexiones sobre la nueva nomenclatura química,
también anunciaba que su crítica sólo iba destinada a
poner de manifiesto la aplicación errónea de tales
principios en algunas denominaciones, sobre todo en
la palabra oxígeno introducida por Lavoisier.
Por tanto, la mayor parte de las Reflexiones
será ocupada en refutar la teoría de la acidez de
Lavoisier que fundamentó la denominación de oxígeno
(del griego»ácido») y mostrar también las razones de
orden químico en que él basaría la innovación
terminológica que ofrecía como alternativa de cambio.
A partir de la proposición «oxigeno quiere decir
engendrador de ácido», Aréjula deriva cuatro
inferencias que serán objeto de análisis y
confrontación con los datos y hechos conocidos de la
época.
Primera inferencia: «Todos los ácidos
contienen oxigeno». Aquí Aréjula pone en tela de juicio
tal afirmación ya que se conocían algunos ácidos como
era el ácido prúsico (ácido cianhídrico, HCN) que
había sido objeto de análisis por parte de Berthollet
quien sólo encontró en su composición hidrógeno,
carbono y nitrógeno, y nada de oxígeno como sugería
la teoría de Lavoisier.
Segunda inferencia: «Todo cuerpo que se une
a la porción de oxígeno, que es capaz de recibir, se
vuelve ácido». La combinación del oxígeno con el
hidrógeno formando agua, y con 14 metales formando
sus respectivos óxidos, no mostrando propiedades
ácidas ninguno de ellos, refutaba palpablemente la
veracidad de esta segunda proposición.
Tercera inferencia: «La acidez y las
propiedades de ácido serán tanto mayores, cuanto la
proporción de oxígeno sea mayor». En los casos de
los ácidos formados por el nitrógeno, el azufre y el
fósforo, esta aseveración era cierta. Pero en el caso
del radical muriático, es decir, aquella sustancia que
combinada con el oxigeno originaba los ácidos
muriático y muriático oxigenado, la proposición
resultaba ser falsa.
Cuarta inferencia: «El cuerpo capaz de recibir
más oxígeno será el más terrible ácido». «El cuerpo
capaz de recibir más oxigeno será el más terrible
ácido» De nuevo la experiencia negaba tal afirmación.
La determinación cuantitativa realizada por el mismo
Lavoisier de la composición del agua, encontrando
90
aceptada por la comunidad científica europea la crítica
de Aréjula. Gago y Carrillo proponen como razones
que pueden dar respuesta a esta pregunta el hecho
de que Aréjula al aceptar la mayoría de las
aportaciones teóricas de Lavoisier y rechazar sólo
algunas, se colocaba en un terreno que tanto los
partidarios de uno u otro sistema lo podían considerar
como enemigo. En estas condiciones era bastante
problemático que las opiniones de un científico
desconocido y perteneciente a un país carente de peso
específico en el campo de las ciencias, pudiera
derrocar cualquier hipótesis o teoría de una de las
máximas autoridades científicas de la época como
era Lavoisier.
La teoría de la acidez estuvo vigente hasta
1810, año en que H. Davy demostró que el ácido
muriático estaba constituido por la combinación del
hidrógeno con el cloro, poniéndose de manifiesto que
uno de los ácidos mas fuertes carecía de oxígeno o
principio acidificante. Este sí fue el hecho crucial que
sería aceptado ampliamente por la comunidad
científica de la época y el que demostró
experimentalmente la inexactitud de la teoría de
Lavoisier sobre los ácidos.
BIBLIOGRAFÍA
BOCANEGRA GARCÉS, J.M. et al. (2004).
Ciencia y Sociedad en el siglo XVIII. Delegación
de Educación y Ciencia de la Junta de Andalucía.
Málaga.
BOCANEGRA GARCÉS, J.M. et al. (1995), El
Siglo de Lavoisier, Instituto de Ciencias de la
Educación. Málaga.
CANO PAVÓN, J.M. (1993). La Ciencia en Sevilla
(siglos XVI-XX). Universidad de Sevilla.
GAGO, R., CARRILLO, J.L. (1979). La
introducción de la nueva nomenclatura química y
el rechazo de la teoría de la acidez en España.
Universidad de Málaga.
LÓPEZ PINERO, J.M. (1983). Diccionario
histórico de la ciencia moderna en España. Ed.
Península. Barcelona.
José María Bocanegra Garcés
I.E.S. «PABLO PICASSO»
91
CIENCIA Y FRAUDE
Salvador Cordero Rodríguez
El investigador Woo Suk sorprendió al
mundo al anunciar en la prestigiosa revista Science
la obtención de células madre que permitirían
regenerar tejidos y órganos dañados, así como
avanzar en el tratamiento del alzhéimer y la
diabetes. En diciembre pasado un comité de la
Universidad Nacional de Seúl comparó el ADN
de las muestras asociadas a las líneas celulares
que Hwang guardaba en su laboratorio Hospital
Mizmedi en Seúl con los de los supuestos
donadores y comprobó que no coincidían. Hoy el
comité se dispone a examinar otros logros del
equipo de Hwang, como el anuncio –también
publicado en Science– de la primera clonación
de un embrión humano, o el caso de Snuppy,
presentado por el científico en agosto como el
primer perro clonado.
obstetricans, a aparearse en el agua los machos
adquirían «cepillos copuladores», carácter que se
transmitía a las siguientes generaciones. En 1926, G.K.
Noble, conservador del Museo Estadounidense de
Historia Natural, visitó el instituto donde Kemmerer
trabajaba y comprobó, lupa en mano, que las supuestas
callosidades de las manos del sapo tantas veces
exhibido no eran más que manchas de tinta china.
Kammerer se suicidó el 23 de septiembre de ese
mismo año, y envió una carta en la cual juraba que no
era el autor del fraude.
La ciencia es la verdadera escuela
moral; ella enseñan al hombre el amor y el respeto
a la verdad, sin el cual toda esperanza es
quimérica.
Berthelot
Estas frases, ¿colmadas de ingenuidad?,
bien podían acompañar las viñetas que ilustraban
nuestros libros de física, con Arquímedes saliendo
desnudo a la calle gritando ¡Eureka! ¡Eureka!; con la
rana de Galvani, con Franklin corriendo bajo la
tormenta y tirando del hilo de un colorista cometa,
con la manzana de Newton, con el péndulo de un
susurrante Galileo .. ¡ y sin embargo se mueve!,. con
el tonel de Pascal, con el animoso y esforzado ir y
venir del matrimonio Curie y su carretilla repleta de
pechblenda, con el diablillo de Descartes, con la
caricatura de un Einstein disfrazado de Newton y
montando a caballo sobre la Tierra mientras
proyectaba haces de luz desde sendas linternas...
A partir de 1909, Paul Kammerer, zoólogo
del Instituto de Investigaciones Biológicas de Viena y
defensor de la teoría de «heredabilidad de los
caracteres adquiridos», afirmó, batracio en bote y
conferencia tras conferencia, que tras haber forzado,
durante cinco generaciones, a sapos parteros, Alyfes
En 1999, investigadores del laboratorio
Lawrence Berkeley National Laboratory, de EEUU,
publicaron en New Scientist el descubrimiento del
elemento 118, el átomo más pesado conocido hasta
entonces y según contaban, obtenido impactando
átomos de criptón en un blanco de plomo. Más tarde,
varios grupos de investigadores alemanes y japoneses
92
la esencia de la cosa y su significado». Siempre según
Freud, cuando el paciente tuvo conocimiento de su
diagnóstico se curó y llevó una vida normal. La
periodista Karin Obholzer descubrió que la realidad
era muy distinta y que Sergei Pankejeffasí, como se
llamaba el paciente, estaba muy lejos de estar curado
y cobraba un sueldo mensual, a cargo de la Fundación
Sigmund Freud. a cambio de mantenerse oculto en
Viena.
Siempre hemos contemplado al científico
movido por nobles ideales y guiado en su quehacer
diario por una impecable rectitud moral. Hoy vemos
que la ambición personal por mejorar el status dentro
de la comunidad científica y el dinero condicionan, el
comportamiento del científico como el de cualquier
otra persona en el ejercicio de su profesión.
Descubrimos que, ante la presión que impone la
competencia y la inagotable exigencia de conseguir
excelentes resultados que justifiquen ayudas ya
recibidas y atraigan nuevas subvenciones, el hombre
de ciencia se desvía del que siempre hemos
considerado como valor tradicional de la ciencia: una
búsqueda generosa y desinteresada de la verdad,
siguiendo una máxima. rigor y objetividad.
Dado que el mayor porcentaje de fraude
se aprecia en las ciencias biomédicas,
desgraciadamente en muchas ocasiones tiene
consecuencias que van más allá de la desolación
causada por el quebrantamiento del sacrosanto
método científico. Andrew Wakefield, médico del
International Child Development Resource Centre, de
Londres, publicó en 1998 en Lancet un estudio que
vinculaba la vacuna trivírica (sarampión, paperas y
rubéola) con casos de autismo. La fiabilidad de los
resultados comenzó a ponerse en cuarentena cuando
en 2004 se comprobó que el autor del estudio había
cobrado 55.000 libras de una institución, la «Legal
Aid Board», que incluía a los padres de los niños
afectados de autismo, objeto del estudio de Wakefield
y que, sobre la base de las conclusiones de sus
trabajos, querían querellarse contra los laboratorios
que fabrican esas vacunas. Para entonces el daño ya
estaba hecho, la alarma creada entre los padres hizo
que muchos niños quedaran sin vacunar y así en el
Reino Unido la tasa de inmunización ha caído hasta
un 79%, una cifra muy inferior al 95% requerido para
conferir inmunidad a la población.
La solicitud de autorización para la
utilización del complejo Crotoxina A y B fue iniciado
el 11 de julio de 1986, tres días después de la
conferencia de prensa que organizaran los médicos
autores del descubrimiento de sus supuestas
propiedades anticancerígenas. ... Desde la Fiscalía
argentina se afirma, «se encuentra probado que el
doctor Juan Carlos Vidal elaboró y suministró a seres
humanos el complejo referido desde 1981
aproximadamente, y desde fines de 1985 lo entregó
para su aplicación en seres humanos a los doctores
Luis Cota, Carlos Coni Molina y Guillermo Hernández
Plata». «Para ello contó con la colaboración del
Instituto de Neurobiología (IDNEU) y de su titular,
doctor Juan Tramezzani» ... «que el citado
investigador no informó a este Consejo [CONICET]
respecto a la posible utilización de productos derivados
de venenos de serpientes para el tratamiento del
cáncer» ... «la interrupción del suministro, lejos de
fundarse en razones científicas, clínicas o
humanitarias, tuvo su origen en la falta de acuerdo
entre Tramezzani y los facultativos citados, respecto
a los porcentajes que a cada uno correspondería por
el «patentamiento y comercialización del producto, sin
participación del CONICET».
¿Qué se estaba suministrando a los
enfermos y sobre que base experimental ?. Fiscal y
oncologos tras estudiar la monografía firmada por los
doctores Juan Carlos Vidal, Luis A. Costa, Carlos Coni
Molina y Guillermo Hernández Plata desgranan: «La
cita de importantes investigaciones y avances logrados
en el tema por el doctor Mayer ha sido desmentida
enfáticamente por el propio Mayer» ... «Más grave
aún resulta la intencional utilización de micrografías
tomadas de la obra Venom Chemystry and Molecular
Biology de Anthony Tu, editada en 1977, en Estados
Unidos, las cuales, colocadas en distinta posición, con
texto alterado y sin cita de su antecedente, pretenden
ser estudios propios y serios sobre la cuestión [cuando
nada tienen que ver con la crotaxina]» ... «no se
muestran resultados sobre el efecto del Complejo en
líneas celulares de estirpe humana, ni tampoco
evidencia experimental alguna que avale la supuesta
carencia de acción del complejo sobre células
normales» ... «no detallan el origen de los animales
portadores de los tumores experimentales, el estadio
evolutivo de los mismos, las dosis del complejo
utilizadas ni el efecto sobre la masa tumoral y/o el
número de metástasis» ...»La composición declarada
del complejo es falsa»... «Fue imposible obtener
información acerca de los datos clínicos de los 51
pacientes agrupados en el «Ensayo clínico no
controlado» mencionado en la monografía y que, según
los autores de la misma, tuvieron una sobrevida del
100 % a los cuatro años con un 86,26% de remisiones
objetivas». En la monografía se dice que fueron
tratados 700 pacientes, mientras que el registro oficial
no excede los 150. Se afirma que se estudió la
distribución de la crotoxina B marcada inyectando a
ratas y no se encontró radioactividad en la vesícula
biliar. Las ratas no tienen vesícula biliar...
93
Lo peor de este asunto, el intento de
escabullirse entre la desesperación de enfermos
terminales y familiares que se aferran a cualquier
esperanza de salvación. Y ello aún cuando se estudia
si el fallecimiento de algunos de los pacientes
inoculados con el complejo, tendría como causa
directa dicha sustancia.
de tejido extraño y que sin recurrir al tratamiento
inmunosupresor no suscitasen reacciones inmunitarias.
En 1974 frustrado por la falta de resultados positivos
llegó a usar un bolígrafo de punta de fieltro, con el fin
de convencer al apremiante director de sus trabajos,
el ilustre inmunólogo Robert A. Good, de que había
concluido con éxito el injerto de piel entre diferentes
clases de ratones, ratones negros y blancos
El físico Jan Hendrik Schön trabajó en
nanoelectrónica en los laboratorios Bell, de New Jerse.
Con 32 años ya contaba en su extenso y brillante
currículo con nada menos que 80 publicaciones en
dos revistas científicas del prestigio de Science y
Nature.. En octubre de 2000, en Nature, Schon
aseguró que había fabricado un transistor a partir de
un solo estrato de moléculas, logro que añadía a la
fabricación de un transistor emisor de luz y láser a
partir de cristales orgánicos y a la demostración de la
superconducción en el seno de varios cristales
orgánicos. Sus resultados fueron imposibles de
reproducir por otros investigadores. Paul Solomon,
un científico del Centro de Investigación Watson, de
la empresa IBM. escribió a Nature para expresar sus
inquietudes. La revista nunca publicó la carta, pero
explicó al remitente que varias personas revisaron el
documento de Schon antes que fuera publicado y se
plantearon los mismos interrogantes. Los Laboratorios
Bell despidieron a Schon al día siguiente de recibir el
informe de un grupo de expertos, quienes concluyeron
que el científico inventó o alteró datos de sus
investigaciones por lo menos 16 veces entre 1998 y
el 2001 Ante ello cabe preguntarse: ¿Incluyen los
artículos, enviados a las revistas científicas,
descripciones de los protocolos experimentales, que
permitan a otros científicos reproducir los
experimentos? ¿La revisión la realizan realmente
científicos competentes que además no están
directamente involucrados con la investigación que
está siendo evaluada?. ¿Se tiene siempre en cuenta
la validez y la originalidad de los resultados, su interés
y oportunidad para la comunidad científica y el
conjunto de la sociedad? ¿ Informan de forma
suficiente las revistas científicas acerca de las
conducta impropias y de la subsiguiente retracción
cuando ésta ha sido finalmente demostrada?. Está
claro que no siempre como ocurrió con los artículos
revolucionarios de Albert Einstein «Annus Mirabilis»
en el número de 1905 de Annalen der Physik se verán
implicados en el proceso de analisis de los artículos
pares del calibre de Max Planck, jefe del consejo
editorial de la publicación y padre de la Teoría
Cuántica y el coeditor Wilhelm Wiens, quienes
posteriormente ganaron el Premio Nobel de Física.
La felicidad del hombre de ciencia es
tener un experimento que resulte bien y que se
repita continuamente.
Herschey
A pesar de que el número de casos
confirmados de mal proceder en el mundo de la ciencia
es muy bajo comparado con la actividad científica
total, la casuística lógicamente debe ser mucho mayor
de la que se detecta. Limitándonos a considerar como
fraude científico un planteamiento, desarrollo y
comunicación de la investigación científica, orientados
a engañar mintiendo, falseando o exagerando,
podemos dar por buenas cifras en las que el fraude
más frecuente (40%) se corresponde con la
falsificación de datos, seguido de su fabricación (12%)
y del plagio (5%). En 2005 Nature publicó un artículo
que sugiere que estas faltas graves las realizan menos
del 2% de los investigadores, pero si el concepto de
fraude lo extendemos a todo abandono de los
mandatos del método científico y de las pautas éticas
relacionadas con la actividad científica, se extiende
al 30% de ellos. «Si decimos que no tenemos pecado,
nos engañamos a nosotros mismos» (1 Juan 1:8).
Con independencia de la naturaleza de la
falta, el responsable del fraude se nos presenta como
un individuo inteligente, con una excelente formación
académica y conocedor del terreno que pisa. Lo uno
y lo otro le lleva a estar trabajando en un centro de
investigación de reconocido prestigio, a tener un
supervisor científico de primer orden, a publicar con
frecuencia y en acreditadas revistas científicas, a
disponer de prestigiosos y cautivados auditorios y a
contar con la aclamación de una parte notable de la
comunidad científica. Para ilustrar tales circunstancia
podemos añadir a los ya citados los casos de William
T. Summerlin, Jan Hendrik Schön y John L.
Ninnemann y ya de paso preguntarnos acerca del
papel que en todo esto juegan los supervisores
científicos, los centros de investigación y las revistas
científicas.
William T. Summerlin, prometedor científico
del Instituto de Investigación Contra el Cáncer SloanKettering, había tenido la idea de realizar un cultivo
de órganos con fragmentos de piel antes de injertarlos
buscando que así cultivados perdiesen su condición
94
El inmunólogo John L. Ninnemann, en 1874
se encontraba en el Instituto de Investigaciones del
Cáncer Sloan-Kattering de Nueva York, y por
entonces intentó reproducir, lógicamente sin éxito, los
resultados de un Summerlin ya dedicado a colorear
con parches negros ratones blancos Ya profesor del
Departamento de Cirugía de la Universidad de Utah,
Ninnemann, realizaba investigaciones sobre la causa
de la supresión del sistema inmunológico luego de
quemaduras. En 1983 despertó las sospechas de J.T.
Condie, técnico jefe de laboratorio al encontrar
contradicciones entre los registros de laboratorio y
los contenidos de publicaciones y congresos. A J.T.
Condie se le mandó callar y a Ninnemann se le
trasladó a la Universidad de California en San Diego
que como había hecho la de Utah siguió avalando su
trabajo y unas peticiones de subsidios federales que
se elevaron a 1,2 millones de dólares. El triple de lo
defraudado hubieron de devolver ambas
universidades.
Una consecuencia inmediata del
descubrimiento de este tipo de fraudes: la de rebajar
los créditos concedidos a unas líneas de investigación
que en sí mismas pueden ser prometedoras, otra es la
de crear un clima de alarma en el conjunto de la
sociedad que llama a la intervención del mundo de la
política El caso David Baltimore- Thereza ImanishiKari,.es ilustrativo de ello. El virólogo David Baltimore,
presidente de la Universidad de Rockefeller y Premio
Nóbel en 1975, defendió el correcto proceder de la
inmunóloga Thereza Imanishi-Kari acusada por una
joven estudiante posdoctoral, Margot O’Toole de
haber alterado los resultados, publicados en Cell, sobre
los que sostenía que un gen externo (transgene)
injertado en un ratón influyó en la actividad de los
genes nativos en forma que simula a la del transgene.
El caso fue denunciado, no como un fraude, sino como
un error en la literatura que debería ser corregido.
Inicialmente no fue tomado en serio por dos
prestigiosas universidades, Tufts y el Massachusetts
Institute of Technology, que concluyeron que no era
necesario hacer nada. La acusadora fue expulsada
del grupo de investigación (dirigido por Imanishi-Kari).
Baltimore, aunque no fue acusado de fraude, debió
renunciar a su presidencia de la Rockefeller University
debido a la controversia sobre su responsabilidad en
el affaire. En paralelo a la defensa de su honor, debió
mantener una lucha contra la injerencia de los políticos.
Así de claro se manifestó ante el congresista
demócrata John Dingell: «Un pequeño grupo de
outsiders, en nombre de un supuesto imaginario error
tiene la intención de utilizar esta pequeña y normal
disputa científica para consentir la introducción de
nuevas leyes y reglas en la actividad científica; leyes
y reglas que yo considero peligrosas para la ciencia
norteamericana».
Alexander Kohn, eminente biólogo israelí,
fundó allá por la década de los 50 el «Journal of
Irreproducible results, «Diario de Resultados
Irreproducibles. En una de sus secciones un «eminente
matemático» presentaba la sencilla igualdad 1+1=2
bajo una exquisita pero enrevesada fórmula
equivalente. Con ello se ilustraba la habilidad que
muestran muchos científicos que parecen actuar
impulsados por lemas del género «publicar o perecer»
o «para qué hacer las cosas fáciles cuando se pueden
hacer difíciles». Desde 1991 la Universidad de
Harvard da cobertura a los Premios IgNobel, o
Premios Nobel a la Ignominia, que se celebran todos
los años para premiar a los «mejores trabajos»,
artículos supuestamente científicos pero sumamente
«pedantes, oscuros o simplemente estúpidos». Son
entregados por auténticos ganadores de algún Premio
Nobel, que en la ceremonia aparecen con grandes
narices postizas, sombreros ridículos y falsos anteojos.
En 1991 el de Física, fue asignado a Thomas
Kyle, que publicó un artículo hablando de una nueva
clase de átomo, el ‘administratum’, cuyo núcleo tiene
muchos neutrones pero sólo uno de ellos trabaja en
serio. Los demás son 8 asesores, 35 vice-neutrones y
256 asesores de vice-neutrones. Kyle, que también
presuntamente descubrió unas partículas elementales
llamadas ‘ñoquis’. Chris McManus del University
College de Londres fue premiada por una
investigación publicada en 1976 en la revista «Nature»
sobre la asimetría de los testículos en el hombre. A
David Dunning de la Universidad de Cornell y Justin
Kreuger, Illinois, se le premió por un informe publicado
en 1999 en el Journal of Personality and Social
Psychology., «Son unos inútiles y lo peor es que no lo
saben: de cómo la dificultad en reconocer la propia
incompetencia puede inflar la autovaloración».
Por la década de los 60 apareció otra revista
del mismo corte de la de Kohn, «Worm Runner’s
Digest», (Revista del Amaestrador de Gusanos,
fundada en los EEUU por el psicólogo James V. Mc
Connell. El interés científico de Mc Connell estuvo
centrado en la posibilidad de amaestrar platelmintos
para así poder transmitirles cierta información a
memorizar. Lo que en última instancia buscaba era el
factor capaz de transferir la memoria, concluyendo
finalmente que se trataba del ARN, ácido ribonucleico.
Salvaguardada la seriedad de su investigación, Mc
Connell supo aderezarla con trazos humorísticos para
desembarazarse del apremio de su jefe de
departamento, que lo conminaba a publicar o morir
no importando si la investigación era mala, «total el
decano no se iba a dar cuenta». Así, en su artículo, no
95
dudó en presentar a sus platelmintos como un animal
antifreudiano, al ser hermafrodita y tener los dos sexos
no experimenta la envidia del pene; al poseer una
misma abertura para comer y defecar, tiene
confundidos sus estadios oral y anal. Cuando se
refiere a su metodología de trabajo y a las
conclusiones no duda en asociar a un impulso de
sadismo el corte en dos trozos de un platelminto
previamente amaestrado y en afirmar que, al menos
en el caso de estos animales, perder la cabeza en
realidad mejoraba la memoria toda vez que el nuevo
gusano formado a partir de la cola recordaba más
que el formado a partir del trozo portador de la cabeza.
En definitiva, el sentido del humor es
también una buena fórmula de autocrítica, aunque
algunas cifras llamen a la inquietud. A principios del
siglo XX el número de publicaciones científicas era
del orden de 7.000, en la actualidad, pasan de 100.000,
pudiéndose publicar anualmente del orden de un millón
de artículos. Un nuevo caso ilustra como es posible
publicar a este ritmo. Cuando en 1974 se descubren
las encefalinas, morfinas intracerebrales, se
desencadenó tal conmoción entre los neurobiólogos
que el número de publicaciones sobre las propiedades
de estas moléculas fue creciendo a una velocidad
vertiginosa durante los dos años siguientes. En medio
de esta vorágine en julio de 1976 apareció en Nature
un artículo firmado por Robert J. Gullis investigador
del laboratorio de bioquímica de Hamprecht, en el que
exponía que de los resultados obtenidos en sus cultivos
neuronales. la acción de la leucina-cefalina sobre el
metabolismo de estas células derivaba de su
interacción con el AMP cíclico, «segundo mensajero»
y mediador en la respuesta celular a los factores
hormonales de naturaleza peptídico. Sólo hubo un
problema ¡ Estaba tan seguro de sus ideas que no se
molestó en efectuar la experiencia!. Para cuando
confesó su engañoso proceder es Nature, había
publicado de este modo ocho artículos en diferentes
Si los artículos científicos se mantuvieran
en el nivel de la mera invención, ya serían un problema,
pero el asunto se complica aún más cuando además
de inventarse los hechos y confiando en la
imposibilidad de ser descubiertos, se crean, se les da
forma y se ponen sobre la mesa. Al ex-vicepresidente
del Instituto Paleolítico de Tohoku, Shinichi Fujimura,
sus colegas le llamaban, no sin acierto, las manos de
Dios, unas manos omnipresentes que han sembrado
de dudas los resultados de 160 excavaciones
realizadas por diversos puntos de Japón. Unos
periodistas lo grabaron colocando fraudulentamente
los preciosos restos que después diría encontrar y que
vendrían a confirmar su hipótesis de que la humanidad
se había asentado en Japón hacía cientos de miles de
años (600.000 años), mucho antes de lo que la mayoría
de los científicos se atrevían a proponer, 30.000 años.
«El sol lo ve todo. Si haces algo malo, algún día será
descubierto», declaró Fujimura poco antes de ingresar
en un instituto psiquiátrico.
De seguro los maltratados platelmintos de
Mc Connell, habrían mostrado tener más memoria y
ser más juiciosos. En diciembre de 1912 Charles
Dawson, geólogo aficionado, presento al eminente
paleontólogo del British Museum de Londres Arthur
Smith Woodward fragmentos de un parietal y un
frontal humano, de color ferruginoso oscuro,
declarando haberlos desenterrado en Piltdown,
En estas publicaciones podría haberse
inspirado el físico norteamericano de la Universidad
de Nueva York Alan Sokal al escribir su artículo
«Transgressing the Boundaries: Toward a
Transformative Hermeneutics of Quantum Gravity,
«Transgrediendo los límites: hacia una hermenéutica
transformadora de la teoría cuántica de la gravedad,
en el que defendía cosas como que «el axioma de
igualdad en la teoría matemática de conjuntos es
análogo al concepto homónimo de la política
feminista». Con la publicación de esta teoría Sokal
evidenció la falta de criterio con que se conducía una
de las más acreditadas publicaciones de estudios
socioculturales norteamericanas: «Social Text». La
revista creyendo que se trataba de un estudio que
sustentaba científicamente un «análisis cultural
posmoderno» publicó este artículo en el que Sokal
mantenía dislates tales como que «el número pi es
ahora percibido en su ineluctable historicidad».
Yo, sin hacer esta experiencia, estoy
seguro de que el efecto será como os digo, porque
es necesario que suceda así.
Galileo
96
extrayéndolos de entre las rocas ferruginosas
mezcladas con cuarcita de un horizonte wealdiano,
base del Cretácico. La famosa teoría de Charles
Darwin se plasmó rápidamente en una imagen: el
hombre descendía del mono. Desde entonces todo el
mundo se puso a buscar ese ‘eslabón perdido’ entre
el simio y el hombre. Nadie lo encontró, pero, «alguien»
decidió darle forma. Dawson, ya junto con el propio
Woodward y en sucesivas y «fructíferas
excavaciones», encontró otros fragmentos del mismo
cráneo, la mandíbula, restos de animales fósiles del
Plioceno y piezas de silex que el propio Dawson
atribuyó al Período Chelense. Woodward,
pacientemente, con nueve fragmentos pertenecientes
a la región frontal y parietal del lado izquierdo y un
temporal izquierdo casi completo y bien conservado,
reconstruyó un cráneo de 1.070 cc de volumen y
espesor notable, 10-12 mm parietal y frontal, en lugar
de los 5 a 8 mm que tiene el hombre actual. El maxilar
y los molares mostraban un aspecto simiesco.
Woodward vio ante sí a un «representante de la aurora
de la Humanidad» y le dio el nombre de su descubridor,
Eoanthropus dawsonii. El paleontólogo francés Boule
lo calificó de «asociación paradójica». En 1913,
Dawson y Woodward llevaron al yacimiento al P.
Teilhard de Chardin «para que encontrara» un canino
que fue atribuido al fragmento de maxilar encontrado
anteriormente y que reforzó los caracteres pitecoides
que se le atribuían.
No deja de ser curioso que quien entra en
escena en 1935 para poner orden sea un dentista y
también arqueólogo aficionado Alvan T. Marston.
Excavando en unas terrazas del valle del Támesis de
Swanscombe (condado de Kent), halló un occipital y
un parietal izquierdo humano del Pleistoceno medio
inferior y asociados con una serie de instrumentos
líticos de tipo Acheuliense, Paleolítico inferior. Durante
los meses siguientes, Marston visitó el Museo Británico
de Historia Natural, donde estudió los materiales
hallados por Dawson y Woordward., Observó que
mientras la raíz del canino de su homínido es derecha,
la del canino del hombre de Piltdown era curva, que
su corona estaba desviada e inclinada hacia afuera,
hacia la mejilla, como ocurre en los monos antropoides
(Julio de 1936, British Dental Journal - Noviembre de
1936, Journal of the Royal Anthropological Institute)
y que el grado de abrasión era idéntico en los molares
de ambos lados, cuando normalmente el primer molar
siempre está más desgastado que el segundo y que
las finas marcas de raspado en los molares y caninos
sugerían la aplicación de un instrumento abrasivo. Por
su parte el Dr. Oakley puso de manifiesto que había
una notable diferencia entre el contenido de flúor del
cráneo y de la mandíbula.
La conclusión fue que la mandíbula era de
un orangután y se había tratado con bicromato potásico
para emparejar su color con el del cráneo, humano y
mucho más antiguo. Así transcurridos 40 años, en 1953,
el fraude quedó al descubierto, aunque como hemos
visto ello no sirve como cortapisas al «impulso
creacionista» que parece arrastrar a algunos
paleontólogos. Un fósil de un dinosaurio con alas
encontrado en China en la década de los 90, llegó a
ser la imagen de portada de la National Geographic
Magazine en Noviembre de 1999 bajo el nombre de
Archaeoraptor liaoningensis. Otro eslabón perdido,
ahora entre los dinosaurios y las aves. No era más
que un pequeño carnívoro, Microraptor zhaoianus al
que se le habían trasplantado partes de un ave,
Yanornis martini. ¿Cómo no recordar aquí la portada
dedicada por National Geographic a los Tasaday y la
oferta de 50.000 dólares de la NBC a Elizalde para
que le permitiera hacer un documental de esta tribu
asentada ya en una Reserva Nacional por decisión
del entonces presidente filipino, Ferdinando Marcos y
que todo ello no fue más que una treta para explotar
los recursos naturales de la región?.
El plagio, crimen capital de la comunidad
académica, mina el desarrollo y la transmisión del
conocimiento, que es la razón de ser de la
Academia.
Edward White
No es menor el impacto que sobre la
comunidad científica tiene el desconcierto y la perdida
de confianza causada por el fraude asociado al plagio,
apropiación de ideas de otros investigadores,
presentándolas como originales. Autores como Loren
Eiseley (Darwin and the Misterious Mr. X) y Arnold
Brackman (A Delicate Arrangement), afirman que
Darwin plagió la mayor parte de la teoría de la
97
evolución y de selección natural y que conspiró para
conseguir la primicia y el crédito, silenciando y
condenando al olvido a aquellos que habían
desarrollado teorías similares a las suyas y lo habían
hecho antes que el como Edward Blyth o Alfred Russel
Wallace. Nada puede deducirse en ese sentido de la
relación entre estos hombres. Conviene recordar aquí
que en 1855 Wallace. publica «Sobre la ley que ha
regido la aparición de especies nuevas» y que en una
carta del 18 de junio de 1858 Darwin le escribe a su
amigo Lyell, refiriéndose a un segundo manuscrito
remitido por el propio Wallace a Darwin: « Nunca he
visto una coincidencia más sorprendente. ¡Si Wallace
tuviera la copia de mi esquema hecha en 1842 no
podría haberlo resumido mejor! Sus mismos términos
son ahora los títulos de mis capítulos. Por favor,
devuélvame el manuscrito; él no ha manifestado su
deseo de que yo lo publique, pero naturalmente, voy a
escribir ofreciéndolo a alguna revista. De este modo,
mi originalidad, cualquiera que sea, va a quedar
destruida, pero mi libro, si es que tiene algún valor, no
sufrirá deterioro, ya que todo el trabajo consiste en la
aplicación de la teoría. Espero que él dé el visto bueno
al esquema de Wallace para poder comunicarle su
opinión». El 24 de Noviembre de 1859, a los doce
meses de haber recibido el manuscrito de Wallace,
ve la luz «Origin of Species», de la que Wallace
recibiría un ejemplar y del cual dijo: «Perdurará tanto
como los Principia de Newton. El señor Darwin ha
donado al mundo una ciencia nueva, y su nombre, a
juicio mío, se destaca por encima del de muchos
filósofos antiguos y modernos. ¡La fuerza de la
admiración me impide decir más !». «Ni en sueños
me hubiera acercado yo a la perfección de su libro.
Confieso mi agradecimiento de que no me incumbiera
presentar la teoría al mundo».Sin duda coincidieron
al hacerse las mismas preguntas y al responderlas
bajo la influencia de unas fuentes: Malthus y Lyell.
Robert Gallo, del National Cancer Institute,
de Bethesda, EEUU, reclamó en 1984 la prioridad
del descubrimiento del virus del SIDA y del test para
detectar la enfermedad, para ganar notoriedad y
prestigio, y, sobre todo, derechos por la patente. Esto
le llevó a enfrentarse legalmente a Luc Montagnier,
del Instituto Pasteur de París, quién demostró la
verdadera paternidad del descubrimiento. En
septiembre de 1983, Luc Montagnier, envió a Robert
C. Gallo, una muestra de un retrovirus recién aislado
y que llamó LAV. Siete meses después, el científico
estadounidense anunció a la prensa que había
identificado al virus causante del SIDA, que lo llamaba
HLTV-III y que pronto estaría en condiciones de
poner a disposición de las autoridades sanitarias una
prueba sanguínea para acelerar el diagnóstico de la
enfermedad. En 1985, se demostró que el material
hereditario del LAV y el HTLV-III eran idénticos en
un 98,5%. Gallo finalmente reconoció el robo .
El profesor de la Harvard University Robert
R. Rando y sus colaboradores Paul S. Bernstein y
Wing C. Law debieron contemplar a la par
asombrados e indignados como su descubrimiento del
enzima responsable del cierre del ciclo visual, con la
isomerización del retinol todo trans a 11-trans-retinol,
aparecía plagiado en Science (1987) bajo la firma de
C. David Bridges. Este, profesor de la Purdue
University, en verano de 1986 había recibido de la
revista Proceedings of the National Academy of
Sciences el trabajo original, para su revisión. Se
comprende así que la prudencia hiciese que la
publicación en Nature del articulo de Watson y Cricks
de 1951 sobre la estructura del ADN no fue arbitrada.
Si tu experimento necesita estadística,
deberías haber hecho uno mejor.
Rutherford
En ocasiones el fraude se asocia a la
falsificación, cuando se alteran los resultados
obtenidos, se dejan de lado ciertos resultados o se
manipulan lo suficiente para cambiar un resultado
cercano pero estadísticamente no significativo para
conseguir un resultado estadísticamente significativo.
Cuando un periodista científico felicitó en cierta
ocasión a Niels Bohr por la excelente concordancia
de sus observaciones y el valor de la constante de
Rydberg, Bohr respondió: «Naturalmente. Yo mismo
los he hecho corresponder a la fuerza». La diferencia
cinco grados de latitud entre Alejandría y Rodas,
reveló que Ptolomeo tomó los cálculos derivados de
las observaciones realizadas por Hiparco, desde la
isla de Rodas (57) y lo hizo de forma parcial y
distorsionada para fundamentar su idea preconcebida
de geocentrismo.
Según Moewus, un gen y la transformación
química progresiva de una molécula inicial, la
protrocrocina. regulaba cada una de las etapas de la
vida sexual de la Chlamydomonas eugametos que se
podía describir así: Un primer factor hormonal permitía
que células individuales expuestas a la luz adquirían
flagelos y pasaban a ser móviles; dos nuevos factores
hormonales hacían que se caracterizasen como
machos o hembras; se atraían unas a otras para formar
grupos de más de 100 individuos y en el seno de estos
grupos bajo el influjo de dos nuevos factores
hormonales adquirían la capacidad de copular dos a
dos. Esto parecía tanto más verosímil cuanto que en
Francia, Boris Ephrussi demostraba que cada una de
98
del sonido y de los equinoccios para apoyar a su teoría
de la gravitación, el hecho de que Kepler cuadrara
sus datos para que las órbitas planetarias fueran
elipses perfectas y el hecho de que el premio Nobel
Robert A. Millikan, analizase un total de ciento
cuarenta gotas, pero que cuando publicó sus resultados
sólo incluyera cincuenta y ocho, porque eran las que
se ajustaban al valor que él buscaba de antemano.
Además de esta adecuación de resultados (o, mejor,
omisión de datos «molestos») ... Millikan al parecer
le robó la idea a un alumno suyo Harvey Fletcher, al
que nunca reconoció el mérito de cambiar el
vaporizador de agua que utilizaba inicialmente por el
de aceite.
Pero lo cierto es que se entra en la dinámica
que señala Sir Arthur Conan Doyle a través de su
personaje Sherlock Holmes: «Uno no debe formular
teorías hasta que tenga datos suficientes.
Insensiblemente se comienza a modificar los datos
para ajustarlos a la teorías, en vez de las teorías para
ajustarlas a las datos». Hacerlo es entrar en una
dinámica muy peligrosa.
las etapas de la producción de pigmentos responsables
del color de los ojos de la Drosophila está controlada
por un gen (de ahí procede la famosa idea de la biología
molecular «un gen-un enzima»). Por lo demás en 1938,
Moewus, «descubrió» que los factores hormonales
de que estamos hablando eran carotenoides buscando
y encontrando la colaboración y apoyo del bioquímico
alemán Richard Kuhn, que acababa de obtener el
premio Nobel de Química de ese año por sus trabajos
sobre los carotenoides. En 1939, comienzan a sonar
las primeras alarmas cuando el genetista británico
J.H.S. Haldane advirtió que en ciertas publicaciones
de Moewus los datos presentaban una dispersión
estadística extraordinariamente pequeña.
Si hablamos de estadística y ciencia
hablamos de la obra publicada por Mendel en 1865,
Experimentos de hibridación en plantas. Si Mendel
en un experimento de herencia de un carácter
dominante, cuyo resultado debería ser de 75% de
guisantes amarillos y 25% de verdes, afirmó haber
obtenido, entre los 8023 ejemplares que integraban
su generación filial, 6022 amarillos (75.06%) y 2001
verdes (24.94%), Cuando en 1900 Tschermak repite
el experimento, obtiene: 3.580 amarillos (75,05%) y
1.190 verdes (24,94%).
Es cierto que para confirmar su tercera ley
o principio de combinación independiente debió
basarse en el estudio de los resultados de la herencia
de dos caracteres no ligados como el color
(cromosoma 1) y la rugosidad (cromosoma 7) de la
semilla y que a partir de los siete caracteres estudiados
por Mendel cuatro de las 21 combinaciones dihíbridas
posibles pudieron mostrar ligamiento y ofrecerle unos
resultados alejados de la esperada proporción 9:3:3:1.
No obstante S. Blixt en 1975, llama la atención sobre
dos circunstancias: la primera que los loci a los que
en el cromosoma 1 se asocian los caracteres Color
de los cotiledones - Color de la cubierta de semillas y
flores y los loci a los que en el cromosoma 4 se asocian
los caracteres Forma de las legumbres – Talla de la
planta e inflorescencia – Talla de la planta están tan
separados que su fracción de recombinación es
prácticamente igual a 0,5, se comportan como
caracteres no ligados, siendo difícil detectar
experimentalmente su ligamiento. Quizás, si sea cierto
que no pudiendo interpretar los resultados ofrecidos
por el cruzamiento dihíbrido Forma de la legumbre –
Talla de la planta. si que lo desechó y no publicó los
resultados Podemos afirmar que estas pequeñas
mentiras no ocultan el rastro de un fenómeno para el
que Mendel, desconocedor de conceptos como
cromosomas o gen, no encontró explicación. Podemos
disculpar y calificar como pequeñas faltas el hecho
de que Newton adecuara los cálculos de la velocidad
Ciencia sin conciencia es la ruina del
alma.
Rebelais
El principal argumento de los partidarios de
la transmisión hereditaria de la inteligencia (CI) que
sostienen que la educación en los distintos medios no
repercute en las facultades intelectuales de los
individuos lo constituyen los trabajos de Cyril Burt
sobre gemelos univitelinos separados, criados en
medios diferentes no correlacionados y evaluados
mediante un parámetro estadístico denominado
coeficiente de correlación intraclase que en los
trabajos publicados por este psicólogo inglés entre 1955
y 1966 resultan en estimas coincidentes a la centésima
o la milésima. Si en 1943, contando con 15 pares de
gemelos, indica que la correlación entre la « posición
económica « y la calificación IQ era de 0,32. En 1957,
13 años más tarde revisa esos mismos trabajos, amplia
la muestra a un total de 30 pares de gemelos e indica
que la correlación entre la «evaluación corregida de
la inteligencia» y aquello que ahora deviene en
«posición socioeconómica « es de 0,315, dando con
ello una impresión de coherencia y precisión. En 1957
Burt opina que la pura calificación IQ es mucho menos
fiable que la opinión que sobre el tiene su maestro y
así « en los casos en que un profesor estaba en
desacuerdo con la calificación, se entrevistó
personalmente al niño en cuestión, sometiéndolo a
otras evaluaciones, a menudo repetidas veces «. En
99
obligatorio para todos los alumnos a la edad de 11
años y a los que obtenían una escasa puntuación no
se les permitía acceder al bachillerato ni a la
universidad, siendo obligatoriamente relegados a
oficios manuales.
1943 su proceder, a este respecto, había sido el
contrario.
Hearnshaw gran admirador de Burt,
pronunció su oración de responso y ... poco después
hubo de desenmascararlo. Encontró entre su
correspondencia una carta fechada en diciembre de
1968 de Christopher Jencks, psicólogo de Harvard,
que en ella le pedía sus datos originales sobre los
cincuenta y tres gemelos verdaderos que vivían
separados. Pasando a su diario, se encontró con que
Burt relataba en el como había pasado la primera
semana de enero de 1969 «calculando» para Jencks
y a partir de las correlaciones que ya había publicado,
los datos brutos sobre los gemelos, ¡creaba unos datos
brutos figurados a partir de las correlaciones que ya
había publicado, con anterioridad!. También se inventó
sus resultados sobre los descensos del nivel escolar
en Inglaterra. En 1976, Oliver Gillie, periodista del
Sunday Times, de Londres descubrió, que Burt « a
menudo calculaba a ojo la inteligencia de los padres a
los que entrevistaba, aunque más tarde utilizaba esas
conjeturas como si fueran datos científicos sólidos «
y que cuando estaba a cargo del British Journal of
Psychology publicó varios artículos enviados «a si
mismo» y firmadas por dos colaboradoras que jamás
habían existido, Miss Howard y Miss Conway..pero
que para 1966 le permitieron sustentar sus opiniones
sobre una muestra de 53 gemelos univitelinos
separados y criados en medios diferentes Lo absurdo
es que, en 1967, el propio Burt analizó en un articulo,
en el criticaba la parapsicología el modo como la
subjetividad individual puede falsear el trabajo
científico. «La propensión a incrementar la importancia
de nuestras propias demostraciones, el deseo de evitar
los juicios y reservas, y el deseo incesante de conciliar
nuestras observaciones anteriores a las presentes de
modo que se ajusten a nuestros propios deseos,
constituyen tendencias naturales del espíritu humano,
tan inconscientes como automáticas. Esto pide mucho
tiempo y disciplina para hacer de un hombre un
observador verdaderamente científico, objetivo y
preciso»
Podríamos terminar este apartado haciendo
referencia a que Burt usaba la estadística de la misma
manera que un borracho utiliza una farola: más para
apoyarse que para iluminarse, pero los errores
cometidos por los hereditaristas nunca son producto
de la ignorancia y nunca dejan lugar para la broma.
Burt fue el primero en ocupar una cátedra de
Psicología en Inglaterra, y el primer psicólogo en ser
nombrado caballero y miembro de la Royal Society.
Sus ideas acerca de la heredabilidad de la inteligencia
influyeron decisivamente en la política educativa
británica. Se estableció un test de inteligencia
El artículo «¿Cuánto podemos esperar
mejorar el CI y la falla escolar?» del psicólogo Arthur
Jensen publicado en 1969 en la Harvard Educational
Review; los libros, «The Bell Curve: Inteligence and
Class Structure in American Life» de Richard J.
Herrnstein y Charles Murray publicado en 1969 y «El
CI en la meritocracia» de Herrnstein, publicado en
1973; cometen los mismos fraudes para mantener que
el «fracaso de los programas de educación destinados
a los negros» se debe a que «la inteligencia está
determinada genéticamente y a que los negros son
sistemáticamente menos inteligentes que los blancos».
Por otra parte si el status social es fruto del prestigio
y la posición económica derivada del éxito logrado al
poner en juego unas aptitudes heredadas, el estatus
social de cada individuo depende de las diferencias
heredadas.. Ello es reflejo de lo que dio en
denominarse como Darwinismo Social, un intento de
Herbert Spencer de hacer plausible una ideología que
justifica el imperialismo, esclavitud y genocidio
ejercidos por la sociedad occidental, cuyos interese
defiende.
Una vez «se hacen ver» los estrechos lazos
existentes entre inteligencia y conducta moral Edward
100
proposición de ley solicitando la esterilización de
aquellas personas cuya calificación IQ fuera inferior
a 100 y ello comenzando por las personas
dependientes de la Seguridad Social a las que se
ofrecería una prima de 1 000 dólares por cada punto
por debajo de 100 que presentase su IQ. En 1973, un
comité de investigación del senado norteamericano
presidido por E. M. Kennedy obtuvo la siguiente
información del Departamento de Sanidad, Educación
y Seguridad Social: en ese momento existían 3 260
clínicas de control de natalidad subvencionadas por
el Gobierno Federal, que en 1972 se habían
esterilizado como mínimo 16 000 mujeres y 8 000
hombres, con un gran porcentaje de negros y un
mínimo de 100 menores de edad. ¡ En 1974, catorce
Estados tenían en estudio propuestas para la
esterilización de las mujeres dependientes de la
Seguridad Social. El manifiesto titulado «Mainstream
Science and Intelligence» publicado el 15 de diciembre
de 1994 en el Wall Street Journal. Si nos remontamos
a las palabras del padre de la eugenesia, Francis
Galtón, primo de Darwin, es fácil adivinar que no se
trata de encontrar las flaquezas de los fundamentos
estadísticos en las evaluaciones del IQ y en la estima
de la heredabilidad de la inteligencia. «Un entusiasmo
por mejorar la raza es tan noble en su intención que
podía dar lugar al sentido de obligación religiosa». No
hay ejemplos, ni se citan hechos o casos, que pudieran
contradecir o cuanto menos matizar en lo más mínimo
las hipótesis defendidas. Se habla de datos que
confirman y sostienen con fundamento unas verdades
no susceptibles de discusión y que siendo así se
defienden no desde la convencimiento de un científico
si no desde la fe de un fervoroso creyente. Quizás lo
que repugna de todo ello deriva de la contradicción
sin paliativos de estos hechos con el papel que desde
la sociedad se reclama para la ciencia y que encierra
la afirmación de Bronowski: la ciencia genera valores
éticos y sociales como la honestidad, la humildad y la
necesidad de cooperación e intercambio social.
Banfield encuentra el camino expedito para dar una
nueva vuelta de tuerca y así afirmar que los
trabajadores gozan en la pobreza, se complacen
inmersos en la miseria y decadencia moral de los
barrios bajos y muestran cierta tendencia a maltratar
a sus esposa e hijos. Tres años antes se había
promulgado la primera ley eugenésica en Indiana, una
ley que como se indica en su preámbulo se justifica
indicando: « considerando que la herencia tiene una
función de la mayor importancia en la transmisión de
la delincuencia, la idiotez y la imbecilidad». Lista a la
que las asambleas legislativas de New Jersey e Iowa
fueron ampliando en años posteriores con «debilidad
mental, epilepsia y otros defectos» y « lunáticos,
borrachos, drogadictos, perversos sexuales y morales,
enfermos morbosos y personas degeneradas». Está
claro que Hitler no necesitaba justificar en los datos
de Lenz, los genes del comunismo tienden a
encontrarse con mayor frecuencia en familias judías,
la esterilización de 250 000 personas en el periodo
1933-1945 y bajo la vigencia de la ley de Sanidad, ni
justificar Auschwitz y Treblinca. Pero también está
claro que se repiten motivaciones, propósitos
declarados, intenciones ocultas y estrategias y que
no nos encontramos ante hechos circunscritos al
pasado, a la Alemania nazi y a la acción de unos pocos
locos. Se descubrió que la pelagra, una enfermedad
típica de gente pobre, es debida a una carencia
vitamínica. Pero un estudio posterior en diez años
«probaba» que esta enfermedad era de origen genético.
Para el eugenista Charles Davenport, principal autor
de este estudio, los pobres estaban enfermos a causa
de sus genes y no a causa de una deficiencia
alimenticia. Charles Davenport, Zoólogo de Harward,
en 1898 se hace cargo de la dirección del laboratorio
de Cold Spring Harbor en Nueva York. Al tiempo que
George H. Shull obtiene el primer maíz híbrido y pone
de manifiesto el fenómeno del vigor híbrido y que
Thomas Huant Morgan desarrolla la teoría
cromosómica de la herencia, el propio Davenport
aplicando el modelo mendeliano a la genética humana
desentraña las claves de la herencia del color de los
ojos y el pelo, del albinismo, de la enfermedad de
Huntington y de la neurofrimatosis. Cuando en 1910
acepta la presidencia del Comité de Eugenesia de la
Asociación de Criadores de Animales de Raza (ABA),
subtitula su Manual de Eugenesia» La ciencia del
mejoramiento humano a través de la crianza». Con
este fin y la financiación de la Carnegie Foundatión
creó el Eugenics Record Office (ERO).
Otro premio Nobel, este de biología, el
genetista norteamericano Hermann J. Müller,
descubridor del efecto mutagénico de los Rayos X
defiende una eugenesia positiva a través de su teoría
de la Selección Germinal y elabora una lista de las
personas cuyo esperma y ovarios deberían
conservarse, otorgando «certificados de calidad» al
modo como preconizaba Galtón, Hereditary genius
(1859). Emigrado a la URSS por sus ideas marxistas
defendía apasionadamente que la genética clásica
mendeliana estaba en plena armonía con el
materialismo dialéctico y que Lysenko, que creía en
la herencia de características adquiridas y negaba una
base material de la herencia, era un idealista o algo
En 1972 poco después de que se publicase
el artículo de Jensen, Wllian Shockley físico de la
Universidad de Stanford y premio Novel redactó una
101
peor. El pulso entre ambos concluyó con el principal
apoyo de Müller el expresidente de la Academia de
Ciencias Agrícolas de la Unión Soviética N. J. Vavilov
en Siberia, donde moriría en 1943, una suerte de la
que el se libraría por poco. Mientras tras su precipitada
huida de la URSS, retiraba a Stalin de su lista de
certificados de calidad genética, quizás debió recordar
los atronadores aplausos con que respondió en 1936
la Academia de Ciencias Agrícolas de la URSS,
presidida por Lysenko, al pronunciar estas palabras:
«Si los practicantes más destacados apoyan teorías y
opiniones que son obviamente absurdas para
cualquiera que sepa aunque sea sólo un poco de
genética -puntos de vista como los presentados
recientemente por el presidente Lysenko y los que
piensan como él-, la opción que se nos presenta
parecerá una elección entre brujería y medicina, entre
astrología y astronomía, entre alquimia y química».
extraído del lecho marino de Irlanda y de donde habría
surgido la vida.
En 1990, Stanley Pons y Martin Fleischmann
de la Universidad de Utah EEUU, no siguieron las
normas comúnmente aceptadas de presentación
científica. Las conclusiones de los experimentos de
fusión fría fueron anunciadas en los medios de
comunicación para reclamar la prioridad del
descubrimiento, después de que la revista Nature
rechazara el trabajo por considerar que no contenía
suficientes detalles de los experimentos. ¿Se trató de
una maniobra para obtener fondos de investigación
de los organismos oficiales? La Universidad de Utah
consiguió cinco millones de dólares que ya nunca
pudieron ser totalmente recuperados. En la actualidad
son 4.500 millones de euros los que se necesitarán
para conseguir la fusión a altas temperaturas durante
los próximos 20 años a través del proyecto ITER.
Otro de los episodios más recientes se
remonta al 12 de septiembre de 2003. ‘Science’
publicó una retractación en la que advertía que el
doctor George Ricaurte de la Universidad Johns
Hopkins había incurrido en inaceptables errores en el
trabajo en el que afirmaba que el éxtasis era capaz
de provocar un severo daño neuronal en primates.
En vez de administrar a los monos éxtasis (MDMA)
por vía oral, les administraron ‘speed’ (metanfetamina)
por vía intravenosa.
En las páginas iniciales dentro del libro
«Fantasía y realidad: una excursión por la ciencia y la
literatura», Broad y Wade afirman: «Según la opinión
convencional, la ciencia es un proceso estrictamente
lógico, la objetividad es la esencia de la actitud del
científico ante su trabajo, y las afirmaciones científicas
son rigurosamente comprobadas por escrutinio de los
colegas y repetición de los experimentos. Mediante
este sistema de autoverificación, los errores de todo
tipo son rápida e inexorablemente echados fuera».
No obstante la realidad parece dar la razón a Bacon,
«la verdad es la hija no de la autoridad, sino del
tiempo». La persistencia de los errores en la obra de
Aristóteles en el ámbito de la filosofía natural por casi
dos mil años es un ejemplo en que el respeto del
maestro mezclado con la autoridad religiosa se
combinaron para mantener el equívoco.
El médico húngaro Semmelweis, descubrió
que la fiebre puerperal, cuya tasa de mortalidad
oscilaba entre el 10 y el 30 por ciento en los hospitales
europeos, podía ser reducida a cero si los médicos se
lavaban las manos en una solución de cloro antes de
examinar a la madre. Sus colegas no se mostraron
dispuestos a aceptar una nueva idea con facilidad.
Despedido del hospital y tras veinte años de esfuerzos
Los errores poseen su valor, aunque sólo en
alguna ocasión.
No todo el mundo que viaja a la India
descubre América.
Erich Kastner
Tenemos que mencionar también la
negligencia científica, esto es, la desviación de las
normas metodológicas de la ciencia, que da lugar a
resultados erróneos pero obtenidos sin intención
premeditada de defraudar. Hablamos de errores y no
de faltas. Suele estar relacionada con la publicidad
de los resultados de una investigación, presentada
prematuramente y de forma sensacionalista en los
medios de comunicación antes de que los resultados
sean avalados por la comunidad científica. Aquí
podemos hablar de las «investigaciones» sobre el
flogisto, sobre los rayos mitogenéticos y sobre el
«Bathybius haeckelli» protoplasma básico y viscoso
102
infructuosos ingresó en un hospital mental. «En
cuestiones de ciencia, la autoridad de mil no vale lo
que el humilde razonamiento de un solo individuo»
(Galileo).
Un caso más reciente lo protagoniza Bruce
Voeller, que, desde 1984, había sugerido a las
autoridades científicas encargadas de la investigación
del SIDA, James Curran y Donald Francis, que ciertos
espermicidas eran capaces de matar el virus del
SIDA. Curran rehusó verificar esta hipótesis. Un poco
después Voeller obtuvo apoyo de otros investigadores
de los Centers for Disease Control, tuvo éxito en
probar su idea y envió un artículo con Donald Francis
como coautor. Pero Curran bloqueó la publicación
durante varios meses. Apareció en The Lancet en
diciembre de 1985. Según algunos testimonios, la
investigación fue saboteada: se robaron cultivos y otros
fueron contaminados deliberadamente. Una encuesta
del CDC dictaminó que no había pruebas del sabotaje,
pero hay datos sospechosos y ciertos críticos dijeron
que se estaba tratando de tapar el escándalo
Ninguna ciencia, en cuanto a ciencia, engaña;
el engaño está en quien no la sabe. (Historia de
los trabajos de Persiles y Sigismunda)
Cervantes
En algunos países se han creado organismos
para controlar el fraude, como el Office for Research
Integrity (ORI), desde 1989, perteneciente al National
Institute of Health, de EEUU. También en Alemania
se creó en 1998 la Agencia Alemana de Investigación
contra el Fraude (DFG). Muchas universidades en
EEUU tienen un departamento que se encarga
básicamente de detectar la mala conducta en ciencia.
Siendo impensable desarrollar mecanismos
que aseguren una protección absoluta contra el fraude
en la ciencia se impone tanto la inclusión de la ética e
honestidad como ingrediente fundamental en el
proceso de formación no sólo de estudiantes y futuros
investigadores en carreras biomédicas como la
aproximación de la ciencia al conjunto de los alumnos
aun en estudios ajenos al mundo de la ciencia.
La
investigación
honesta
es
absolutamente imposible en el ámbito de cualquier
iglesia, en razón de que, si uno cree que la iglesia
está en lo correcto, no investiga, y si cree que
está errada, la iglesia lo investiga a uno.
Robert Ingersol
BIBLIOGRAFÍA
La Biología como arma social. Edi.
Alhambra.
Los fraudes científicos. Pablo C. Schulz1 e
Issa Katime. Revista Iberoamericana de Polímeros
Volumen 4. Abril 2003.
Los fraudes científicos. M. Blanc, G.
Chapouthier, A. Danchin Mundo Científico.
Las mentiras de la ciencia, F. Di Trocchio.
Alianza Editorial, Madrid 2002.
Siguiendo con la lectura del libro «Fantasía
y realidad: una excursión por la ciencia y la literatura»,
Broad y Wade afirman ahora, de la forma en que
muchos científicos hacen y perciben la ciencia, da la
impresión de que «la ciencia ha reemplazado a la
religión, hasta un grado probablemente insano, como
la fuente fundamental de verdad y valores en el mundo
moderno». Así Murray Gell-Mann afirma «Hay una
diferencia mayor entre un ser humano que sabe
mecánica cuántica y otro que no, que entre un ser
humano que no sabe mecánica cuántica y los otros
grandes simios». Por estar hablando probablemente
de lo mismo, quizás sea aquí el lugar más adecuado
para mencionar al quehacer de aquellos que
consideran las creencias religiosas como evidencias
científicas. Baltasar Rodríguez Salinas, catedrático
jubilado de Análisis Matemático de la Universidad
Complutense de Madrid, escribió un artículo, en 2003,
en la revista de la Real Academia de Ciencias Exactas,
Físicas y Naturales, de España, en el que prueba
mediante formulación matemática la existencia de Dios
y compara los resultados con los cinco argumentos
de la Summa Teológica que aluden a la divinidad. Una
evaluación posterior del artículo concluye que todo
es pura fantasía, impregnada de mística cristiana.
Salvador Cordero Rodríguez
I.E.S. «VALLE DEL GENAL»
103
Divulgación cientifíca en la época de Faraday
Rafael López Valverde
Durante el siglo XIX, la ciencia que arrancó
en el renacimiento, se fortaleció a lo largo del siglo
XVII con la creación de las academias de ciencia y
la publicación de las primeras revistas científicas,
continuó su proceso de desarrollo y de aceptación
social; en ese proceso influyeron considerablemente
las ideas de la ilustración, del enciclopedismo y de la
revolución industrial. El resultado fue que interés social
por la ciencia llegó a ser muy importante y, como
consecuencia, proliferaron las sociedades científicas
con el objetivo de fomentar el desarrollo y la
divulgación del conocimiento tanto entre la clase
burguesa como entre los profesionales y artesanos; a
todos ellos fueron dirigidas muchas charlas y
conferencias con la finalidad de actualizar su
formación en las nuevas tecnologías de entonces.
En realidad, éste era uno de los motivos por
el que se sentían atraídas por la ciencia las personas
que asistían a dichas conferencias, ya que el
perfeccionamiento de su formación prometía mejores
perspectivas de trabajo, especialmente en Gran
Bretaña que se encontraba en pleno proceso de
industrialización. Pero existían otros más como la
creencia generalizada de que la ciencia conducía al
perfeccionamiento mental y moral de los individuos.
Las sociedades científicas, por humildes que
fueran, se regían por unos estatutos. Sus miembros
se elegían a propuesta de otros y en virtud de los
méritos alcanzados. Por lo general, los socios
abonaban una cuota en concepto de mantenimiento
de la sociedad. En algunas sociedades la asistencia a
las conferencias costaba un chelín y la recaudación
se invertía en sufragar gastos de funcionamiento y
otras inversiones. La prensa londinense a menudo
publicaba noticias sobre las conferencias impartidas
y los adelantos mostrados en ellas, muy habitual en la
época. En la década de 1830, el tropel de carruajes
que acudía a las Charlas de los Viernes por la tarde a
la Royal Institution fue tan grande que el ayuntamiento
de Londres tuvo que declarar la calle Albemarle de
dirección única. Era la primera vez que se tomaba
una medida de este tipo.
Figura 1. Frontispicio de la Royal Institution en
Albemarle Street 21.
Para la década de 1850 el estado de bienestar
e industrialización alcanzados desbordó aún más la
asistencia a las charlas en la Royal Institution,
alcanzándose aforos de unas ochocientas personas;
este número de asistentes da una idea de la amplitud
de la sala de conferencia y de la repercusión social
de esos acontecimientos. De hecho, esta situación
general estuvo tan extendida que existía la profesión
de conferenciante y entre los consagrados a ella
circulaba una especie de compendio sobre el arte de
impartir charlas y conferencias científicas, en virtud
del auditorio.
Los conferenciantes de primera fila eran
generalmente hombres de ciencia de reconocido
prestigio que a menudo se veían en el compromiso de
asesorar científicamente en los numerosos juicios
sobre apropiación indebida de patentes y plagios
tecnológicos que continuamente producía el
crecimiento industrial. Asimismo, colaboraban con los
gobiernos y las compañías industriales en el
perfeccionamiento de los procesos de fabricación, en
el mantenimiento de las instalaciones navales y en la
investigación de las causas de accidentes laborales
de cierta envergadura.
Un curioso personaje de la época, que tuvo
mucho que ver con este ambiente, fue Benjamín
104
Thomson (1753-1814), más conocido por el conde
Rumford. Nacido inglés en EE.UU., la guerra de
independencia le creó serios problemas, fue acusado
de espionaje y tuvo que huir a Europa.
Allí, en 1784 fue ministro en Baviera: modernizó el
ejército, construyó escuelas y casas para familias
humildes, introdujo la patata en la agricultura, diseñó
una estufa prototipo de las actuales y hasta fue el
creador de la conocida sopa rumford con la que, a
base de ingredientes económicos, intentó mitigar las
deficiencias nutritivas de las clases desfavorecidas.
En ciencia, Rumford es especialmente
conocido por ser el introductor del equivalente
mecánico del calor. A este concepto llegó al relacionar
el calor desprendido por el taladro de unos cañones
en una fábrica de Baviera con el trabajo realizado
para ello. También es conocido por ser el fundador
de la Royal Institution of Great Britain.
Personaje muy dinámico, en 1799, establecido
ya en Londres, compró tres casas adyacentes en la
calle Albemarle street y, junto con el botánico Joseph
Banks, presidente de la Royal Society, fundó la Royal
Institution con los objetivos de difundir la ciencia entre
el público, dar a conocer los últimos inventos y
aplicaciones mecánicas e impartir ciclos de
conferencias. Para ello era necesario que la sede de
la institución gozara de una Sala de Tertulia para
charlar y tomar café, un Salón de Actos para las
conferencias y unos buenos Laboratorios. Pero lo más
sorprendente es que todo ello sería sufragado por las
aportaciones de los socios, quienes tenían la
oportunidad de charlar y tomar el té con los más
ilustres hombres de ciencia del momento.
El primer director de la recién fundada Royal
Institution fue Thomas Young (1773-1829), eminente
lingüista y científico. Young es conocido por su
experimento de la doble rendija con el que estableció
definitivamente la naturaleza ondulatoria de la luz, a
pesar de la teoría newtoniana, muy extendida, que
proponía la naturaleza corpuscular. Sin embargo, en
otros ambientes Young es también conocido por
aportar en ingeniería el módulo de elasticidad que lleva
su nombre, por descubrir el astigmatismo y también
por estar a punto de adelantarse a Champollion en el
desciframiento de los jeroglíficos egipcios de la piedra
de Roseta.
Los sucesores de Young en la dirección de la
Royal Institution no fueron menos ilustres: Humphry
Davy (1778-1829) fue el descubridor del mayor
número de elementos químicos: sodio, potasio, calcio,
magnesio, estroncio y yodo; y fue también el inventor
del arco voltaico y de la linterna de las minas. Con
dicha linterna logró evitar las explosiones de grisú y
fue condecorado por las numerosas vidas que salvó.
Los sucesores de Davy fueron Faraday, al que nos
dedicaremos después, Tyndall, al que se debe el
descubrimiento del efecto que lleva su nombre, el cual
permite distinguir una disolución verdadera de una
dispersión coloidal, y Dewar, sin cuya aportación más
conocida no serían posible los llamados termos para
conservar los alimentos calientes o fríos.
Siguiendo la corriente social extendida en
Gran Bretaña, en 1801, dos años después de su
fundación, Davy inauguró los primeros ciclos de
conferencias en la Royal Institution con el propósito
de cubrir los objetivos de la institución y de aumentar
el número de socios. De formación autodidacta
(huérfano a los 16 años, se trazó un sólido plan de
estudios que incluía siete idiomas), sus descubrimientos
y conferencias le proporcionaron una fama
excepcional que le aportó títulos nobiliarios y le llevó
a alcanzar la presidencia de la Royal Society, la más
alta distinción científica de entonces.
En 1812 Davy impartió sus últimas cuatro
conferencias en la Royal Institution y a ellas asistió el
joven Michael Faraday (1791-1867), un aprendiz de
encuadernador al que un cliente le había regalado las
entradas a las conferencias.
La formación inicial de Faraday era muy
elemental, sólo lectura, escritura y aritmética pues,
por motivos económicos, tuvo que dejar la escuela
muy joven. Sin embargo, gracias a su afán personal,
a su trabajo de encuadernación de libros y al ambiente
de la época fue adquiriendo una formación muy
completa en conocimientos científicos. A esta
formación contribuyeron especialmente las
conferencias de la City Philosophical Society, una
sociedad científica fundada en 1808 por un joyero
llamado John Tatum. A estas charlas de la City asistió
Faraday con regularidad desde 1810, pero como su
sueldo de aprendiz no lo permitía, era su hermano
Robert quien aportaba el chelín que costaba la
asistencia a cada charla.
En este ambiente de la City Philosophical
Society fue donde Faraday entabló sus primeros
contactos con la ciencia y también donde impartió
sus primeras charlas científicas, una vez elegido
miembro de la sociedad en 1815. A pesar de su origen
humilde (las charlas se impartían los jueves por la
tarde en la propia casa de Tatum), la City Philosophical
Society emulaba a las grandes sociedades eruditas y
sus miembros, elegidos en reuniones organizadas por
el secretario, eran distinguidos por las siglas MCPS.
Desde 1815 y hasta 1819 Faraday impartió en la City
un total de veinte conferencias.
La vida del joven Faraday cambió a raíz de
un hecho singular, propio de una persona resuelta: las
notas que tomó en las cuatro conferencias de Davy,
105
detallaba suficientemente los resultados
experimentales y cómo había llegado a establecerlos,
disolviendo toda duda sobre la autoría de su
descubrimiento. Estos duros comienzos iniciaron a
Faraday en la investigación científica, pero le costaron
su relación con Davy.
junto con sus contribuciones personales, las
encuadernó en un lujoso librito y se las envió al mismo
Davy acompañada de una carta en la que pedía un
puesto de ayudante de química en el laboratorio. Davy
quedó sensiblemente impresionado y, meses después,
tras quedar temporalmente ciego por un accidente de
laboratorio, solicitó para Faraday el nombramiento de
ayudante de laboratorio y el de amanuense, pues en
fechas próximas tenía que realizar un viaje de año y
medio por el viejo continente y sus ojos no estaban
recuperados. Este fue el inicio de una buena relación
que le llevó en 1815 al puesto de «ayudante y
superintendente de los aparatos de Laboratorio y la
colección de minerales de la Royal Institution», con
un sueldo semanal de 30 chelines.
En 1823, algunos amigos de Faraday le
inscribieron para ser elegido miembro de la Royal
Society, cuya presidencia desempeñaba Davy. Fue
inevitable que volviera a surgir entre ellos el tema de
las rotaciones electromagnéticas y Davy sugirió a
Faraday que retirara su candidatura, pero éste no llegó
a hacerlo y respondió que la retiraran quienes la habían
presentado. Meses después, en 1824, Faraday fue
elegido finalmente miembro de la Royal Society. No
obstante, Davy procuró tenerlo especialmente
ocupado y le encargó una tediosa investigación sobre
vidrios pesados de borosilicato de plomo.
En el año 1821, Faraday, entregado a la
búsqueda de nuevos descubrimientos y nuevas leyes
en la recién creada electrodinámica, descubrió un
fenómeno que le aportó fama y también los primeros
conflictos personales. Descubrió que un conductor,
suspendido verticalmente, describe circunferencias en
torno a un imán situado debajo de él, parcialmente
sumergido en mercurio. El fenómeno, conocido por
rotaciones electromagnéticas, constituye el primer
motor eléctrico y es una prueba experimental más,
junto con el experimento de Oersted, de la estrecha
relación entre electricidad y magnetismo.
Figura 3. Faraday
En 1825 Faraday fue elegido director del
Laboratorio de la Royal Institution y un año después,
ante las dificultades económicas por las que pasaba
la sociedad, creó dos ciclos de conferencias para
captar nuevos socios: las Charlas de los Viernes por
la tarde y las Conferencias Juveniles de Navidad,
que aún hoy día continúan. Conforme aumentaban
las investigaciones y las contribuciones de Faraday
en la ciencia, su fama fue también en aumento, al
igual que la asistencia a las charlas. En la década de
1830, los fondos económicos de la institución
permitieron remodelar la fachada con las catorce
columnas corintias que distinguen el número 21 de
Albemarle Street.
Figura 2. Davy
Después de que Faraday publicara el
resultado de su experimento sobre las rotaciones
electromagnéticas, fue acusado de no reconocer la
contribución de Davy ni el trabajo de Wollaston, que
había usado según sus acusadores. Para limpiar su
honor, Faraday elaboró una extensa memoria que
presentó públicamente ante un tribunal. En ella
106
El éxito de Faraday en sus charlas era debido
a su magníficos dotes de conferenciante, adquiridos
en su juventud gracias a su entusiasmo por el
conocimiento. Acostumbraba a deleitar al público con
sus últimos descubrimientos, especialmente
preparados para las charlas, en los que no escatimaba
recursos para perfeccionarlos y hacerlos grandes y
aparatosos. Una muestra de ello es su conocida jaula
de tres metros de lado y otros tres de altura, con la
que demostraba la falta de influencia de una carga
eléctrica, encerrada dentro de ella, sobre otra externa.
En la década de 1850 algunos miembros de
la familia real acudieron con frecuencia a sus charlas;
este fue el caso de Alberto, príncipe consorte de la
reina Victoria, y su hijo Arturo, heredero al trono. En
una de estas visitas, en el año 1854, Faraday, en el
transcurso de su conferencia, arremetió con fuerza
contra la corriente de espiritismo, procedente de
Norteamérica, que alimentaba la creencia de las
gentes en ciertos supuestos poderes para mover vasos
y mesas. Faraday argumentó que sólo una formación
científica adecuada podría evitar que el pueblo cayera
en tales deformaciones y solicitó de las autoridades
más apoyo a la formación científica de la sociedad.
Tras su disertación, el príncipe consorte felicitó a
Faraday por lo acertado de su discurso, aunque la
conferencia no pudiera evitar la propagación de la
creencia en el espiritismo de las mesas y los vasos
móviles.
Figura 4. Faraday en una de sus conferencias
de 1954 con miembros de la Familia Real.
científicas en dos series, la anterior y la Experimental
Researches in Chemistry and Physics.
Estas publicaciones fueron la base y el punto
de partida que llevó a Maxwell a establecer su teoría
electromagnética. En ellas aparecen por primera vez
los conceptos de líneas de fuerza, cuyo significado
Maxwell supo captar bien en términos matemáticos,
electrólisis, electrolito, iones, anión, catión, etc. Resulta
especialmente interesante el modo en que Faraday
llegó a establecerlos, en particular la nomenclatura
que llegó a usar. Asociado con Whewell, científico
experto en lenguas clásicas, éste era el que ponía
nombre de origen griego a la descripción que Faraday
hacía del fenómeno físico. Así se llegó a fijar, incluso,
el término diamagnetismo, después de una consulta a
Whewell.
Además de esta monumental obra de
publicación y conceptualización científica, Faraday
está considerado el mayor divulgador de la ciencia de
su época gracias a su entrega en los ciclos de
conferencias en los que participó y los que fundó.
Faraday es también uno de los grandes
experimentalistas del siglo XIX y hoy día, sólo por
sus descubrimientos más importantes le hubieran
correspondido hasta seis Premios Nobel: por la
inducción electromagnética, el descubrimiento del
benceno, las leyes de la electrólisis, el efecto
magnetoóptico, el descubrimiento del diamagnetismo,
la licuación del cloro y otros gases y el descubrimiento
de la permitividad eléctrica. En sus investigaciones
era muy meticuloso; solía anotarlo todo en su Diary,
publicado posteriormente en siete gruesos volúmenes,
a base de notas, dibujos y una doble numeración de
párrafos y experimentos. El último párrafo registrado
en su Diary lleva el número 16401. La clave de su
éxito personal la reducía al siguiente aforismo: El
secreto consiste en trabajar, terminar y publicar.
La investigación científica en aquellos
tiempos no fue sencilla. Hoy día puede parecernos
trivial demostrar que todas las electricidades
conocidas son sólo una y tienen el mismo origen. Sin
embargo, esto no resultó así para Faraday que llegó a
demostrar experimentalmente, y de modo meticuloso,
que la electricidad galvánica que suministran las pilas,
la magneto-electricidad generada por las dinamos, la
electricidad animal producida por las ancas de rana,
la electricidad estática debido a la fricción y la
piezoelectricidad, generada al presionar un cristal de
cuarzo debidamente tallado, eran la misma.
Faraday vivió durante muchos años en la
Royal Institution, junto con su mujer, hasta que en
1857 fueron obsequiados con una casa por parte del
En 1831, en ocasión de su descubrimiento de
la inducción electromagnética, Faraday inició la serie
de publicaciones científicas Experimental
Researches in Electricity, que se ha publicado en
nuestro tiempo en tres volúmenes. En total se le
atribuyen a Faraday unas cuatrocientas publicaciones
107
Figura 5. Suspensión de oro realizada por Faraday y que se mantiene sin precipitar. Primera muestra de benceno obtenida
por Faraday (Museo Royal Institution).
gobierno de la reina Victoria. Pertenecían a la religión
de los sandemanianos, una secta que no les permitía
acaparar títulos ni riquezas en vida, les obligaba a
visitar y cuidar de enfermos y a acudir todos los
sábados a misa. En esta secta, Faraday luchó por
llegar a ser Notable, un puesto de alto cargo que tuvo
que alternar con todos sus compromisos de asesor
científico del Estado, miembro activo de más de
setenta sociedades científicas, director y
conferenciante de la Royal Institution, hombre de
ciencia de primera línea, prolífico autor de casi
cuatrocientas publicaciones, etc. No obstante, en
cierta ocasión fue rebajado de Notable en la secta y
expulsado de ella por no llegar a tiempo al Sabah.
Meses después consiguió su readmisión en la secta
aunque ya no volvió a ser Notable.
BIBLIOGRAFÍA
1.- TATON, R. Historia general de las ciencias.
1988. Orbis.
2.- CANTOR, G., GOODING, D., JAMES,
F.A.J.L. Faraday. 1991. Alianza Universidad.
3.- HARMAN, P.M. Energía, fuerza y materia.
1982. Alianza Editorial.
4.- http://www.rigb.org/rimain/heritage/
faradaypage.jsp
Rafael López Valverde
I.E.S. PABLO PICASSO.
Durante el periodo que comprende la vida de
Faraday, la ciencia se desarrolla espectacularmente
en Europa, especialmente en Gran Bretaña. El
desarrollo de la industrialización llevó a las primeras
exposiciones universales, a tender los primeros cables
submarinos para la comunicación telegráfica entre el
continente europeo y el americano, a los primeros
trenes, los primeros barcos de acero, etc., etc., y,
sobre todo, a una pasión social por la ciencia que hacía
que personas de todas las formaciones y profesiones
apoyaran económicamente y solicitaran su inscripción
en las sociedades científicas que se creaban al amparo
de la demanda social.
108
LEONARDO TORRES QUEVEDO
Mª Luisa Aguilar Muñoz y José E. Peláez Delgado
INTRODUCCIÓN
Tras finalizar el bachillerato en 1868, cursó dos
años más en un colegio religioso de París. A su
regreso, Leonardo ingresó en la Escuela Oficial del
Cuerpo de Ingenieros de Caminos, concluyendo sus
estudios en 1876.
Leonardo Torres Quevedo puede considerarse
nuestro ingeniero más universal, aunque él prefería
autodefinirse como inventor. Y lo fue en gran medida.
Su obra abarcó campos tan dispares como la
mecánica, la aeronáutica, las máquinas de cálculo o
la automática, obteniendo en todos ellos resultados
de gran relevancia internacional y contribuyó en gran
medida al progreso mundial de la técnica. Además,
sus inventos no surgieron únicamente de su intuición,
sino que fueron el resultado de meticulosas
investigaciones siempre cimentadas en una sólida
preparación científica y tecnológica.
Ejerció durante unos pocos meses como
ingeniero en trabajos ferroviarios y emprendió un viaje
(de estudios) por Europa (Francia, Italia, Suiza…)
donde se puso al día del progreso científico y los
adelantos tecnológicos de una época en la que
comenzaba el desarrollo de las aplicaciones de la
electricidad.
A su vuelta a España, pasó una década entre
Madrid, Bilbao, el Valle de Iguña y París, dedicado a
sus estudios, sin que aparentemente obtuviese
resultados tangibles. Es muy posible, que en este
período iniciase sus primeras investigaciones referente
a las máquinas de cálculo y los transbordadores.
Leonardo Torres Quevedo gozó en vida de un
enorme prestigio científico y técnico gracias sobre
todo, a la gran resonancia internacional que alcanzaron
sus trabajos, en particular los llevados a cabo en los
campos de las máquinas algebraicas y la automática,
hasta el punto que son citados en la bibliografía como
precursores de los computadores y la cibernética.
A continuación se describen cronológicamente
y de forma resumida sólo sus inventos más
importantes, agrupándolos por temática y destacando
lo más innovador de cada uno de ellos.
PRESENTACIÓN
Leonardo Torres Quevedo nació el 28 de
diciembre de 1852 en Santa Cruz de Iguña (pequeña
aldea cántabra). Vivió con sus padres en Bilbao donde
hizo el bachillerato, pero debido a los continuos
desplazamientos que por motivos laborales realizaba
su padre (también ingeniero de caminos), residió
temporadas con unas parientas, las señoritas
Barrenechea. Estos familiares le dejaron como
herencia todos sus bienes, proporcionándole una
situación de independencia económica que le permitió
renunciar al ejercicio de su profesión y poder dedicarse
plenamente a pensar en sus cosas (según sus
palabras).
Leonardo Torres Quevedo
El 16 de abril de 1885 se casó con Luz Polanco
y Navarro, instalándose en Portolín. Tuvieron ocho
hijos, uno de ellos, Gonzalo, también sería ingeniero y
colaboró estrechamente con su padre. En 1889 se
109
trasladó a Madrid, donde fijó definitivamente su
residencia, salvo cortas temporadas que pasaría en
Bilbao o en el extranjero.
Logra unas condiciones de seguridad
ejemplares. Incluso en el hipotético caso de rotura
de uno de los cables, el sistema se equilibraría
automáticamente descendiendo la barquilla y
subiendo los contrapesos hasta restablecerse
nuevamente el equilibrio. Así, los restantes cables
apenas incrementarían la tensión.
Por primera vez en el mundo se
concibe un transbordador apto para el transporte
público de personas.
Con 41 años publicó su primer trabajo científico,
una memoria sobre máquinas algebraicas. Este trabajo
marcó el comienzo de una fecunda actividad creativa
que se prolongaría sin interrupción, hasta poco antes
de su fallecimiento, el 18 de diciembre de 1936, en
plena guerra civil. La noticia de su desaparición pasó
prácticamente desapercibida, celebrándose el funeral
en la intimidad familiar.
En 1890 viajó a Suiza con la idea de presentar
su proyecto de transbordador. Sin embargo, éste fue
rechazado de plano lo que supuso un duro golpe para
su amor propio que le llevó a abandonar el tema de
los transbordadores. Aunque sólo fue un abandono
temporal, pues sería retomado más tarde para construir
el transbordador del Monte Ulía en San Sebastián.
Fue inaugurado el 30 de septiembre de 1907 y está
considerado como el primero en el mundo destinado
al transporte público de personas. Estuvo operativo
hasta 1916.
LOS TRANSBORDADORES
Entre los años 1885 y 1887 se ocupó de los
transbordadores. La primera noticia que se tiene (su
primer invento, tal vez) hace referencia a los
denominados transbordadores iguñeses.
Probablemente concebidos a raíz de su paso por los
Alpes.
El primer transbordador que construyó fue el
conocido como transbordador de Portolín. Lo
realizó en el entorno de su casa, entre dos valles
próximos. Tenía una longitud de aproximadamente 200
m y salvaba un desnivel de 40 m. Era de tracción
animal y permitía el transporte de una persona.
Años más tarde, abordó la construcción de un
transbordador en Canadá, cerca de las famosas
cataratas del Niágara. Se trata del mundialmente
conocido Spanish Niagara Aerocar, que se inauguró
oficialmente el 9 de agosto de 1916 y todavía sigue
en funcionamiento, sin que en todo este tiempo se
haya registrado ningún incidente que destacar.
Posteriormente, construyó otro de mayor
envergadura y con tracción mecánica. Fue el llamado
transbordador del río León, también en el Valle de
Iguña. Tenía una longitud de unos 2000 m con un
desnivel de unos 300 m. Estuvo dedicado
exclusivamente al transporte de material.
Podemos considerar que, en realidad estos dos
proyectos constituyeron pruebas ingenieriles iniciales.
En 1887 (el 17 de septiembre) solicitó una patente en
España con la memoria: Un sistema de camino
funicular aéreo de alambre múltiple. En ella sentaba
las bases de un novedoso sistema transbordador de
cables múltiples.
Spanish Niagara Aerocar
Las innovaciones que aportó en su proyecto
pueden resumirse en las siguientes:
No debemos pasar por alto que fue una obra
de ingeniería cien por cien española. La empresa
constructora, el capital, la tecnología y la explotación
inicial fueron españoles. Y ello en una época donde
aún resonaban las desafortunadas palabras de
Unamuno: que inventen ellos. Ni que decir tiene que
con estos dos transbordadores, Torres Quevedo se
Emplea un sistema múltiple de
cables-soportes, liberando los anclajes de un
extremo que sustituye por contrapesos. Así
consigue que la tensión de los cables-soportes sea
prácticamente constante, independiente de la
carga o de la posición de ésta.
110
saca definitivamente la espina que supuso el rechazo
suizo.
fórmula. Pensaba que si ello fuese posible, la idea de
máquina algébrica sería, al menos en teoría, muy
simple y la ilustró con el siguiente ejemplo:
LAS MÁQUINAS ALGÉBRICAS
Sea f(A1,A2,A3,…X) = 0 una ecuación de una sola
incógnita, cuyas raíces se pretenden calcular; bastaría
para lograrlo establecer entre dos desplazamientos
Yd y Xd la relación:
La década desde 1891 a 1901 la dedicó a las
máquinas de cálculo analógico. En ellas, los números
son representados mediante magnitudes físicas tales
como longitudes, rotaciones, potenciales eléctricos,
intensidades de corriente, etc. La idea es transformar
una ecuación matemática en un proceso operacional
de cantidades físicas que resuelven un problema físico
análogo, cuyo resultado numéricamente coincide con
la solución matemática buscada. Se trata en suma,
de resolver el problema matemático por analogía con
un modelo físico.
Yd= (A1,A2,A3,…Xd)
y hacer funcionar la máquina en la que esta fórmula
esté construida. Cada vez que Yd pase por cero, el
valor de Xd será igual a una raíz de la ecuación
propuesta.
Desde un punto de vista práctico, estableció
dos condiciones generales que habrían de seguirse
para construir dicha máquina:
Según esto, en principio, todo aparato que
permita reproducir a voluntad un fenómeno físico
cuyas leyes estén formuladas matemáticamente es
susceptible de llamarse máquina de cálculo analógico.
Sin embargo, Torres Quevedo consideró que las
analogías físicas más adecuadas para este propósito
eran las mecánicas y en este ámbito, en 1893 presentó
su primer trabajo científico.
Las transmisiones han de ser
puramente geométricas, es decir, dependerán
sólo de la forma de los mecanismos por lo que
las relaciones entre los desplazamientos se
mantendrán invariables (siempre que los
mecanismos no se rompan). Prescinde de
transmisiones de contacto que pueden resbalar
y ocasionar errores.
Se trató de la Memoria sobre una máquina
para resolver ecuaciones, que dirigió al Gobierno
español en demanda de ayuda, con el fin de buscar
en el extranjero los medios necesarios para construir
una máquina algebraica. La Administración delegó
en la Real Academia de Ciencias el estudio de dicha
memoria, donde el autor describía los principios
teóricos de una máquina de su invención capaz de
hallar las raíces reales de un polinomio de cualquier
grado. La Academia informó favorablemente y la
ayuda le fue concedida.
Sólo han de emplearse mecanismos
sin fin, para así representar variables que puedan
oscilar entre límites muy amplios.
La máquina que propuso estaba compuesta de
tres partes esenciales:
El generador de cantidades o aritmóforo, sirve
para representar los números. Torres Quevedo
recurrió a una representación logarítmica
utilizando dos discos. El principal con una
graduación logarítmica de 1 a 10 que
proporcionaba todas las mantisas posibles (en él
se leerían las cifras significativas). El secundario
se trataba de un disco contador de vueltas y servía
para conocer la característica (y por consiguiente
la posición de la coma). Estaba dividido en 2n
partes iguales, de forma que avanzaría una
subdivisión al completar el disco principal una
vuelta, lo que equivale a multiplicar por diez la
cantidad indicada en el índice de la rueda principal.
En 1895, Torres Quevedo publicó esta misma
memoria con ligeras modificaciones y con la adición
de dos apéndices. Se tituló: Memoria sobre las
máquinas algébricas. En ella definía máquina
algébrica como un instrumento que enlaza varios
móviles e impone mecánicamente ciertas relaciones
entre los valores simultáneos de sus
desplazamientos, precisamente las relaciones
expresadas matemáticamente en la fórmula analítica.
Se hace evidente que al construir la máquina
se construyen las ecuaciones que relacionan los
valores de los desplazamientos considerados. Torres
Quevedo fue consciente de ello y planteó por primera
vez la cuestión de si se podrá construir cualquier
El generador de monomios o tren
epicicloidal, es un mecanismo que convierte en
111
sumas las operaciones necesarias para construir
un monomio. Lleva a cabo el siguiente proceso:
AXn ------------- log A + nlogX
El generador de sumas o generador del
polinomio, conocido como husillo sin fin. Es la
pieza fundamental de la máquina y la más original.
Tras operar el tren epicicloidal, el polinomio se ha
transformado en una suma de logaritmos. Se hace
necesario hallar el logaritmo de la suma a partir
de los logaritmos de los sumandos (y no existe
una relación algebraica que lo permita). Torres
Quevedo consiguió, mediante su husillo sin fin,
resolver el complejo problema de representar
mecánicamente el logaritmo de una suma.
Máquina algébrica
Esta etapa de máquinas analógicas de cálculo
la cerró con su discurso de ingreso en la Real
Academia de Ciencias Exactas, Físicas y Naturales
el 19 de mayo de 1901.
Estos tres generadores mecánicos establecen
las relaciones adecuadas entre sus movimientos para
representar las correspondientes operaciones
algebraicas.
Esta memoria supuso realmente la base de esta
etapa y fue presentada también a la Academia de
Ciencias de París, que la publica el 29 de julio de 1895.
Sus investigaciones posteriores son generalizaciones,
ampliaciones y aplicaciones sucesivas de esta
memoria. El período de 1896 a 1900 los dedicó a
perfeccionar y concebir detalladamente sus máquinas
y a construir alguna de ellas, al tiempo que publicó
varios artículos. En 1900, presentó a la Academia de
Ciencias de París, la memoria titulada Máquinas de
calcular, donde precisa, detalla y generaliza sus ideas
sobre las maquinas de cálculo. La comisión que realizó
el informe de esta memoria afirmó que Torres
Quevedo había dado con una solución teórica,
general y completa del problema de la
construcción de relaciones algebraicas y
transcendentes mediante máquinas. Asimismo, la
comisión concluía con el ruego a la Academia para
que incluyera la Memoria en el Repertorio de Sabios
Extranjeros. Esta Memoria se acompañó de varios
modelos de máquinas para el ensayo de algunos
mecanismos, entre ellos el de una máquina capaz de
hallar las raíces reales de ecuaciones trinomias.
EL TELEKINO
Al comenzar el s XX, Torres Quevedo centró
su atención preferente en los dirigibles. En 1902
presentó a las Academias de Ciencias española y
francesa un anteproyecto de globo dirigible que recibió
informes muy positivos de Echegaray y de Appell
respectivamente.
Al mismo tiempo se ocupó de otro proyecto.
Se trataba de un autómata que ejecutaba las órdenes
que se le enviaban por radiotelegrafía y que denominó
telekino. No referimos al primer mando a distancia
del mundo. La idea parece que surge con el propósito
de hacer pruebas con los globos dirigibles sin exponer
vidas humanas.
En 1903 lo presentó a la Academia de Ciencias
de París, acompañado de una memoria explicativa y
haciendo una demostración experimental de su
funcionamiento. Éste se basaba en la transmisión, a
través de ondas de radio, de señales telegráficas. Cada
una de ellas hacía avanzar un paso en un conmutador
rotativo y dependiendo del número de señales recibidas
se actuaba, mediante dicho conmutador, en un circuito
determinado ejecutándose la maniobra
correspondiente.
En 1901 publicó también en Francia, el artículo
Sobre la construcción de máquinas algébricas
donde describía detalladamente la construcción de una
máquina para resolver ecuaciones de ocho términos.
Dicha máquina la empezó a construir en 1910 y fue
concluida en 1920 (actualmente se conserva en la
Escuela de Ingenieros de Caminos, Canales y Puertos
de Madrid).
Hasta ese momento, todos los intentos de
efectuar operaciones a distancia habían fracasado.
Estos ensayos anteriores se habían limitado a una
112
acción en una sola dirección, un único cambio.
Operaciones del tipo encendido/apagado. En ningún
modo se había logrado un aparato capaz de dirigir las
diferentes maniobras necesarias para gobernar a
distancia un móvil. Torres Quevedo lo consiguió,
mediante un original mecanismo de invención propia,
llamado contacto retrasado o retardado que permitía
la recepción de las señales necesarias para la
ejecución de los diferentes mandatos.
dirigible. Torres Quevedo proyectó colocar en el
interior del globo el armazón, que iba de un extremo
al otro, constituyendo la quilla interior rígida y situó la
barquilla muy próxima al globo. Para mantener el
equilibrio de la quilla y la estabilidad de la forma del
globo, ideó poner unos tirantes en forma de triángulos
isósceles invertidos a lo largo del eje. Así, la estructura
interior quedaba compuesta, además de la quilla, por
un conjunto de barras y tirantes que hacen que unos
triángulos sean rígidos y otros flexibles (estos últimos
adquirían su rigidez por la presión interior del gas),
manteniéndose todos unidos entre sí mediante cables,
en una estructura semirrígida que conservaba
invariable la forma del globo. La barquilla quedaba
sujeta al globo fijada a la viga interior mediante un
sistema rígido situado en la parte central inferior.
Los primeros ensayos se llevaron a cabo con
un triciclo que tras repetidas pruebas se optimizó para
aplicarlo a una embarcación. La prueba oficial se
efectuó en Bilbao en 1906, ante una gran multitud y
con la presencia del Rey Alfonso XIII, teniendo un
impresionante éxito popular.
Torres Quevedo animado por este logro,
propuso al Ministerio de Marina que se le permitiese
realizar pruebas para aplicar su telekino al gobierno y
dirección de torpedos. El Ministerio rechazó fríamente
su propuesta y el telekino quedó abandonado. No fue
usado ni industrial ni comercialmente, ni siquiera para
el ensayo de sus dirigibles.
El globo tomaba una forma trilobulada (debido
a la estructura interna triangular) y disponía de un
sistema de bolsas de aire que permitía regular los
ascensos y descensos de manera parecida a como
controlan la profundidad los submarinos. Dejando
escapar el aire, y por tanto dando más espacio al
hidrógeno, aumentaba la fuerza ascensional del globo
y éste subiría. Por el contrario, inyectando aire en
esas bolsas, aumentaría el peso y el globo descendería.
También, este sistema permitía en cierta medida,
compensar la pérdida de lastre que suponía el consumo
de combustible en los motores.
DIRIGIBLES
Como antes se dijo, en 1902 Torres Quevedo
presentó un nuevo proyecto a las Academias de
Ciencias de Madrid y París. Se trataba en este caso
de un dirigible. Centró su análisis en el estudio de las
condiciones de equilibrio de estos globos, pues
consideraba que los problemas más importantes que
afectaban a estas aeronaves eran más de estabilidad
que de propulsión, ya que estos últimos quedaron
resueltos con la llegada del motor de combustión.
El proyecto recibió informes muy favorables
de las Academias de Ciencias española y francesa, y
fue apoyado por el Gobierno español que en 1904,
bajo la dirección de Torres Quevedo, creó el Centro
de Ensayos de Aeronáutica, dependiente de la
dirección General de Obras Públicas, ubicado
inicialmente en Guadalajara.
Llevó a cabo un estudio de las fuerzas que
actúan sobre el sistema globo propulsado por una
hélice con la barquilla suspendida a bastante distancia
de aquél. Advirtió que la fuerza propulsora y la
resistencia del aire, si bien actuaban en la misma
dirección, sus rectas directrices no coincidían,
ocasionando un par de fuerzas que tiende a inclinar el
globo y la barquilla. Los efectos de este par se hacían
más patente al aumentar la velocidad. Este hecho era,
a juicio de Torres Quevedo, el principal obstáculo para
lograr velocidades mayores en el dirigible, y propuso
la coincidencia de la directriz en ambas fuerzas.
Dirigible España
Los globos entonces utilizados eran alargados
y llevaban la barquilla sostenida por medio de un
armazón que solía ser casi tan larga como el propio
Ese año presentó un nuevo proyecto, que sería
su primer dirigible, bautizado con el nombre de
113
la travesía fue llevada a cabo con éxito por un dirigible
R-34 británico.
España que se empezó a construir en 1905 con la
colaboración del ingeniero militar Kindelán. Tendría
una capacidad de 950 m3 y se ensayó en 1907 en el
Parque Aeronáutico Militar de Guadalajara,
detectándose la necesidad de cambiar la tela por
problemas de excesiva permeabilidad al gas. El cambio
de envolvente incrementó el volumen hasta 1050 m3
y se ensayó de nuevo en 1908 con total éxito.
AUTOMÁTICA
La era de la automática la inició con el telekino
(1903-1906), donde aplica por primera vez la
electromecánica. Pero es en enero de 1914 cuando
publicó en la Revista de la Real Academia de Ciencias
su trabajo más importante: Ensayos sobre
automática. Su definición. Extensión teórica de
sus aplicaciones. En este artículo pionero, no sólo
estableció los fundamentos de una nueva ciencia, la
Automática, sino que introdujo dicho término. Si
hacemos un rápido repaso de esta memoria nos
encontramos que:
El 11 de julio de 1906 solicitó la patente
acompañada de la memoria: Un nuevo sistema de
globos fusiformes, que incorporaba algunas
modificaciones respecto de los proyectos iniciales.
Entre ellas señalar: El empleo de una viga flexible
funicular, formada por tres cordones-cables unidos
en los extremos del globo y que a intervalos de 10
cm son atados entre sí por medio de tirantes a modo
de triángulos invertidos. El conjunto se mantiene en
tensión por efecto de la presión del gas interior.
También utilizó un novedoso sistema de unir la viga a
la envolvente y a los cables de sujeción de la barquilla,
garantizando la hermeticidad. Posteriormente, añadió
otras mejoras con sucesivos certificados de adición a
dicha patente.
Clasifica los autómatas atendiendo a las
circunstancias que regulan su acción, en dos
categorías:
Los que actúan en modo continuo,
en ellos se establecen enlaces
mecánicos invariables.
Y los que actúan por intermitencias,
donde los automatismos pueden ser
alterados bruscamente cuando las
circunstancias lo exigen.
Una serie de dificultades, administrativas y de
otra índole, le obligaron una vez más a tomar el camino
a París. La prestigiosa casa francesa Astra solicitó al
ingeniero que le cediese la exclusiva para la
explotación de las patentes del globo. Con la
autorización del Ministerio de Fomento español se
firmó el contrato con la sociedad francesa,
cediéndosele los derechos de explotación para todos
los países excepto España, a fin de posibilitar la
construcción del dirigible en nuestro país.
Hoy en día hablaríamos de sistemas analógicos y
sistemas digitales, respectivamente.
Introduce y define el término Automática
como el estudio de los procedimientos que
pueden aplicarse a la construcción de
autómatas dotados de una vida de
relación más o menos complicada.
Así se inició la fabricación de los dirigibles
conocidos como Astra-Torres. En 1911 se probó el
que sería el primer dirigible Astra-Torres con 1600
m3 de volumen. Poco después consiguió alcanzar la
velocidad de 80 km/h con el Astra-Torres XIV de
8000 m3. En 1914, se construyó el Astra-Torres XV,
de 23000m3, dimensiones análogas a los Zeppelines
alemanes y que logró velocidades próximas a los 100
km/h.
Para dotar a los autómatas de una vida de
relación, propone que éstos contarían con:
Sentidos, esto es aparatos sensibles
a las circunstancias que puedan
influir en su marcha. Por ejemplo:
termómetro,
manómetro,
dinamómetro, etc.
Miembros, es decir, aparatos
capaces de ejecutar operaciones.
Fuente de energía.
Capacidad de discernimiento, lo
que significa que sus acciones
estarían condicionadas a las
Sus últimas aportaciones en este campo se
refieren al proyecto Hispania, patentado el 18 de
octubre de 1919. Se trataba del diseño que realizó en
1918, en colaboración con el ingeniero militar Emilio
Herrera, de un dirigible transatlántico con objeto de
abordar desde España la primera travesía aérea del
Atlántico. Los problemas de siempre, falta de apoyo
y de financiación, demoraron el proyecto. Y en 1919,
114
impresiones que reciben o incluso que
han recibido antes.
Los aparatos más reseñables construidos en
esta etapa son: el telekino, los autómatas ajedrecistas
y el aritmómetro electromecánico. Del telekino ya
hemos hablado, tratemos los otros dos a continuación.
Afirma que desde una perspectiva puramente
teórica, siempre sería posible construir un
autómata cuyos actos, todos, dependan de
ciertas circunstancias más o menos
numerosas, obedeciendo a reglas que se
pueden imponer arbitrariamente en el
momento de la construcción. En términos
actuales se está refiriendo a dotarlos de
inteligencia artificial.
Ajedrecistas
Es en definitiva, un intento logrado de máquina
que juega al ajedrez. La primera en su género.
Construyó dos, en ambas resuelve un final de partida
en el que torre y rey blancos, jugados por la máquina,
dan jaque a rey negro movido libremente por un
adversario humano. El juego está predeterminado
algorítmicamente porque jugado bien, las piezas
blancas consiguen dar siempre mate al rey negro.
Torres Quevedo implementó en este autómata las
reglas a seguir para conseguir este resultado.
Demostrar esta última afirmación es
precisamente, el objetivo de este ensayo y lo
verdaderamente innovador. Hasta ese momento se
creía que a lo sumo sería posible automatizar las
operaciones mecánicas puramente manuales de un
obrero y que nunca podrían ejecutarse mecánicamente
las que exijan la intervención de facultades mentales.
Tras reflexionar sobre soluciones puramente
mecánicas de este problema, incluyendo los
trabajos que en esta dirección desarrolló
Babbage con sus máquinas analíticas, opta
definitivamente
por
el
sistema
electromecánico, empleando circuitos de
conmutación mediante relés.
Para exponer más claramente sus ideas,
decidió ilustrarlas aplicándolas a las máquinas
analíticas, entendiendo por tales, las que
pueden ejecutar todo tipo de cálculo sin ayuda
de nadie. Con esta intención describe los
mecanismos para:
Segundo ajedrecista
El primer jugador fue construido en 1912 y
presentado en París, en el Laboratorio de Mecánica
de la Sorbona, causando gran sensación.
Anotar valores.
Realizar operaciones aritméticas:
suma, resta, multiplicación y división.
Comparar cantidades.
Imprimir los valores dados o
calculados.
El segundo fue proyectado y construido en 1920
por Gonzalo (su hijo) bajo la dirección de Torres
Quevedo. Se presentó en el Congrès de Cybernétique
celebrado en el Conservatoire des arts et des métiers
de París en 1922.
Y como ejemplo proyecta un autómata capaz
de calcular el valor a de la fórmula:
Incluía ciertas mejoras entre las que destacar:
α = a·x·( y − z ) 2
Una presentación más cuidada y
técnicamente más perfeccionado.
Tablero horizontal.
Aviso luminoso y sonoro (gramófono)
de los jaques.
Movimiento magnético de las piezas.
Dispositivo que advertía de las
infracciones que pudiese cometer el
Esta máquina contaría con una unidad
aritmética, una unidad de control, una pequeña
memoria y un dispositivo de entrada de datos y salida
de los resultados. Aunque no llegó a construirse, sí es
de destacar que su diseño se aproxima mucho a las
actuales calculadoras.
115
adversario, avisando hasta en dos ocasiones e
interrumpiendo el suministro eléctrico al tablero
y, por tanto, dejando de jugar en el caso de
cometer una tercera falta.
ocasiones construyó varios aparatos ilustrativos,
incluyendo dos calculadoras más, una balanza
automática y una máquina para jugar al Nim. Sin
embargo, todo apunta a que la construcción de una
máquina analítica completa estaba a su alcance, lo
que habría supuesto adelantarse en más de 25 años a
la Mark I, realizada por Aiken en la Universidad de
Harvard entre 1937 y 1944.
Evidentemente, la tesis planteada en sus
Ensayos de que es posible construir autómatas dotados
de inteligencia artificial, queda demostrada con la
realización de los ajedrecistas.
El aritmómetro electromecánico
BIBLIOGRAFÍA
Es una máquina analítica completamente
automática en la que se teclean los números y las
operaciones en el orden en que se van a ejecutar y el
cálculo se efectúa sin intervención humana. Al finalizar
éste, la máquina imprime el resultado.
GONZÁLEZ DE POSADA, F. Leonardo Torres
Quevedo. Biblioteca de la Ciencia Española.
Fundación del Banco Exterior, Madrid. 1992.
GONZÁLEZ DE POSADA, F. Leonardo Torres
Quevedo. Investigación y Ciencia. No 166, 80-87.
1990.
GONZÁLEZ DE POSADA, F. y GONZÁLEZ
REDONDO, F.A. Leonardo Torres Quevedo (18521936) 1ª Parte. Las máquinas algébricas. La
Gaceta de la RSME, Vol. 7.3, 787-810. 2004.
GONZÁLEZ DE POSADA, F. y GONZÁLEZ
REDONDO, F.A. Leonardo Torres Quevedo (18521936) 2ª Parte. Automática, máquinas analíticas. La
Gaceta de la RSME, Vol. 8.1, 267-293. 2005.
RANDELL, B. From analytical engine to
electronic digital computer: the contributions of
Ludgate, Torres and Bush. Annals of History of
Computing, Vol. 4, No. 4, October 1982.
SANTESMASES, J.G. Obra e inventos de Torres
Quevedo. Instituto de España. Madrid. 1980.
TORRES QUEVEDO, L. Memoria sobre las
máquinas algébricas.Imprenta de la Casa de
Misericordia. Bilbao. 1985.
TORRES QUEVEDO, L. Ensayos sobre
automática. Su definición. Extensión teórica de
sus aplicaciones. Revista de la Real Academia de
Ciencias Exactas, Físicas y Naturales, XII, 391-419.
1914.
En 1920 se presentó en París con motivo del
centenario del primer aritmómetro práctico de Thomas
de Colmar.
Aritmómetro electromecánico
En esta máquina se pone de nuevo en evidencia
la facultad de decisión señalada por su inventor: este
autómata actúa como una persona circunspecta
y reflexiva: examina las circunstancias en que se
encuentra para decidir lo que debe hacer y lo
hace. Facultad de decisión que se aplica
continuamente en las computadoras actuales, por lo
que estos trabajos sitúan a su autor como pionero de
la Automática y precursor de los computadores.
Mª Luisa Aguilar Muñoz
José Eugenio Peláez Delgado
Centro de Ciencia PRINCIPIA
El aritmómetro electromecánico, fue un modelo
concebido para demostrar que la construcción de una
máquina analítica electromecánica era
completamente factible. Aunque nunca llegó a realizar
una máquina analítica completa, sí diseñó y en
116
Descargar