Investigación y

Anuncio
nº8
Noviembre 2010
Revista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco
Roger
Burnett
La ciencia a medida
Mesa de Ideas sobre la importancia de la medición
en la actividad científica, con Eudald Carbonell,
Aurkene Alzua y Enrique Zuazua. Modera: Iñaki Letona.
Proyectos de Investigación
Investigación y
Cáncer
Artículos del Dr. Carlos López Otín (iuopa, Universidad de Oviedo)
y de los Dres. Josep Llovet y Augusto Villanueva (idibaps, Hospital Clínic)
ENTORNO CIC
Entrevista con el experto británico
en biología estructural
Contenidos
Editorial 04
Diálogos Científicos 06
EN PORTADA:
Células de cáncer de
próstata. Imagen coloreada
tomada con micrografía de
barrido electrónico.
«La antesala de los nuevos materiales para
la energía», por Jesús María Goiri.
Nicola G.A. Abrescia, investigador de cic
biogune, entrevista a Roger Burnett, científico
británico de referencia internacional en el
ámbito de la biología estructural y pionero en
el área de la virología estructural.
Divulgación 14
El biólogo y divulgador Eduardo Angulo y el
matemático Raúl Ibáñez reflexionan sobre
el valor de la divulgación científica.
Investigación hoy 22
Una doble mirada sobre la investigación en
cáncer, desde la visión clínica (Josep Llovet
y Augusto Villanueva) y desde la
investigación básica (Carlos López Otin).
Entorno cic 35
Científicos ilustres 80
Mesa de Ideas sobre la importancia de la
medición en la actividad científica, con
Eudald Carbonell (Atapuerca), Aurkene
Alzua (cic tourgune) y Enrique Zuazua
(bcam). Modera: Iñaki Letona.
El Prof. Francisco García Olmedo recuerda
al recientemente fallecido Edwin Krebs,
bioquímico de referencia internacional.
consejo editorial
Editorial
Aurkene Alzua
Eduardo Anitua
Pedro Miguel Etxenike
Manuel Fuentes
Jesús María Goiri
Félix M. Goñi
Joseba Jaureguizar
Xabier de Maidagan
Manuel Martín-Lomas
José María Pitarke
Ana Zubiaga
director
José M Mato
colaboran
Raul Ibáñez
Eduardo Angulo
Josep Llovet y Augusto Villanueva
Carlos López Otin
Francisco García Olmedo
ESS-Bilbao
cic microgune
Alex Bittner (cic nanogune)
redacción y coordinación
La antesala de los nuevos
materiales para la energía
La adquisición de tecnologías por parte de la humanidad es un proceso
complejo e impredecible. Así, desde el punto de vista de la energía, nuestro
modo de suministro todavía nos conecta de manera directa con la era del
vapor. El genio de Faraday y Maxwell, entre otros, abrieron el electromagnetismo para permitir la gran revolución de la electricidad a caballo de la
cual disponemos de un confort que tomamos como habitual y de aparatos
inconcebibles, del dominio de la ciencia ficción hace solo cincuenta años. Sin
embargo, esa conexión con el vapor nos ubica en los mismos principios limitantes descritos por Sadi Carnot en los albores de la Revolución Industrial.
Además, la electricidad continúa con esa dependencia al utilizar los ciclos
termodinámicos como base para su producción. En cierto modo, estamos
entre la Revolución Industrial de principios del siglo xix y las promesas de
la nueva física de la última mitad del s. xx y la primera década del s. xxi.
Jesús M. Goiri es director general de CIC energiGUNE.
De la era de las válvulas electrónicas pasamos, merced al descubrimiento de un material nuevo, el transistor, a un cambio mayor en la
historia que nos provee acceso ubicuo a la comunicación y a la información. El cambio producido se origina en la nueva física, cuyo
desarrollo actual posibilita un conocimiento de la materia casi tan
detallado como queramos.
Aunque lo prudente es no predecir, podemos estar en la antesala de la
creación de nuevos materiales que, de modo similar al transistor que
posibilitó la era digital, remodelen la energía alejándola de la combustión
para centrarla en la conversión directa con énfasis de aplicación en las
energía renovables y en la eficiencia.
Los viejos conocidos fenómenos del mundo físico de conversión directa
entre energías, tales como: fotoelectricidad, termoelectricidad, piezoelectricidad, piroelectricidad, aleaciones con memoria de forma, fotocatálisis,
electroquímica, entre otros, constituirán nuevos modos que, merced al
imparable conocimiento de la materia desde lo cuántico, producirán los
materiales necesarios para lograr una nueva era de la humanidad. Por
tanto, se puede barruntar que los logros de la energía en el futuro no
se basarán únicamente en nuevos descubrimientos de yacimientos de
Guk Estrategias de Comunicación
diseño y maquetación
Nu Comunicación
reportaje fotográfico
Xabier Aramburu
edita
carbono sino en nuestra habilidad de crear nuevos materiales para la
energía. Es en esa línea donde deberemos centrar nuestros esfuerzos de
investigación, aunque sin abandonar el perfeccionamiento de lo tradicional, que ahora nos rodea.
Con cierto optimismo se puede decir que desde la edad del hierro, en
cierto modo la que vivimos en la actualidad, una nueva era de los materiales para la energía nos ha de conducir por derroteros sostenibles, pues
ahora lo crucial en nuestro planeta es satisfacer las necesidades de más
de 6.500 millones personas y, al mismo tiempo, mantener la viabilidad de
la biosfera con su diversidad de especies. En ese sentido todo indica que,
para ello, es clave que cambie radicalmente nuestra forma de suministro
y de consumo energético. Se precisan cuatro movimientos: escapar de
los combustibles fósiles; saber explotar las energías renovables, adquirir
sabiduría para utilizar lo nuclear y establecer nuestras costumbres de
vida alrededor de conceptos éticos y de convivencia más responsables.
Los resultados de una bien meditada investigación básica, orientada en
la Ciencia de los Materiales para la energía, deberán de contribuir a que
la humanidad tenga una estancia más placentera en este desconcertante
lugar en el que nos encontramos todos.
cic Network
Asoc. Red de Centros de Investigación
Cooperativa del País Vasco
Parque Tecnológico de Bizkaia, Ed. 800
48160 Derio (Bizkaia)
info@cicnetwork.es
traducciones
Elhuyar Fundazioa
reserva publicidad
publicidad@cicnetwork.es
+34 943 32 69 66
depósito legal
ss-1228-2006
Esta revista no se hace responsable de las opiniones emitidas por sus colaboradores. Queda
prohibida la reproducción total o parcial de los textos y elementos gráficos aquí publicados.
Diálogos científicos
“Me fascina
el Microscopio Electrónico
por su gran potencial”
Roger Burnett, pionero en virología estructural, entrevistado por Nicola G.A. Abrescia.
Roger Burnett es un científico reconocido
internacionalmente en el ámbito de la biología estructural, por sus aportaciones científicas con estructuras moleculares de virus y
de proteinas virales, especialmente de adenovirus. Actualmente es profesor emérito
en el Wistar Institute de Filadelfia (ee.uu.)
y miembro del Scientific Advisory Board de cic
biogune. El pasado mes de junio visitó este
centro de investigación con motivo de su 5º
aniversario y tuvimos la ocasión de mantener
una interesante entrevista con él.
¿Cuándo surgió su interés por los virus?
Eso fue cuando era estudiante de postgrado, en
el laboratorio de Michael Rossmann. Después de
licenciarme en física, pensé que dedicarme a la
física no era lo más acertado, porque aunque pudiese abrirme paso en el campo de las matemáticas no era algo que conseguiría de inmediato
y además odiaba la electrónica; y claro, ésa no
era la mejor combinación para ser físico. Incluso
pensé en dar marcha atrás, estudiar medicina y
convertirme en médico, ya que me interesaba la
biología. Pero en la Inglaterra de aquél tiempo
Roger Burnett, es profesor emérito en el Wistar Institute
of Filadelfia. Anteriormente fue Profesor de Inmunología,
Química en dicha universidad, y Profesor de Bioquímica
y Biofísica en la Universidad de Pensilvania. Es miembro
del Advisory Board de cic biogune.
Nicola G.A. Abrescia es investigador principal de la
Unidad de Biología Estructural de cic biogune e
Ikerbasque Research Professor.
era muy difícil cambiar de dirección y nunca
obtuve titulación alguna en biología.
Entonces, por casualidad, me llegó una carta
de Michael Rossmann, que acababa de trasladarse del laboratorio de biología molecular del
mrc (Cambridge, Inglaterra) a la universidad
de Purdue (medio oeste de ee.uu.) para poner
en marcha su laboratorio. Esto ocurrió en 1964,
cuando la mayoría de los europeos jamás habían estado en ee.uu. Solo conocíamos ee.uu.
por las películas. Así que yo era un joven entusiasmado con la idea de acudir a ee.uu. para
trabajar en un departamento de biología. Sabía
que cualquier licenciado puede recibir formación en ee.uu. y que así podría estudiar biología
y realizar investigaciones en cristalografía.
Debo confesar que inicialmente no tenía especial interés en la cristalografía. Es más, no
tenía ni idea acerca de la cristalografía. Ahora
parecerá imposible, pero en aquella época aún
no había visto ningún ordenador. Era 1964 y
los ordenadores no eran muy comunes; y menos aún entre quienes no eran licenciados. Así →
7
Diálogos científicos - Roger Burnett
que embarqué en el Queen Elizabeth original
con destino a ee.uu., tomé un autobús de la
Greyhound que habría de llevarme desde Nueva
York a Lafayette Oeste (Indiana), y me pasé los
primeros seis meses sintiéndome como dentro
de una película, porque todo me parecía extraño y exótico. Michael Rossmann vino a buscarme a la estación de autobuses y enseguida me
llevó a un cuarto oscuro, para enseñarme sus
más recientes fotografías de difracción. Resultó
que estaba muy interesado en los virus... Bueno,
creo que, en realidad, no le entusiasmaban los
virus como tales, sino poder desarrollar métodos. Existe un método denominado Método de
Reemplazo Molecular. Él estaba muy interesado
en los virus, porque constan de múltiples copias
de la misma proteína en la misma estructura;
los consideraba un buen modelo o banco de
pruebas para testar sus métodos. Eran métodos
en los que se podía hacer uso del reemplazamiento molecular. Así pues, él disponía de un
pequeño programa [de virus]. De hecho, fui la
8
Diálogos científicos - Roger Burnett
“Debo confesar que inicialmente
no tenía especial interés en la
cristalografía. Es más, no tenía ni
idea acerca de la cristalografía”
primera persona a la que convenció para que
tratase de cristalizar virus. Y así fue, conseguí
pequeños cristales de virus.
¿De qué virus se trataba?
No lo recuerdo exactamente, pero diría que era
el virus del mosaico del pepino (cucumber mosaic virus). De alguna manera, tuve suerte de que
los cristales no fueran de gran tamaño, porque
de lo contrario probablemente aún seguiría con
el doctorado de física en Lafayette Oeste, así que
me dediqué a otra cosa. Esto era una especie de
introducción para explicar que se pueden estudiar los virus mediante la cristalografía.
Pero en aquella época era prácticamente imposible pensar en obtener la estructura de los virus.
Creo que por aquél entonces Stephen Harrison
(en Harvard University) era la única persona que
intentaba seriamente obtener la estructura de
los virus. Después realicé un trabajo de postdoctorado acerca de la flavoproteína, una pequeña
molécula, que sorprendentemente creo que es
la octava o novena de las estructuras registradas
en la base de datos (Protein Data Bank). Era 1973
y yo trataba de trabajar como docente universitario, pero la ciencia en ee.uu., y puede que
en cualquier otro lugar, se comporta de forma
cíclica en lo que a financiación se refiere, y aquel
era un periodo de vacas flacas. Así que era imposible establecer un laboratorio en ee.uu., porque
la cristalografía estaba considerada como algo
exótico y caro, exigía un completo equipamiento
y gran capacidad informática; todo ello era muy
caro. Por lo que decidí preguntarle a Steve Harrison, a quien conocía personalmente, si sabía
de alguna vacante en Europa. Él me respondió:
«Pues un investigador del Biozentrum de Basilea ha cristalizado el recubrimiento proteico del
adenovirus y creo que busca un cristalógrafo».
Escribí al Biozentrum (a Richard Franklin) preguntando si tenían alguna vacante que pudiera
ocupar. Poco después recibí su respuesta; una
oferta de trabajo. Y me trasladé a Suiza. Fue una
época realmente interesante. De hecho, visitando estas instalaciones de cic biogune no puedo
evitar realizar comparaciones con lo que era el
Biozentrum de aquellos días, y es que entonces
el Biozentrum era un lugar relativamente nuevo; fue inaugurado unos cuatro años antes de
que yo llegase. Algo parecido a lo que ocurre
aquí. El sistema universitario suizo estableció
el instituto de Basilea como un instituto independiente dirigido a atraer a investigadores de
todo el mundo y crear un centro de excelencia.
Quedaba fuera de los habituales requerimientos
burocráticos provenientes tanto de la estructura
universitaria como de la administración pública.
Era apasionante vivir allí, y contaba con una potente financiación y un completo equipamiento,
características que también se dan aquí. Vaya,
ha sido una larga respuesta a su pregunta.
Usted nació en el Reino Unido y se trasladó a
ee.uu. ¿Por qué no regresó al Reino Unido? En
aquella época el Reino Unido era la cuna de la
cristalografía.
Cada vez que he cambiado de trabajo, incluso
recientemente, casi al final de mi carrera, he buscando vacantes en Inglaterra, pero nunca había
algo que fuese interesante o estuviese disponible. Además, también pienso que cuando creces
en un lugar desarrollas anticuerpos contra ese
sitio. Y aunque vivir en casa resulta cómodo,
también es confortable vivir fuera del país natal,
porque careces de esa clase de barreras.
grandes. En otras palabras, definiendo la estructura de una pieza es posible desarrollar un
modelo que describa todo el conjunto. Que en
definitiva, es lo que ha funcionado.
Sí, y resulta curioso porque actualmente el Reino
Unido guía la actividad científica en Europa. El
Reino Unido es el único país que puede hacer
sombra a ee.uu., quizás también Alemania. Así
que cualquier investigador desea desplazarse al
Reino Unido o bien a ee. uu.
Recientemente se ha desvelado la estructura de
adenovirus por cristalografía de rayos-x y me decía
usted que existe también una reconstrucción de
adenovirus por cryo-microscopía electrónica a una
resolución de 3.6 Å.... ¿Cómo le hace sentir después de haber dedicado toda su carrera al estudio
del adenovirus?
Durante mi estancia en el Biozentrum, nuestros
recursos eran muy superiores a los que disponía
ee.uu., y para alguien joven, que procedía del
sistema europeo, licenciado y postdoctorado,
todo aquello era perfecto. Era un gran lugar
para emprender un proyecto.
Y fue allí, en Suiza, donde comenzó a trabajar con
adenovirus; virus en los que ha centrado prácticamente todas sus investigaciones.
Así es.
“Visitando estas instalaciones
de cic biogune no puedo evitar
realizar comparaciones con lo
que era el Biozentrum de Basilea”
Es muy interesante, porque llevando tres años
jubilado, creo que tengo cierta perspectiva.
Creo que de haber conocido dichas noticias
durante mis años de investigador... en fin, quiero pensar que habría sabido ser generoso, pero
seguramente hubiera sentido envidia o irritación... No sé cómo me lo habría tomado entonces, pero me complace mucho haber conocido
la noticia. Creo que la cristalografía supuso un
avance semejante en su día, pero lo que más me
fascina es el microscopio electrónico; un gran
avance por todo lo que pone a nuestro alcance.
De hecho, las dos estructuras de adenovirus se
han producido este mismo año 2010. Es una
conjunción positiva. Como bien sabe, fuimos
pioneros en combinar microscopia electrónica
y cristalografía, que actualmente son las técnicas preponderantes. Hoy en día, solo falta la
imagen de un virus obtenida a través de resonancia magnética nuclear....
Dr. Burnett, el adenovirus se ha revelado como
una herramienta enormemente práctica. Usted
–junto con Dennis Bamford y Dave Stuart– originó una especie de revolución en cuanto a cómo
clasificamos los virus.
Sí.
Transformó muchos conceptos; los virus se convirtieron en tema de interés público. Los científicos han clasificado los virus según su morfología
general, su tipo de genoma y demás, al menos
hasta 2002. Entonces, usted, Dave Stuart y Dennis Bamford, propusieron que tal vez los virus
deban clasificarse en base a un criterio diferente:
la semejanza estructural entre las proteínas víricas esenciales que forman los virus, por ejemplo
las referentes a la cápsida. Esto implica la idea de
lineajes virales. ¿Significa esto que los virus que
infectan las bacterias y aquellos que infectan a
los humanos podrían seguir estrategias similares
en la morfogénesis? Es una idea revolucionaria... →
¿Qué los hace tan fascinantes?
Se sabía muy poco acerca de los virus. Si nos fijamos en el recubrimiento proteico de un virus,
y algo que sale de lo común en adenovirus es
que cuando el virus infecta la célula se produce una gran cantidad excedente de proteínas
estructurales. Un investigador puede obtener
esas proteínas y cristalizarlas, y después definir
su estructura. Hallar la estructura completa de
un virus era algo impensable en aquellos años,
porque la cryo-microscopía electrónica todavía no había echado a andar. Era demasiado
para la cristalografía, y el hecho de que el virus
disponga de largas fibras lo complicaba todo
aún más, ya que dificultan la cristalización. Había que tratar de resolver el problema poco a
poco, primero debía aislarse el recubrimiento
proteico (la proteina de la cápsida) y después
tratar de avanzar hacia un mayor nivel de ensamblaje. Podría decirse que era un modelo
con dos utilidades: de un lado obteníamos indicios acerca de la formación del virus y de cómo
se producía el autoensamblaje; y por otro, podía darnos una vía, general en todo caso, para
abordar estructuras macromoleculares más
9
Diálogos científicos - Roger Burnett
Diálogos científicos - Roger Burnett
¿Qué deberíamos obtener centrando la investigación sobre los virus en sus estructuras?
Más que suponer una revolución, unifica criterios. Anteriormente no había criterios. Se
establecían clasificaciones mediante familias
de virus, pero sin saber cómo se relacionaban.
Así que, lo que se hizo fue definir, o desvelar,
esas relaciones. Una vez que las relaciones entre virus han sido descubiertas, se simplifica la
manera de verlos y permiten la investigación en
nuevos campos. Si uno sabe que ciertos virus
tienen algún tipo de relación y descubre algo
referente a uno de ellos, puede que también lo
halle en el virus relacionado. Con lo que surgen
posibilidades, por ejemplo, terapéuticas. Sería
posible hallar un compuesto antiviral que interfiriese en el ensamblaje de esa familia de virus,
y uno podría aplicarlo a dicho virus. Así que es
algo realmente útil.
“La cristalografía supuso un
avance semejante en su día,
pero lo que más me fascina es
el microscopio electrónico;
un gran avance por todo lo
que pone a nuestro alcance”
Este punto de vista unificador es muy interesante. Los físicos siempre han buscado leyes
unificadoras en la naturaleza. Puede que ése sea
el motivo...
En realidad, la idea parte de cuando investigábamos la estructura del recubrimiento proteico
(hexon de adenovirus), incluso antes de obtener estructura molecular alguna, ya que observamos que en las muestras obtenidas en baja
resolución la molécula era cuasi-hexagonal.
Tuvimos que esforzarnos mucho y recurrir a
la tinción negativa de imágenes de fragmentos
de cápsida, para descubrir la organización del
virus. Al mismo tiempo, Nick Wringley obtuvo
mediante un microscopio electrónico bellas
imágenes de grandes virus, como el virus iridiscente de tipula, que cuenta con múltiples copias
proteicas, y pudimos observar que la estructura
cuasi-hexagonal del hexon acogía un conjunto
de empaquetamientos de aspecto hexagonal,
y que la molécula no requería de condiciones
ambientales diferentes para poder formar un
virus de gran tamaño. Un virus tan grande
como se quisiera solo requeriría cinco formas
de empaquetamiento diferentes. Antes de que
advirtiésemos que la esencia de los virus se ha10
lla en su dominio proteico, nos dimos cuenta de
que las capas exteriores tenían gran capacidad
para acoger formas complejas o formas de gran
tamaño de cualquier tipo. De alguna manera,
eran formas simples.
Ha dicho simples... pero si examino el pdb (banco de datos sobre las proteínas) y comparo las
estructuras víricas registradas con las estructuras proteicas o incluso con las estructuras de
proteinas de membranas, veo que no hay gran
número. Pocos investigadores se centran en la
estructura de los virus, y me pregunto cuáles
son las limitaciones, por qué no hay más grupos
de investigación dedicados al análisis de virus
desde la estructura.
No lo sé. Puede que haya muchos investigadores
interesados, y sé que hay mucho dinero disponible para correlacionar proteínas con enfermedades; y es que la estructura de una proteína
que permite abordar cuestiones referentes a enfermedades, una mutación en una encima, por
ejemplo, puede ser causa de enfermedad. Pero
no creo que la influencia del virus sea tan clara,
porque la mayor parte de lo que se puede tratar
con un virus, esto es, con la estructura de un
virus, no explica per se cuál es la relación entre
ese virus y la enfermedad que causa. Puede que
ésa sea una de las razones. Por supuesto, otra
de las razones es el tamaño de los virus, que,
hablando en términos históricos, ha impedido
avanzar en su investigación.
Por tanto, la metodología es una rémora para el
estudio de la estructura de los virus.
Pero no por mucho tiempo. Tenemos la radiación de sincrotrón y todas las ventajas que
aporta...
Sí, sin embargo es destacable que cada vez hay
más estructuras víricas en la emdb (la base de
datos para estructuras obtenidas mediante la
cryo-microscopía electrónica).
Estaba a punto de comentarlo. Sigo considerando que el microscopio electrónico es una
herramienta mejor, en ciertos aspectos, para
el estudio de la estructura vírica, la estructura completa del virus, que la cristalografía.
De hecho esta nueva forma de trabajar con
adenovirus, refleja claramente que la resolución (nominal) ofrecida por el microscopio
electrónico es cada vez menor. Pero en este
punto coinciden el microscopio electrónico
y los rayos-x, ya que tienen prácticamente la
misma resolución.
¿Piensa que los pliegues de las proteínas víricas
son limitados o ilimitados? ¿Cree que conocemos
todos los pliegues que forman las proteinas víricas?
Probablemente no. Y es que tampoco conocemos gran variedad de estructuras víricas.
¿Piensa que hay un reducido número de virus y que
se basa en los mismos principios de ensamblaje?
Si damos por sentado que existen ciertas vías
o líneas de conexión entre virus, parece que
efectivamente no hay gran cantidad de linajes
virales. Digamos que unos diez ó veinte. Además, parece que existen ciertos pliegues víricos
o proteicos que son comunes a cada línea.
Tengo la impresión de que las herramientas predictivas para evaluar el espacio topológico de las
proteínas (no solo víricas) todavía no son lo suficientemente sólidas...
Creo que cada vez queda más claro que el universo de los pliegues proteicos es más limitado
de lo que se pensaba en mis tiempos de estudiante. Entonces todo el mundo pensaba que
existía un número ilimitado de ellos, que cada
proteína se plegaba de forma diferente. Pero es
obvio que no es así.
Actualmente se ejerce cierta presión sobre la
ciencia básica para hacerla cada vez más traslacional, y puede que eso sea algo que concierne a
los investigadores jóvenes. Pero, ¿cuál cree que
es el impacto que la virología estructural tiene
en el desarrollo de una vacuna y/o un fármaco?
¿Es cierto que la conexión entre ambas no es tan
directa como se pensaba?
Creo que es así, probablemente porque la estructura no tiene mucho que ver con el desarrollo de vacunas. No sé mucho acerca de ese
tema, pero me parece que no es necesario tener
grandes conocimientos sobre la estructura para
poder desarrollar una vacuna.
“La estructura del virus
no explica per se qué
enfermedad va a causar”
dificados de proteínas del vih, con la idea de
desarrollar una vacuna para el vih, pero repartiéndola con un gen, en vez de una proteína. Y
para eso, usábamos adenovirus de chimpancé,
de los que habíamos descubierto la estructura, y
la idea era poder utilizar este adenovirus como
vector de reparto en las primeras vacunaciones, porque la mayoría de las personas no han
estado expuestas a virus de chimpancé, a no
ser que sean cuidadores en un zoo; y después
utilizaríamos nuestros conocimientos sobre
la estructura de los hexones para diseñar los
cambios en los loops y así crear otro virus que
pudiera usarse para repartir la dosis de la segunda vacuna o la dosis de refuerzo.
¿Funcionó?
Hoy en día las compañías farmacéuticas pueden
hacer screening in-silico de miles y miles de compuestos con una diana específica. Aun así, todavía
valoro el conocimiento básico de la estructura de
un virus como estrategia para que, comprendiendo sus mecanismos biológicos, puedan desarrollarse aplicaciones biomédicas.
Exactamente. Pero, los adenovirus se han utilizado en una dirección muy distinta que puede
que usted no conozca. Me refiero al reparto de
genes (gene delivery). De hecho, participé en
un proyecto en el Instituto Wistar en el que se
utilizaban adenovirus para repartir genes co-
En principio, sí. Funcionó con ratones (risas).
No ha funcionado en lo que se refiere al reparto
de vacunas del vih, pero ésa es otra cuestión.
Pero la idea de modificar la proteína funcionó, sí.
Los virus patogénicos humanos y animales afectan diariamente a nuestra sociedad. Algunas de las
enfermedades que preocupan a la Organización
Mundial de la Salud son virus como el Ébola, la fiebre de Rift Valley y la gripe y algunos de ellos son
virus emergentes zoonóticos. Pero yo creo que un
proyecto sobre virus se convierte en interesante o financiable cuando llega a los países ricos. ¿Es solo mi
impresión? ¿Qué le parece? Por ejemplo, el dengue
se convirtió en un objetivo cuando llegó a ee. uu.
Sí, creo que la gente de los países ricos es
egoísta, suelen gastar el dinero para sus propios intereses. Se supone que las compañías
farmacéuticas necesitan dinero para financiar
sus investigaciones, por lo que es poco probable
que investiguen enfermedades con las que no
pueden recuperar el coste de las investigaciones. Pero existe un movimiento, como sabe, el
de la Fundación Gates, que intenta solucionar
este problema y financiar áreas que no cuentan con fuentes de financiación convencionales. Aunque no sé exactamente a qué se refiere
con su pregunta, a si la gente es egoísta, si los
países lo son…
No, no. Soy consciente de que existen virus
zoonóticos reemergentes y parece que no se están
centrando en ellos… Puede ser que la fiebre de Rift
Valley o el Ébola sean más conocidos, pero mientras se queden en África, Oriente Medio, Asia o
incluso Australia o Nueva Zelanda, no nos preocupan demasiado.
También está el problema práctico. Investigar
virus de ese tipo, como bien sabe, es mucho
más caro porque se necesitan instalaciones de
contención, todo tipo de trámites para trabajar
con virus, por lo que es mucho más complicado. Por tanto, para un investigador particular
es muy difícil hacerlo, porque tienen que justificar las razones por las que es importante
invertir tanto dinero en analizar una enfermedad que solo puede acarrear problemas al país
que la investigue.
→
11
Diálogos científicos - Roger Burnett
Diálogos científicos - Roger Burnett
¿Por tanto, no tiene preferencias en cuanto a las
líneas de investigación?
No, me parece muy inoportuno tenerlas. Sería
disparatado que yo dijese que en toda España
tienen que trabajar en la estructura de los virus.
Se retiró de la ciencia activa en 2007...
Sí, a finales de 2006, de hecho.
se están creando ahora, como la microscopía
de fuerza atómica que da imágenes de baja resolución, pero será mucho más importante en
el futuro. Aunque es difícil saber qué ocurrirá
en el futuro.
Pero, por ejemplo, ¿qué sistema o trayectoria sugeriría tratar?
¿En qué sentido?
Ahora que su punto de vista es imparcial, ¿cuáles cree que son los retos que deberá afrontar la
biología estructural en los próximos veinte años?
Sin embargo, es fundamental estudiarlas. Algunos de estos virus pueden llegar a los países del
sur del Mediterráneo, por ejemplo, a través de sus
vectores (como mosquitos).
Sí, por ejemplo en España, donde estamos, existen institutos como éste, y se hacen inversiones
considerables en biología estructural, por lo que
estoy seguro de que se hace frente a problemas
que puede que no se hayan estudiado en otros
países. No sé, enfermedades mediterráneas, etc.
Abordemos el aspecto económico de los proyectos. Estamos afrontando una crisis mundial y España está pasando por una época bastante dura.
La situación del País Vasco es algo mejor, pero en
definitiva, se han hecho recortes en investigación.
¿Si fuera el encargado de asignar becas, qué línea
de investigación apoyaría?
Esa es una pregunta muy difícil, porque no creo
que haya nadie tan inteligente como para repartir recursos, a no ser que se use un método que
se ha demostrado que funciona, basado en dar
recursos a los investigadores más imaginativos
y a los mejores. ¿Pero cómo se definen los mejores investigadores y los más imaginativos? En mi
opinión, esta es una cuestión de juicio y gustos.
Lo que siempre me llamaba la atención cuando
formaba parte de una mesa de revisión de becas
era la sorprendente unanimidad para reconocer
proyectos buenos y cosas interesantes, aunque se
suele pensar que cada miembro tendrá sus preferencias a la hora de elegir lo que es bueno o lo que
merece la pena apoyar. Me puede decir, por su12
puesto, que todos somos muy homogéneos o que
no hemos sido entrenados para ser imaginativos.
Y, por supuesto, hay algunas tendencias sobre lo
que es interesante en cada momento. Pero, en
general, creo que si han recibido una buena formación, la mayoría de los científicos son bastante
imaginativos; creo que cuando ves algo interesante, se puede reconocer. Así que dar recursos
a gente con buenos antecedentes es una manera
de repartirlos. El problema es, por supuesto, que
se debe financiar a jóvenes investigadores sin
ninguna trayectoria. Y la tasa de éxito es menor.
Es difícil decir en cada fase si alguien llegará a la
siguiente. Recuerdo que cuando era estudiante de
doctorado, miraba a mis compañeros y pensaba:
«¿por qué molestarme en investigar, si ellos son
tan inteligentes?»; pero no todos terminaron el
doctorado. Luego pasas al siguiente nivel y te encuentras con postdoctorandos realmente increíbles, pero no todos terminarán el postdoctorado
con éxito, ni publicarán artículos. Luego están los
profesores adjuntos que comienzan su carrera y
aunque algunos son muy inteligentes, no todos
seguirán adelante y promoverán un proyecto. Así
que creo que para tener una carrera de investigación, ser productivo, trabajar en el laboratorio y
ser capaz de tratar con personas, etc., necesitas
capacidades bastante amplias y puede que no se
vean de antemano. Por tanto, lo dicho, creo que
no importa lo mala que sea la situación económica, siempre se debe invertir en nuevos laboratorios para investigadores jóvenes, porque nunca
se sabe cuál de ellos será brillante.
Veamos las diferentes disciplinas una por una.
Hablaremos de cristalografía, porque es una
de las que mejor conozco; quiero decir que me
sorprendí muchísimo cuando visité estas instalaciones de cristalografía, al comprobar que
el equipo que teníamos cuando yo me retiré era
como del siglo xix. La gente todavía realizaba
cristalizaciones a mano y ahora existen robots
y máquinas para hacerlo; está claro que todo se
está automatizando, la habilidad de cristalizar
en diversas condiciones con pequeñas cantidades de proteína; está claro que se ha mejorado
muchísimo la habilidad de cristalizar cosas y
descubrir estructuras. Todo eso está muy bien,
porque así se pueden tratar más cosas. Aunque
la cristalografía de proteínas está avanzando
en una dirección en la que casi se ha convertido en una instalación de servicios. En otras
palabras, es como si alguien dijera: «tengo una
proteína interesante y quiero descubrir su estructura»; y entonces se la diese al laboratorio
y éste descubriese la estructura. Por lo que la
cristalografía de proteínas se convertiría en lo
que hoy en día es la cristalografía de moléculas
pequeñas; solo un servicio adjunto, como en
la industria farmacéutica donde encuentran
cientos de compuestos al día. Por lo tanto, la
pregunta es: ¿qué ocurrirá con los que se formen en cristalografía de rayos-x, cómo será su
existencia en el futuro? ¿Serán solo técnicos?
¿Cómo continuarán contribuyendo a la ciencia
de un modo más científico e imaginativo? No
sé la respuesta a esa pregunta, pero seguramente la microscopía de electrones y el rmn
aún no han llegado a este punto de automatización. En cuanto al rmn, todavía exige mucha interpretación manual; pero desde luego la
microscopía electrónica va por esa dirección.
Todas estas técnicas están dirigidas a convertirse en técnicas consolidadas, por lo que la
gente interesada en la estructura tendrá todas
estas herramientas potentes al alcance de su
mano. Puede que haya otras herramientas que
“No importa lo mala que sea la
situación económica, siempre
se debe invertir en nuevos
laboratorios para investigadores
jóvenes, porque nunca se sabe
cuál de ellos será brillante”
Por ejemplo, ¿se debería estudiar la señalización
de células, las estructuras virales, la regulación
de cromatina? ¿Cuál le parece un tema candente?
Por ejemplo, actualmente muchos laboratorios
centran su atención en la proteínas de membrana
y de canales iónicos…
Sí, he dejado aparte las proteínas de membranas porque todavía es un ámbito difícil. Pero
creo que, de alguna manera, los avances en
torno a la estructura pueden llegar de cosas
más grandes que, digamos, un complejo macromolecular, puede que de imaginar partes
de células. O hay formas en las que se puede
desarrollar un microscopio de rayos-x con una
resolución extremadamente baja que puede
obtener imágenes de orgánulos celulares. Por
tanto, sería fantástico que alguien pudiera hacer eso, de la misma manera que alguien consiguió ver los recubrimientos proteicos de los
virus con estructuras de rayos-x para obtener la
arquitectura completa, si alguien pudiera usar
el gran número de estructuras que conocemos
al detalle, para intentar unir las grandes organizaciones de orgánulos en las células y esa es
la nueva frontera, ¿no le parece?
Ahora, volvamos a los retos de la biología estructural. Pensemos que va a emprender una nueva
profesión: la profesión científica. ¿Qué sistema
sería su objetivo? El suyo personal. Digamos que
comienza otra vez en cic biogune.
No lo sé.
¿Cambiaría su campo de interés?
De hecho, creo que mi carrera profesional ha
sido muy satisfactoria, porque mi objetivo era
aprender más sobre biología e integrarlo con la
física. Cuando era estudiante de postgrado, me
interesaba muchísimo la informática; como
físico, te gusta juguetear con cosas para poder usar, en definitiva, instrumentos. Aunque
nunca conseguí mi objetivo de convertirme
en doctor, terminé como profesor en una escuela de medicina; por lo que he tenido una
vida muy rara y me siento muy afortunado,
he seguido solo lo que me parecía interesante, lo que me parecía satisfactorio en términos
científicos; también ha sido muy gratificante
personalmente. Así que es difícil imaginar ser
tan afortunado otra vez (risas).
Recientemente Craig Venter ha publicado un artículo sobre las primeras células con un genoma
sintético. ¿Qué opina del hecho de que seamos
capaces de producir células sintéticas?
Bueno, en cierto sentido, hemos estado produciendo células sintéticas durante mucho
tiempo, porque se ha estado jugueteando con
varios genes y el hecho de que él haya creado
uno totalmente sintético… estoy seguro de que
se basó en los que estaban funcionando, porque
la probabilidad de conseguir uno correcto es
muy pequeña, aunque sea sintético, probablemente se parecerá a algo que ya existe. No lo he
mirado detalladamente, pero creo que estoy en
lo cierto. ¿Es así?
Sí. Ya ha pasado dos días y medio aquí y ha visto
qué es cic biogune. ¿Cuál es su impresión sobre
el instituto? ¿Cuál es su opinión sobre lo que ha
visto, como miembro del Consejo Asesor Científico? ¿Y sobre la gente que ha conocido?
Bueno, es obvio que es la gente la que hace el
instituto, se puede tener un edificio precioso,
pero sin la gente adecuada sería un desastre. El
edificio, el marco físico, y las infraestructuras
son magníficas. Es un sitio muy agradable para
trabajar, porque como ya he dicho, me recuerda al Biozentrum cuando yo me incorporé en
los setenta. Está muy bien equipado. Obviamente, por lo que puedo ver está bien dirigido,
porque se deja a los científicos que hagan su
trabajo; y lo que me ha impresionado mucho
es que el grupo de investigadores es muy joven
y la gente es muy entusiasta. Todos los que he
conocido se divierten estando aquí, haciendo
su trabajo. Así que creo que se conseguirán
buenas cosas. Está claro que como cualquier
organización, necesita cuidados y encontrar
una forma en la que desarrollarse. Pero creo
que le espera un buen futuro.
13
Divulgación - La cultura científica o la misteriosa identidad del señor Gauss
La cultura científica
o la misteriosa identidad del señor Gauss
Raúl Ibáñez Torres, profesor de Geometría en la upv/ehu
A pesar de que desde hace varios años se viene proclamando, por parte de algunas personas del ámbito de la cultura, pero fundamentalmente por
quienes estamos trabajando en la divulgación de la ciencia, la falsedad de la existencia de dos culturas distintas, además de enfrentadas, la humanista (que es la que la sociedad en su conjunto denomina erróneamente cultura a secas) y la científica, sigue siendo necesario llevar este debate ante la
opinión pública. La sociedad está reconociendo cada vez más el destacado papel de la ciencia, y de la tecnología que emana de ella, para su progreso
y el del conocimiento, aunque desde una óptica cultural se la mira como algo anecdótico, sin excesivo interés y prescindible. Por cultura se entiende
habitualmente la de letras, despreciando las aportaciones, el interés y trascendencia de la ciencia en la misma, y solo recientemente se ha empezado a
utilizar el término cultura científica para admitir por fin que la ciencia en sí misma puede ser parte de la cultura, aunque dejando muy claro que no es
la cultura con mayúsculas, es decir, la de las humanidades, y manteniéndola completamente alejada de ella, separada por un muro artificial.
Si miramos al diccionario de la rae, en su vigésima segunda edición,
nos encontramos con dos acepciones interesantes, en relación con este
debate, de la palabra «cultura»,
···· conjunto de conocimientos que permite a alguien desarrollar un
juicio crítico.
···· conjunto de modos de vida y costumbres, conocimientos y grado de
desarrollo artístico, científico, industrial, en una época, grupo social,…
Raúl Ibáñez Torres es profesor titular de Geometría (upv/ehu). Su
investigación se centra en la Geometría Simpléctica y en la Cultura
Matemática. Ha participado en 23 proyectos de investigación, en
9 de ellos como investigador principal. Es director de Divulgamat,
miembro del Raising the Public Awareness of Mathematics de la
European Mathematical Society, ex-vicepresidente segundo de
la Real Sociedad Matemática Española. Premio de Divulgación
Científica José María Savirón 2010.
14
En esta segunda acepción, el propio diccionario ya reconoce la presencia
relevante de la ciencia en la cultura, mientras que en relación a la primera, ¿cuáles son esos conocimientos que permiten desarrollar un juicio
crítico? En mi opinión, la formación de las personas tiene dos pilares
fundamentales, las matemáticas y el lenguaje, que junto con las demás
enseñanzas, tanto científicas como humanistas, forman a los jóvenes de
nuestra sociedad, convirtiéndoles en personas adultas, independientes
y críticas. En ambos casos, no solamente es fundamental la aportación
de los dos lados del conocimiento y la cultura, sino que en realidad estos
están enmarañados. No podemos, y no debemos, separarlos. Al realizar
de forma artificial dicha escisión, que bien podríamos calificar de quirúrgica, parte de nuestro saber y de nuestra cultura desaparecen, o se ven
mutilados, en la operación.
De igual forma, la división de la humanidad bajo las denominaciones de
letras y de ciencias, no solamente es artificial, sino que es simplista, falaz
y esconde un problema más complejo, del que hablaremos más adelante.
Caricatura de Gauss por Enrique Morente Luque (Exposición «El Rostro Humano de las Matemáticas», RSME)
Divulgación
Xxxx xxxx xxx xxxxx
Hipercubo
Retrato de Ambroise Vollard. © Sucesión Pablo Picasso, VEGAP, Madrid, 2010
Yo soy de ciencias
La existencia de dos mundos separados, el de ciencias y el de letras, hace
que desde bien jóvenes tengamos que elegir en cuál de ellos habitar, y que
miremos con recelo a los habitantes del otro. La propia sociedad nos ha
enseñado que debemos considerar natural esta supuesta realidad. Por
ejemplo, ya en la universidad, esta divergencia se manifiesta de una forma
bastante clara, los de letras suelen opinar de los de ciencias, y con mayor
vehemencia si es de los matemáticos de quienes se está hablando, que
son empollones, aburridos, cabezas cuadradas, faltos de imaginación, o
incluso unos incultos, mientras que estos piensan de los primeros que no
estudian nada, están siempre de fiesta, sus carreras son ligeras, utilizan
su imaginación para escaquearse y juegan con el lenguaje para parecer
cultos. La separación entre ambos colectivos se mantiene desde las dos
partes, mirándose con suspicacia o simplemente intentando ignorar la
existencia de los otros.
Sin embargo, en mi opinión, que seguramente, y con razón, pueda ser
calificada de subjetiva y sujeta al mismo defecto que se está intentando
combatir, la situación no es simétrica y desde el mundo humanista hay
una mayor militancia en contra del científico. Con bastante frecuencia
los habitantes de éste se encuentran con la expresión «yo soy de letras»,
que suele ser utilizada a modo de comodín o escudo contra ellos. Una
situación en la que es habitual escuchar esta expresión es cuando dos
personas, una de letras y otra de ciencias, se conocen (ya sea un periodista que tiene que entrevistar a un científico, un artista y un físico que
coinciden en un acto público, o los padres/madres de dos amigas de la
escuela), y suele ser utilizada por la primera como defensa a la supuesta agresión de la persona de ciencias, con el fin de cortar todo intento
que pueda existir por parte de ésta de hablar de su trabajo o de temas
científicos, para que sepa que se considera de mal gusto que hable de su
ocupación, que no interesa lo que pueda contar o simplemente que no
se moleste ya que no le van a entender, ni van a intentarlo. Sin embargo,
no suele ocurrir que un científico se defienda con la expresión «yo soy de
ciencias» para que su interlocutor no mencione sus preocupaciones laborales o temas como el arte, la música, el cine, la historia o el periodismo.
Serán materias de las que podrá dialogar con toda naturalidad e interés.
Aunque por desgracia aún tenemos mucho que avanzar para que en una
conversación se puedan tratar con normalidad temas relacionados con la
ciencia, es curioso observar la sorpresa que en ocasiones se llevan los de
letras, cuando descubren que su interlocutor, de ciencias, no solamente
es capaz de charlar de esos temas de cultura general, sino que en muchas
ocasiones son unos apasionados o incluso expertos en alguno de ellos.
La expresión «yo soy de letras», o si el tema está relacionado en algún
sentido con las matemáticas, manifestaciones del tipo «los números no
son lo mío» o «a mí con las cuatro operaciones me vale y me sobra», suelen
utilizarse también para justificar un error relacionado con la ciencia (por
ejemplo, un error en un cálculo numérico, un porcentaje mal utilizado, o
confundir un quark con una galaxia o un tipo de estrella), o incluso para
anticiparse al posible error, como un método de defensa. Aunque esta expresión se usa con normalidad, y sin ningún pudor, no se entendería el empleo –de hecho ningún matemático o científico lo haría- de la frase «yo soy
de ciencias» para justificar faltas de ortografía cometidas, un informe mal
redactado o un error al establecer la época de un hecho histórico relevante.
Más generalmente, la expresión «yo soy de letras» suele servir para transmitir, pero sobre todo justificar, con cierto orgullo, la falta de cultura
científica. Se considera normal, incluso para los que somos de ciencias, →
15
Divulgación - La cultura científica o la misteriosa identidad del señor Gauss
conocer ciertos hechos históricos, las características de algunos movimientos artísticos, o quiénes eran personajes como Wolfgang A. Mozart,
William Shakespeare, Winston Churchill, Charles Chaplin o Pablo Picasso,
sin embargo, no hace falta saber quiénes eran Carl F. Gauss, Isaac Newton,
Marie Curie, James D. Watson y Francis Crick, o Dame Jane Goodall, cuándo y cómo se unificaron y universalizaron los sistemas de medidas o
cuándo ocurrieron algunos hechos científicos relevantes. Mientras que
a un científico, o a cualquier persona, se le tachará de inculta si no sabe
contestar a la primera serie de cuestiones, alguien del mundo de las humanidades que no sepa contestar a ninguna de las de la segunda serie,
simplemente tendrá que utilizar el comodín «¡es que yo soy de letras!».
¿Por qué se mantiene esa separación absurda entre personas de ciencias
y de letras, entre la cultura científica y la cultura (de las humanidades)?
La mayoría de los muros que se levantan en nuestro planeta son fruto
de la ignorancia o el desconocimiento de la otra realidad, así como del
miedo. Y este caso no es una excepción.
Consecuencias de la brecha entre las dos culturas
Pudiera pensarse que la división de la población en personas de ciencias
y de letras, es algo similar a ser del Madrid o del Barcelona en fútbol, ser
de Kas Naranja o de Kas Limón como en el anuncio publicitario o ser
una persona que tiene perro o tiene gato, es decir, una elección personal,
inofensiva, que seguramente definirá parte del carácter del individuo
pero sin graves consecuencias. Sin embargo, no es así. Esa separación,
y más generalmente la brecha entre las culturas científica y humanista
(en realidad, la consideración de la cultura de letras como la única, y el
menosprecio y olvido de la ciencia) sí tienen secuelas en nuestra sociedad,
tanto en lo personal, como en lo social.
En mi opinión, que seguramente sea tildada de exagerada por algunos de
los lectores de este artículo, un efecto negativo que esta situación puede
tener en lo personal es la falta de un desarrollo completo en la formación
de algunas personas (por supuesto que la cuestión de qué es un desarrollo personal completo es muy interesante, así como clave para definir la
educación que deben recibir los jóvenes, aunque no es el tema de este
artículo). ¿Por qué? Este desprecio de la cultura científica hace que como
sociedad no valoremos la importancia de la ciencia, y de las matemáticas,
en la educación, y que los jóvenes (que lo han heredado de sus familias
y su entorno social) las miren con desinterés, más aún con temor, como
es el caso de las matemáticas escolares. En consecuencia, el desconocimiento o la mala formación en temas científicos, y muy especialmente
en matemáticas, hace que hombres y mujeres no estén bien preparados
para muchos temas de su vida, tanto personal como profesional, en los
que un mínimo conocimiento científico es indispensable.
Algunos ejemplos. En 2008 pudimos leer el titular «Cinco países europeos recomiendan a sus sanitarios estudiar cálculo», y en la noticia se
explicaba que «hasta un 45% de los fallos hospitalarios tienen que ver
con un cálculo erróneo de los medicamentos suministrados por médicos
y enfermeras». Somos muchos los que a diario leemos el periódico para
estar informados, y se supone que la formación recibida en nuestra educación es suficiente para poder entender sus artículos. Una gran cantidad
de los mismos pueden tener contenido relacionado con la ciencia, pero
además, mucha de la información que se suministra se realiza en un formato matemático (estadísticas, probabilidades, medidas, proporciones,
gráficos, datos numéricos,…), luego este saber es imprescindible, tanto
para el periodista que escribe el texto de la noticia, como para el lector.
16
Por ejemplo, el hombre, o la mujer, del tiempo anuncia: «La probabilidad
de que llueva el sábado es del 50% y la de que llueva el domingo también
es del 50%, por lo tanto, la probabilidad de que llueva el fin de semana
es del 100%». Aunque esto pueda parecer un chiste matemático, errores
similares a este (por cierto, la probabilidad de que llueva el fin de semana
sería del 75%) se encuentran en la prensa (véase Un paseo por los medios
de comunicación de la mano de unas sencillas matemáticas, R. Ibáñez,
Revista sigma 32, 2008; o la web malaprensa.com). Por otra parte, cuando
leemos un informe médico, económico o de otra índole, ya sea de nuestra
vida privada o de nuestro trabajo, en una empresa o en la administración,
debemos de entenderlo bien para poder extraer el conocimiento útil del
mismo y tomar las decisiones correctas, y ahí el conocimiento científico
también es primordial.
Si hablamos de nuestra sociedad, el desprecio de la ciencia está llevando
a una falta de conocimiento de nosotros mismos y de nuestra cultura
(incluyendo la humanista). Un ejemplo ilustrativo puede ser el siguiente.
A finales del siglo xix, y principios del xx, la cuarta dimensión (que venía
de las matemáticas) fue un tema que interesó y cautivó a científicos,
artistas, filósofos, escritores, personas religiosas, y público en general.
En particular, tuvo una influencia importante en el cubismo, así como en
Divulgación - La cultura científica o la misteriosa identidad del señor Gauss
otros movimientos artísticos del siglo xx. Sin embargo, hasta los años 70,
en los estudios y publicaciones de Historia del Arte sobre el cubismo no
aparecían referencias a las dimensiones superiores, lo cual seguramente
era consecuencia de la falta de formación matemática e interés científico
de los historiadores del arte, a pesar de que los propios artistas hablaban
de la cuarta dimensión en sus escritos (cartas, conferencias, artículos o
libros). Por suerte, la situación cambió en los años 70 y hoy es un hecho
conocido y ampliamente documentado (véase por ejemplo La cuarta
dimensión. ¿Es nuestro universo la sombra de otro?, R. Ibáñez, rba, 2010).
En general, una cultura y un conocimiento científicos pobres (y en particular, la incomprensión de una herramienta fundamental como son las
matemáticas), hace que quienes tienen capacidad de decisión (ayuntamientos, gobiernos de autonomías o de la nación, empresas, fundaciones,
etcétera) aprueben leyes y actuaciones fundamentales para nuestra sociedad teniendo una visión sesgada de la misma, lo cual tiene consecuencias
negativas para nuestro presente y nuestro futuro (economía, desarrollo
del país, educación, investigación científica y tecnológica, promoción de
la cultura, organización de actividades culturales,…).
La divulgación de la ciencia
La solución al problema de la brecha entre ciencias y letras, y de sus nefastos efectos en la sociedad, es la divulgación de la ciencia. Esta no solamente traerá una mayor cultura científica y acabará con la confrontación,
sino que provocará un cambio de actitud de la población hacia las matemáticas y la ciencia, la desaparición del temor a ellas, un mayor interés
por las mismas, una mejora de su imagen social, que las personas sean
científica y matemáticamente más activas, pero también estimularán el
desarrollo de la actividad en ciencia y tecnología, de la cultura científica
y de sus relaciones con otras partes de la cultura. Teniendo en cuenta que
los jóvenes de hoy se convertirán en las personas que dirigirán el mundo
en el futuro, la divulgación científica debe de empezar en la escuela, pero
no debe de quedarse ahí, sino que debe de extenderse a través de todo el
sistema educativo, y a la sociedad en su conjunto.
Cuestiones como la importancia de la divulgación de la ciencia en nuestra sociedad, cómo y quiénes deben realizar esa labor, a través de qué
medios, qué temas divulgar y cuál debe de ser el nivel científico de los
mismos, a quién debe dirigirse, entre otras, son sumamente interesantes
y merecerían un comentario más extenso que dejaremos para otra ocasión, puesto que queremos terminar analizando brevemente el papel de
la universidad en la cultura científica.
La cultura científica en la universidad
Si centramos nuestra atención en los retos de futuro que tiene la universidad es probable que algunos únicamente piensen en el diseño y la
gestión de la educación superior de nuestros jóvenes -los conocimientos
y la sociedad cambian por lo que hay que adaptar la enseñanza universitaria a los nuevos tiempos- y también de la investigación -en la que la
universidad debe de liderar la adquisición de nuevos conocimientos, el
desarrollo de nuevas tecnologías o la creación cultural. Sin embargo, a
estos dos retos, que han existido desde el inicio de la universidad (y que,
de hecho, la definían hasta ahora), se les ha añadido un nuevo pero importante reto, la divulgación de la ciencia, aunque tendríamos que hablar
realmente de la difusión de la cultura en su totalidad.
Hasta hace no mucho tiempo, la divulgación científica tenía un papel
marginal dentro de nuestra sociedad, mucho más la matemática en la que
hubo que esperar al año 2000 –Año Mundial de las Matemáticas- para que
llegara su despertar, e incluso hoy en día nos encontramos con medios
como la televisión en los que siguen siendo reacios a incluir ciencia en
su programación, o simplemente a ofrecer noticias relevantes del ámbito
científico. Además, la difusión de la cultura científica se estaba desarrollando fuera del ámbito universitario, por periodistas que habían girado su
carrera hacia la ciencia o personas con formación científica que, a través
de museos o revistas, trabajaron al margen de la universidad. Dentro del
profesorado universitario se consideraba más un hobby personal que una
labor valiosa que debían desarrollar y dentro de la institución tampoco
había un gran interés en ella. Incluso no se veía con buenos ojos que
algunos profesores se dedicaran a malgastar su tiempo, y, en el fondo, el
de la universidad, en este tipo de labores.
Pero la situación ha cambiado, si no radicalmente sí de manera destacada.
Se ha desarrollado un trabajo significativo en la transmisión de la cultura
científica, tanto desde los museos, las editoriales y revistas, como desde
la propia universidad, en la cual el profesorado ha empezado a darse
cuenta de la importancia de esta labor, y de la conveniencia de que ellos,
y ellas, estén involucrados, directa o indirectamente, en la misma. Se han
organizado actuaciones de una gran calidad, con destacada presencia del
público general, e incluso interés por parte de los medios de comunicación, que han servido de aval para el futuro.
e +1=0
iπ
La universidad ha entendido perfectamente la importancia que tiene la
divulgación, así como que le corresponde a ella intentar liderar en gran
medida el enorme trabajo que tenemos por delante, tanto en el desarrollo de la propia tarea de difusión, como en la gestión de la misma. Pero
cuidado, reconocer el valor de la divulgación científica está bien, apoyar
al profesorado en el desarrollo de la misma también, pero es necesario
que haya un reconocimiento real, desde la universidad y también desde
la administración, del trabajo que desarrollamos, no considerándolo un
trabajo de segunda o de una cualificación inferior.
La universidad tiene la obligación moral y social de divulgar la cultura
científica, y la no científica también, que en gran medida surge de entre
sus paredes. La sociedad demanda cada vez más un mayor conocimiento
de una institución de la que depende la educación superior, la investigación y el desarrollo cultural, quiere saber en qué se gasta el dinero que se
invierte en ella y por qué es importante seguir invirtiendo, quiere saber
qué educación se está ofreciendo a nuestros jóvenes, qué investigación
desarrollan sus miembros y la relevancia de ésta para la sociedad, pero
también la sociedad ha entendido, o está empezando a entender, que la
ciencia forma parte de la cultura de la humanidad, y que el desarrollo
personal y social no puede dar la espalda a la ciencia, y confía en la universidad como difusora de la cultura científica. Además, la propia imagen
social de la institución depende también de esta actividad.
Estamos ante un reto ilusionante para el futuro como es el diseño y construcción de esa nueva parte del edificio universitario que es la divulgación, la difusión de la cultura humana.
17
Divulgación - Reflexiones y profecías
Divulgación
Xxxx xxxx xxx xxxxx
Reflexiones y profecías
Eduardo Angulo, profesor de Biología Celular de la upv/ehu
Fue en 1981. El aceite de colza tóxico mataba por media España, y el entonces Ministro de Sanidad y Catedrático de Física, Jesús Sancho Rof, declaró que el síndrome era «una neumonía provocada por el Mycoplasma pneumoniae», y añadió con énfasis y afán pedagógico, mal aconsejado y
bastante temerario, que el micoplasma no era peligroso ya que, en su opinión, «es un bichito tan pequeño que si se cae de la mesa se mata».
Una sociedad como la nuestra, rodeada, inmersa, en la ciencia y la tecnología no se merece el nivel de educación científica que tienen sus ciudadanos y, lo que es peor, sus dirigentes. Como afirma la Premio Nobel
Christiane Nüsslein-Volhard, es inquietante que el discurso público de
cualquier tipo a menudo premie la ignorancia científica. Es evidente que,
si la mayoría de los ciudadanos tienen un nivel bajo de educación cien-
Eduardo Angulo es doctor en Ciencias Biológicas y profesor
titular de Biología Celular de la upv/ehu. Docencia desde 1978
en la Licenciatura de Biología. Investiga la relación entre células
y tejidos con el medio ambiente, con más de un centenar de
artículos publicados en revistas nacionales e internacionales.
Autor de Julio Verne y la Cocina, La vuelta al mundo en 80 recetas
(2005), Monstruos, Una visión científica de la Criptozoología (2007),
y El animal que cocina, Gastronomía para homínidos (2009). Ha
colaborado en el libro colectivo Misterios a la luz de la Ciencia
(2008). Desde 2007 lleva los blogs La Biología Estupenda y Cine,
Literatura y Medio Ambiente. Director del Colegio Mayor Miguel
de Unamuno, de la upv/ehu.
18
tífica, las decisiones que se tomen basadas en la ciencia y la tecnología,
que son casi todas, pueden resultar desde casualmente adecuadas hasta
absolutamente inverosímiles. Y así ocurre, por ejemplo, con la inclusión
o no del creacionismo en la educación, la polémica sobre el aborto, las
centrales nucleares y su seguridad, los organismos transgénicos y sus
peligros, el cambio climático, la exploración del espacio y tantos otros
asuntos a debatir y decidir democráticamente. Son decisiones que nos
conciernen a todos.
Hoy no se puede, no se debe, ser un analfabeto en ciencia y tecnología.
Un ignorante es manipulable, no tiene ni criterio ni conocimientos, ni
siquiera los más básicos, y, como todo ignorante, es atrevido y actúa según
sus creencias, y con fe suficiente, esas creencias son inamovibles y difíciles
de cambiar. Por tanto, el dilema está claro: o deciden los ciudadanos en
su ignorancia plagada de convicciones pétreas, o deciden los ciudadanos
después de recibir una educación científica y tecnológica adecuada que
promueva el interés por la ciencia y se renueve a través de una buena
divulgación. Debemos comprender y difundir con energía la aportación
esencial de la ciencia a la construcción de la sociedad democrática. Juan
Ignacio Pérez, antiguo Rector de la Universidad del País Vasco (upv/ehu),
lo subraya con acierto al destacar que no existe sociedad democrática sin
ciencia y que no puede existir una ciencia de futuro en una sociedad no
democrática. Ciencia y democracia son, a pesar de algunos, las dos caras
del dios Jano, aunque, por una vez, ambas miran en la misma dirección.
En conjunto, ciencia y tecnología nos rodean por todas partes e influyen,
más bien más que menos, en nuestra vida diaria o en nuestras decisiones
más importantes. Es necesario transmitir el conocimiento en ciencia y
tecnología para que podamos comprender nuestro mundo y planificar el
futuro. La divulgación científica es esencial en una sociedad democrática.
Lo dicho me lleva a reflexiones sobre la divulgación científica que, quizá
ya expuestas muchas veces por personas mejor preparadas, me provocan
una cierta inquietud y un deseo de presentarlas de nuevo en esta ocasión.
Antes de continuar, necesito aclarar que considero que comunicación
científica y divulgación científica no son lo mismo. La comunicación
científica proviene de instituciones y personas que difunden líneas y resultados de investigación. Dan a conocer la ciencia y sus resultados a la
sociedad. Es necesaria socialmente: legitima y justifica la investigación
científica y la dedicación y el gasto que supone. Tiene apoyos pues son
las propias instituciones y empresas quienes la promueven para dar a
conocer lo que hacen. Sin embargo, hay que destacar que muchas noticias
que provienen de la comunicación científica, quedan en simples notas en
la prensa en las que ni siquiera se cita la fuente. Se ahorra sitio y se pierde
credibilidad al no citar la institución o la publicación de procedencia.
La divulgación científica, en general, más que instituciones, la hacen
personas. Contiene todas las características que hemos dado a la comunicación científica pero, además, es educativa y es pedagógica. Exige
un esfuerzo, a veces importante, al receptor, y por ello, también implica
su compromiso previo con la ciencia y la tecnología. No es habitual que
compre un libro o vea un documental de divulgación científica quien no
se interese por la ciencia. Aunque el compromiso con la ciencia puede
ser pasivo e inconsciente, tal como ocurre con los documentales sobre
la naturaleza: el receptor se asombra, se sorprende, se interesa, pero
también aprende. Cada vez se destaca más, en la divulgación, este aspecto lúdico y cualquier excusa divertida ayuda a enseñar ciencia. Quizá
sea banalizar la ciencia pero, es indudable que es eficaz. Además, si la
divulgación demuestra emoción por lo que expone es más eficaz: la emoción atrae y ayuda al aprendizaje y la mejor emoción es la que implica
cercanía y cotidianeidad. Siempre, claro está, que no ahogue la certeza
y objetividad de la ciencia.
Ambas, comunicación y divulgación, deben mostrar la ciencia y sus valores, metodología, conocimientos, beneficios, costes y peligros. Por ello, la
divulgación no es bien vista por grupos políticos y sociales que prefieren
un ciudadano ignorante y, por tanto, más fácilmente manipulable.
Jesús Ávila escribió que se debe establecer una relación de confianza
mutua entre la sociedad, representada por sus dirigentes, y los científicos. Esta es una relación entre dos élites, los políticos y los científicos
funcionando como expertos, algo muy de actualidad. La relación debe
ser entre los científicos y los ciudadanos, en una fase previa en el sistema
educativo, que debe proporcionar conocimientos de ciencia y tecnología; y en una segunda fase, de actualización y divulgación que ponga al
día esos conocimientos. Pongamos un ejemplo: el vertido de la British
Petroleum en el Golfo de México. Allí existía esa perforación porque los
científicos, actuando como expertos, habían asegurado a los políticos, que
aprobaron las leyes y reglamentos necesarios, que esa perforación a gran
profundidad era segura. Los científicos, cuando no actúan como expertos
para los políticos, saben que esa perforación no es segura y más si en la
zona hay hidruro de metano. Si los científicos actúan como expertos y no
existe un cuerpo civil de la administración lo suficientemente establecido,
el científico acabará siendo el experto voz de su amo del político, pues
de éste dependen los fondos y su futuro. Si los datos científicos hubiesen
llegado sin filtrar a los ciudadanos y estos tuvieran una formación básica
en ciencia y tecnología, esa prospección nunca se hubiese aprobado. Una
consecuencia: ahora los ciudadanos no se fían de los científicos debido
al pecado original de éstos de actuar como expertos para los políticos.
Ejemplos: los móviles, las antenas para móviles y el cáncer; las nuevas
centrales nucleares y su seguridad; los cultivos transgénicos; las vacunas;
y así podría seguir con más asuntos. La única relación interesante a largo
plazo entre políticos y científicos es aquella, y me repito, que signifique
divulgar la ciencia entre los ciudadanos y que sean éstos los que tomen
las decisiones. Ingenuo y utópico, quizá.
Otro reto de la divulgación científica, y de la educación en general, es
desarrollar el sentido crítico en los ciudadanos. No solo debe, con la voluntad pedagógica que he mencionado, enseñar, sino que, además, debe
desarrollar una intensa sensibilidad crítica ante las variadas y múltiples
informaciones que le llegan. Y debe aprender a ser crítico incluso con la
propia ciencia; es más, sobre todo debe serlo con la ciencia. Y revertir la
tendencia, observable en cualquier actividad, de un pensamiento general
cada vez menos crítico y más acomodado o, peor, indiferente.
Hay dos aspectos de cómo llega la ciencia a la sociedad que me preocupan
especialmente. En primer lugar, y ya lo he mencionado de pasada al hablar de comunicación científica, las noticias se dan sin citar las fuentes o
citándolas de manera insuficiente, y sin el menor atisbo de crítica. Sé que
la información no es opinión, a ser posible, pero no se pueden ofrecer, sin
más, curas inmediatas del cáncer, el problema de la energía resuelto por
la fusión fría, o datos de contaminación donde se confunde detección y
control; es necesario un mínimo de sentido crítico.
Y en segundo lugar, hay una preocupante tendencia, que vende muy bien,
de convertir la divulgación científica en un apartado más de los métodos
de autoayuda: las mentes flexibles, alcanzar la felicidad, cómo encontrar
pareja, la atracción sexual, y quién sabe cuántos temas más, mezclan
ciencia y autoayuda de manera peligrosa. Los escritos de autoayuda, para
que sean eficaces, exigen que el lector crea en lo que allí encuentra y no
hay nada menos parecido a la ciencia que la fe. Con la fe, todo está hecho y
no queda nada para el debate, la discusión y el futuro. Y en la ciencia, por
el contrario, que todo explica pero nada justifica, no hay temas cerrados,
todo está sujeto a revisión. Es Eduardo Punset quien afirma, con razón,
que el pensamiento científico es frágil, es transitorio hasta que alguien
demuestre lo contrario.
Para divulgar la ciencia hay medios tradicionales, de reconocida eficacia y
difusión, y, en estos tiempos de la web 2.0, nuevas posibilidades a explorar.
Entre esos medios en red, uno de los más populares es el blog que, me
parece, está empezando a desbancar la mayor rapidez e inmediatez de
las redes sociales. El blog es ágil, sencillo de usar, mucha gente lo visita
y explora, a menudo por simple curiosidad, y también hay quien busca,
como cualquiera de nosotros, a través de Google resolviendo alguna duda,
problema o curiosidad.
Pero, como pasa siempre en estos asuntos de la red, también hay una cierta inconsistencia y falta de compromiso: los visitantes dejan de hacerlo,
los que escriben, los blogueros, dejan de hacerlo, cambian de dirección,
de tema, etcétera. Es un mundo algo gaseoso, va y viene. Hay que ser
constante y cabezón para no rendirse y seguir adelante.
→
19
Divulgación Científica - Reflexiones y profecías
Llega a la gente, sí; a cuánta gente llega, ni idea; da a conocer la ciencia, sí;
educa, sí. Sin embargo, como en toda divulgación, y ya lo he mencionado,
no conozco su eficacia real. Quizá sea uno de los problemas de la red:
faltan datos, por muchas estadísticas de visitas que se tengan, hay que
estudiar tiempo de permanencia, cuánto se ha recorrido el blog, cuánto
tiempo ante cada pantalla,… Sin embargo, el blog produce una muy interesante retroalimentación hacia el divulgador a través de los comentarios
de cada entrada. Y, además, y es una característica de la red, destaca la
inmediatez de la respuesta. Esta retroalimentación inmediata puede ser
un buen indicador de eficacia, siempre con la precaución de que no solo
cuente el número de comentarios.
En la divulgación pasa como en la docencia, que simplemente con más
medios no se mejora sin más la enseñanza. En todo caso, se facilita y, a
veces, también se perjudica. Todos sabemos que un buen profesor lo es
sin y con más medios, y que un mal profesor también lo es sin y con más
medios. Toda esta inmediatez, que digo es tan interesante, no significa hacer divulgación descuidada o superficial. Como exige José Manuel
Sánchez Ron a la divulgación escrita que tenga transparencia expositiva
e imaginación literaria, debemos plantear los mismos requisitos a la divulgación a través de internet y, en definitiva, de cualquier medio.
Y, por otra parte, los medios informáticos, en este momento de la historia, son imprevisibles. Lo que yo escribo ahora, unos dos meses antes
de que ustedes lo lean, estará obsoleto dentro de, como mucho, un año.
Los portátiles son cada vez más pequeños, los móviles son cada vez más
grandes, los lectores de libros mejoran sus prestaciones a gran velocidad y,
encima, Apple se empeña en unir varias de estas funciones en un artilugio
sin nombre más rápido, potente y pequeño.
20
Divulgación - Reflexiones y profecías
Incluso podemos profetizar, teniendo siempre en cuenta que las profecías
más acertadas se refieren siempre al pasado. Por ejemplo, salimos a la
calle, llueve, es un día ventoso, en el móvil buscamos la previsión del tiempo, una borrasca atlántica nos manda frentes uno tras otro, la borrasca
proviene de un ciclón del Caribe, en un aparte, el móvil nos explica cómo
se forma un ciclón en el Caribe y cómo se transforma en una borrasca
cuando atraviesa el Atlántico, etc. Además, unos gráficos del número y
potencia de los ciclones formados en las últimas décadas, nos relacionan
nuestra mojadura matutina con el cambio climático. Y entonces suena
el móvil, alguien nos llama, y por fin el chisme cumple con su primitiva,
y casi olvidada, función: comunicarnos con nuestros prójimos.
Y todo esto, ¿a dónde me lleva? Pues a preocuparme de la eficacia de lo
que hago. Me pregunto si esto me lleva a alguna parte o si me sigue manteniendo en la proverbial torre de marfil que se nos achaca siempre a los
científicos. Sé que conocer la eficacia en la divulgación científica no es
asunto fácil. También hay divulgación ininteligible. Luis Alfonso Gámez
comentó una vez que un científico para ser buen divulgador debe dejar de
pensar como científico; no sé si tanto como pensar pero desde luego que
debe dejar de expresarse como tal pues solo le entenderían sus colegas.
Como dijo Arthur C. Clarke, cualquier tecnología lo suficientemente
avanzada es indistinguible de la magia. Pero Richard Feynman, otro Premio Nobel, en frase a menudo atribuida a Einstein, también afirmó que
«si no eres capaz de explicar tu trabajo a tu abuela es que, en realidad,
no lo entiendes». Por lo tanto, aunque sea magia, debemos ser capaces
de explicarla para que la entienda todo el mundo. También es cierto, y
hay que tomarlo como principio de precaución, lo que escribió Javier
Sampedro, cuando afirmaba con razón, que para escribir con claridad,
primero hay que pensar con claridad.
Y suponiendo que nos sabemos explicar, y no voy a ir más allá, ¿llegamos
a la gente, a los ciudadanos, a esa ciudadanía a la que me refería al principio? Mi primera conclusión es, a la vez, esperanzadora y deprimente.
Creo que solo divulgamos para quien quiere aprender; para quien, previamente, quiere ser divulgado; para quien tiene un compromiso previo
con la ciencia y la tecnología. Y cómo obtener ese compromiso es algo
que también dejo en el aire.
En resumen, he dejado abiertos tres puntos que a mí me interesan pero
que, en absoluto, cierran cualquier otro comentario sobre lo que acabo
de decir. Esos tres puntos se podrían resumir en conocer si la divulgación
científica es lo mismo para todos, en si lo que hacemos como divulgación
es eficaz y en, si es necesario un compromiso previo del receptor de la
divulgación, cómo conseguirlo.
Para acabar, considero que la ciencia dejará de ser divulgada cuando
forme parte de la educación de los ciudadanos, cuando sea popular. En
ese momento, la divulgación, en su aspecto educativo, y en su aspecto
lúdico, pasará a formar parte de la vida diaria. Quizá tenemos miedo al
llamado almanaquismo, es decir, a la divulgación anecdótica de la ciencia,
sin interés y basada en curiosidades expuestas sin orden. Pero, de esta
manera, dejamos de lado la explicación científica de los hechos simples y
sencillos de la vida diaria y nos centramos en los grandes temas: el cerebro, la inteligencia, la evolución, vida, Universo, Tierra,… Ni un extremo
ni su contrario, pero me haría feliz que, cada día, en vez de consultar el
horóscopo, la mayoría de los lectores buscaran la columna de ciencia
en una especie de calendario zaragozano científico que incluyesen los
medios escritos.
21
Investigación hoy
Xxxx xxxx xxx xxxxx
El cáncer en la nueva era genómica
Carcinoma en piel humana. Micrografía: Annie Cavanagh
Carlos López-Otín, Instituto Universitario de Oncología, Universidad de Oviedo.
22
El cáncer es una enfermedad que parece haberse instalado de manera
permanente en todas las sociedades humanas y cuya capacidad para
hacernos sentir vulnerables también parece aumentar cada día. Así, de
acuerdo con estimaciones recientes realizadas por expertos de la Organización Mundial de la Salud, se cree que en el año 2020 se diagnosticarán
más de 16 millones de nuevos casos de cáncer y habrá alrededor de 10
millones de víctimas mortales causadas por esta enfermedad. Sin embargo, pese a estos números abrumadores que casi asemejan el cáncer a una
epidemia moderna, no estamos ante una patología de reciente aparición
en el escenario humano y solo es necesario que recordemos su origen
para convencernos de ello. En efecto, tras la formación de las primeras
células hace más de tres mil millones de años, la vida en nuestro planeta
transcurrió en un ámbito exclusivamente unicelular. Milenio tras milenio,
la vida unicelular, clónica e inmortal dominó la Tierra hasta que hace
Carlos López-Otín. Catedrático de Bioquímica y Biología Molecular
en la Universidad de Oviedo, donde compagina su labor docente
con el desarrollo de líneas de investigación sobre cáncer, envejecimiento y análisis funcional de genomas. Codirige el proyecto español de los Genomas del cáncer, es miembro de la Real Academia de
Ciencias y ha recibido diversas distinciones incluyendo el Premio
Nacional de Investigación Santiago Ramón y Cajal.
unos 800 millones de años, una de estas células primigenias compartió
con éxito su vida con otras semejantes, e inició el complejo proceso de
construcción de organismos multicelulares. Fue también en ese momento
cuando comenzaron a gestarse las primeras vías moleculares que más
tarde conducirían al cáncer.
La lenta e imparable transición hacia la pluricelularidad fue un indudable
logro evolutivo al que debemos nuestra propia vida. Sin embargo, el proceso de generación de seres pluricelulares dejó necesariamente algunas
deficiencias moleculares que nos proporcionaron ventajas evolutivas,
pero que simultáneamente nos abocaron a la posibilidad de desarrollar
procesos tumorales. El cáncer surge cuando una sola de los billones de
células que construyen nuestro cuerpo se transforma, pierde su sentido
altruista y se multiplica sin control intentando destruir el organismo al
que hasta entonces contribuyó a modelar. Entre las deficiencias mecanísticas intrínsecas a nuestra propia naturaleza pluricelular podemos
señalar la falta de fidelidad en los mecanismos de replicación y reparación
del dna, la existencia de una compleja red de señalización inter- e intracelular susceptible de sufrir múltiples alteraciones y el mantenimiento
en nuestros órganos y tejidos de un cierto número de células –incluyendo
las células madre adultas– con gran potencial proliferativo o invasivo.
Estas células son absolutamente imprescindibles para afrontar procesos fisiológicos fundamentales como el desarrollo embrionario. Además, →
23
Investigacion hoy - El cáncer en la nueva era genómica
participan activamente en el mantenimiento y defensa del organismo. La
pérdida de los controles que permiten que la función de estas células se
mantenga siempre en unos límites apropiados, conlleva la adquisición
de las propiedades mitogénicas e invasivas características de las células
transformadas que conforman los tumores malignos.
Afortunadamente, nuestro progreso evolutivo también nos ha proporcionado una serie de mecanismos biológicos para tratar de minimizar
el potencial tumoral derivado de estas deficiencias surgidas tras la adquisición de la pluricelularidad. Entre ellos podemos citar la capacidad
replicativa finita de las células, la cuantiosa inversión en sistemas de
reparación del daño genético, los programas de apoptosis o la eficacia
de nuestro sistema inmune antitumoral. Pese a ello, es una realidad el
hecho de que los organismos pluricelulares desarrollan tumores malignos, y en el caso de nuestra especie, con una frecuencia que ha venido
aumentando en las últimas décadas. ¿Cuál es la causa de este aparente
incremento en los casos de cáncer? Muy probablemente porque más allá
de la evolución biológica, la evolución cultural y social ha conllevado el
desarrollo de una gran capacidad de interferir con nuestra propia naturaleza biológica a través de cambios en la dieta, exposición a agentes
cancerígenos, o simplemente, por el notable incremento en la esperanza
de vida que hoy podemos observar en una parte significativa de las sociedades humanas actuales.
En suma, el cáncer es un proceso patológico muy antiguo que surge
como consecuencia inevitable de nuestra propia evolución. La inherente complejidad y diversidad de esta enfermedad hace que solo podamos
aventurar ciertas hipótesis acerca de los mecanismos moleculares que
generaron los primeros tumores. Sin embargo, parece claro que el cáncer
nos ha acompañado desde el principio de nuestra historia como especie.
Más aún, los paleopatólogos han encontrado indicios de tumores óseos
malignos en vértebras de dinosaurios del periodo Mesozoico, avalando
la idea de la antigüedad de los procesos tumorales. También desde el
principio, la búsqueda de soluciones frente al problema del cáncer ha sido
amplia y diversa. Así, la cirugía, y después la quimioterapia y la radioterapia, aportaron respuestas precisas y evitaron que las palabras cáncer
y muerte fuesen términos inseparables dentro de la misma ecuación,
de forma que hoy muchos tumores malignos pueden curarse. En efecto,
las últimas estadísticas indican que más del 50% de los pacientes con
cáncer sobreviven a la enfermedad. Sin embargo, todos tenemos la triste
certeza de que la curación de otros tumores nos obliga necesariamente
a la exploración de posibles soluciones adicionales.
En este sentido, debemos recordar que hace poco más de tres décadas,
un grupo de destacados científicos intuyó que la Biología Molecular, desarrollada vertiginosamente tras el descubrimiento de la estructura en
doble hélice del dna por James Watson y Francis Crick, también podía
aportar nuevas respuestas al problema del cáncer. En efecto, los avances
en esta joven disciplina han contribuido a desvelar secretos importantes
de los procesos tumorales y nos han mostrado que, esencialmente, el cáncer es el resultado de la acumulación de daño genético o epigenético en
oncogenes, genes supresores y genes de mantenimiento de la integridad
del dna. También hemos aprendido que este daño se hereda de nuestros
progenitores en un pequeño porcentaje de casos (alrededor del 5%), pero
que en la mayoría de las ocasiones se adquiere a lo largo de la vida por
agresiones externas como las radiaciones solares, el tabaco, algunos virus,
o simplemente por azar. Además, varias décadas de investigación molecular en biología tumoral nos han enseñado que, tras la impresionante
24
Investigacion hoy - El cáncer en la nueva era genómica
Terapia de radiación
variabilidad clínica y biológica de los tumores malignos, hay una serie
de características bioquímicas adquiridas por las células transformadas
y compartidas por la mayoría de los tumores. Entre ellas, y siguiendo
la estela integradora de Douglas Hanahan y Robert Weinberg, podemos citar la adquisición de mecanismos autónomos de proliferación,
la insensibilidad a las señales de inhibición del crecimiento celular, la
generación de estrategias de resistencia a la apoptosis, la superación
de la barrera de la mortalidad por reactivación de enzimas como la
telomerasa, el desarrollo de programas de angiogénesis que aporten el
oxígeno y los nutrientes requeridos para la progresión tumoral y finalmente, la adquisición de una capacidad letal de invadir otros territorios corporales y generar metástasis, la manifestación más extrema del
caos biológico subyacente a la transformación maligna. Estudios muy
recientes han mostrado que en gran medida, la capacidad metastásica
tumoral está ya preinscrita en las alteraciones genómicas responsables
de la formación del tumor primario, las cuales conducen a una compleja cascada de acontecimientos sucesivos que implican cambios en
la interacción de las células tumorales con componentes específicos
de la matriz extracelular, la destrucción local de esa matriz a través de
enzimas proteolíticas y la migración activa de dichas células a sitios
distintos y distantes del organismo. En efecto, una vez que las células
tumorales alcanzan el torrente sanguíneo y se extienden por el cuerpo,
la progresión tumoral se torna prácticamente irreversible, limitando
extraordinariamente las posibilidades de vencer al cáncer. Por ello, no
podemos olvidar que tras todo este volumen de información biológica
básica sobre los mecanismos de progresión del cáncer, debe siempre
subyacer un deseo profundo y comprometido de encontrar respuestas
clínicas para tratar aquellos tumores para los que la Medicina todavía
no ha encontrado soluciones adecuadas.
En estos últimos años, el conocimiento molecular acumulado sobre los
mecanismos de progresión tumoral ha permitido el desarrollo de nuevas
terapias para el tratamiento del cáncer que se han dado en llamar raciona-
les o dirigidas, para contraponerlas con las derivadas de la quimioterapia
citotóxica tradicional que ha sido la base de la Oncología médica durante
las últimas décadas. En la actualidad, hay un total de 22 productos aprobados por la fda para el tratamiento dirigido del cáncer. Entre ellos se
encuentran numerosos inhibidores de pequeño tamaño molecular, incluyendo el Imatinib para el tratamiento de la leucemia mieloide crónica, y
diversos anticuerpos monoclonales humanizados como el Trastuzumab
para el tratamiento del cáncer de mama metastásico. Sin embargo, el elevado potencial mutagénico del cáncer conduce con intolerable frecuencia
a las resistencias anti-quimioterápicas y a las recidivas tumorales que
obligan una y otra vez al desarrollo de nuevos medicamentos que inclinen
la balanza hacia el lado de la vida, en esa batalla permanente entre los
fármacos y el cáncer. Sin duda, esta difícil situación conlleva la necesidad
de implementar nuevas aproximaciones experimentales que proporcionen oportunidades terapéuticas mejores y más diversas. En este sentido,
la resolución de la estructura tridimensional de las distintas proteínas
asociadas al cáncer, el diseño de chips genéticos que permiten el análisis
global de los cambios en la actividad génica durante la progresión de la
enfermedad y la creación de animales transgénicos «humanizados» en
los que se pueden examinar los mecanismos de desarrollo del cáncer y
los efectos de nuevos fármacos antitumorales, constituyen aspectos que
han dirigido muchos estudios recientes en el campo de la investigación
oncológica. Además, el estudio detallado de procesos complejos como la
adicción oncogénica y no-oncogénica o la letalidad sintética en células
tumorales, la identificación de las alteraciones inmunológicas y metabólicas asociadas a la transformación maligna, el esclarecimiento de las
complejas conexiones entre distintos sistemas reguladores co-optados
por las células tumorales, y la definición precisa de la importancia de las
células stem en la progresión tumoral representan algunos de los campos
que pueden proporcionar nuevas claves acerca de las funciones biológicas
que resultan alteradas en el cáncer. Es de esperar que el futuro progreso
en todos estos ámbitos pueda conducir finalmente a la instauración de →
pet/ct de cáncer de mama. Fuente: Hg6996
Chip genético
25
Investigacion hoy - El cáncer en la nueva era genómica
nuevas estrategias terapéuticas antitumorales más eficaces que las disponibles en el momento presente.
Sin embargo, la extraordinaria complejidad del cáncer nos obliga a ampliar nuestra mirada científica mucho más allá de todas las aproximaciones actuales. En este sentido, el nuevo proyecto de los genomas del cáncer,
constituye en mi opinión un hito en la investigación oncológica. El proyecto pretende determinar la secuencia completa de nucleótidos de al
menos 500 genomas tumorales de pacientes con cada uno de los tipos
de cáncer más frecuentes, incluyendo enfermos con leucemia linfática
crónica que es el proyecto que se va a realizar en España. En este proyecto
participan científicos de numerosas instituciones públicas españolas,
coordinados desde el Hospital Clínico de Barcelona por el Dr. E. Campo
y desde nuestro propio grupo de investigación, ubicado en la Universidad
de Oviedo. Los resultados de este proyecto a largo plazo, sumados a los de
otros 10 proyectos equivalentes sobre diferentes tumores, que ya se están
desarrollando en otros países, permitirán disponer de una información
fundamental acerca del paisaje genético del cáncer. Paralelamente, se
realizarán estudios epigenéticos y proteómicos que contribuirán a ofrecer una amplia información molecular acerca de cada tumor. En último
término, esta aproximación global al estudio del cáncer podrá conducir
al diseño racional de una nueva generación de medicamentos más selectivos y eficaces que los disponibles en la actualidad, y que formarán
parte de lo que podemos denominar estrategias de terapia combinada
frente al cáncer. Así, junto a las aproximaciones tradicionales basadas
en la cirugía, radioterapia y quimioterapia, que deberán mantenerse y
perfeccionarse, tendrán que introducirse tratamientos complementarios
derivados del conocimiento genómico de cada tumor de cada paciente.
No obstante, hay que insistir en la idea de que el desciframiento del ge-
noma de los tumores malignos no va a representar la curación rápida y
definitiva de todos los tipos de cáncer, sino la posibilidad de ofrecer a los
oncólogos toda la información biológica y molecular posible acerca de
cada tumor, que permita la instauración de tratamientos individualizados
para cada paciente. Para lograr este objetivo fundamental deberán superarse todavía una serie de barreras científicas, tecnológicas y económicas
que limitan las posibilidades actuales de estos proyectos. Así, este trabajo
de secuenciación genómica solo representa una etapa inicial que habrá
que completar con estudios funcionales que permitan definir cuáles son
las mutaciones impulsoras o conductoras de la transformación maligna
y cuáles son meras acompañantes del proceso. En cuanto a los avances
tecnológicos, no podemos sino reconocer que en un espacio brevísimo
de tiempo la metodología genómica ha progresado de manera extraordinaria. Hoy, en el Centro Nacional de Análisis Genómico recientemente
inaugurado en Barcelona, se puede determinar la secuencia completa
de un genoma humano en apenas tres días, aunque la labor de análisis
de esa información es todavía muy compleja y requiere la participación
de expertos de los que solo hay unos pocos en España. El coste económico del proceso de secuenciación genómica también se ha reducido
de manera espectacular, lo cual acerca notablemente a la realidad la
opción de descifrar genomas individuales en un futuro próximo con alta
eficiencia y de manera relativamente asequible. Por último, y pese a que
estos proyectos genómicos están todavía en fases muy preliminares, cabe
señalar que éxitos recientes como el hallazgo en tumores cerebrales de
mutaciones frecuentes en los genes idh que hasta ahora no se habían
encontrado alterados en el cáncer, constituyen un ejemplo importante
de las nuevas posibilidades que ofrece la Medicina Genómica. Probablemente, esta disciplina abrirá una ventana al descubrimiento de nuevos
genes, nuevos procesos, nuevos mecanismos y nuevas interacciones que
a su vez conducirán a nuevos tratamientos que tal vez no consigan curar
definitivamente, pero si al menos controlar, aquellos tumores para los
que en la actualidad no hay soluciones eficaces.
En definitiva, una amplia, sorprendente y estimulante colección de
estudios recientes ha comenzado a mostrar que tras la extraordinaria
variabilidad clínica y biológica de los tumores malignos, subyace una
lógica molecular común que puede ser comprendida o interpretada mediante la definición de una serie de mecanismos bioquímicos comunes
a dichos tumores. La investigación detallada de estos mecanismos, el
estudio global de los genomas del cáncer, la estrecha colaboración de
la investigación básica, clínica y epidemiológica en Oncología y la implantación de exigentes medidas de prevención y concienciación social
sobre esta patología serán fundamentales para afrontar los numerosos
retos todavía pendientes en torno a una enfermedad que nos recuerda
con perseverancia la fragilidad humana.
Bibliografía
Greaves, M. Cancer stem cells: back to Darwin Semin. Cancer Biol. 20: 65-70 (2010)
López-Otín C. and Hunter T. The regulatory crosstalk between kinases and proteases in cancer.
Nature Rev Cancer 10: 278-292 (2010)
Nguyen DX, Bos PD and Massagué J. Metastasis: from dissemination to organ- specific colonization. Nature Rev Cancer 9: 274-284 (2010)
Stratton et al. The cancer genome. Nature 458: 719-724 (2009)
The International Cancer Genome Consortium. International network of cancer genome
Cell line del melanoma maligno colo-829
26
projects. Nature 464: 993-998 (2010)
Xxxx xxxx xxx xxxxx
Investigacion hoy - diseño terapéutico basado en el conocimiento
Investigación hoy
conceptual que se produjo en aquel entonces fue la búsqueda de inhibidores específicos de dicha proteína de fusión entre grandes librerías de
moléculas. En 1998, una vez identificada y evaluada su actividad antitumoral en modelos experimentales, se inició su desarrollo en humanos.
Los resultados de los ensayos clínicos fueron prometedores y en algunos
casos hubo respuestas tumorales abrumadoras. Ello motivó que, en 2001,
las autoridades reguladoras norteamericanas (i.e., Food and Drug Administration (fda)), aprobaran el imatinib para el tratamiento de la lmc.
La importancia de la introducción de las terapias moleculares dirigidas
no sólo radica en la disponibilidad de nuevo armamento en la lucha contra el cáncer. Es probable que la gran aportación del fenómeno imatinib
es el cambio conceptual en la forma de abordar la investigación clínica
oncológica. El nuevo modelo se asienta sobre dos pilares fundamentales:
1) el conocimiento de la patogenia molecular del cáncer como base racional para el desarrollo de nuevas terapias, y 2) el reconocimiento de la
importancia de las singularidades moleculares propias de cada tumor.
En otras palabras, se asume que la heterogeneidad interindividual del
cáncer dista de ser trivial y debe ser tenida muy en cuenta a la hora de
diseñar herramientas diagnósticas, pronósticas y terapéuticas.
Nuevas perspectivas en investigación clínica oncológica:
diseño terapéutico basado en el conocimiento
Dr. Josep Llovet, Dr. Augusto Villanueva, idibaps, Hospital Clinic, Barcelona
El cáncer es la segunda causa más frecuente de mortalidad en países desarrollados, ligeramente por detrás de las muertes producidas por enfermedades
cardiovasculares. Según datos de los Centers for Disease Control and Prevention estadounidenses, el 23% del total de fallecimientos anuales en ee.uu.
están directamente relacionados con cáncer. A pesar de ello, la mayoría de los tumores malignos han experimentado un marcado descenso en sus tasas
de mortalidad durante las últimas décadas1. Sólo hay tres excepciones a esta tendencia: el melanoma, el cáncer de esófago y el de hígado. Esta tendencia
es consecuencia de mejoras a diferentes niveles: implementación de programas de cribado y prevención primaria, mejoras en el diagnóstico precoz y
estadiaje, optimización de la técnica quirúrgica y tratamientos adyuvantes, desarrollo de unidades de atención oncológica integral, etc. A ello se suma la
introducción, a principios de la presente década, de una nueva familia de fármacos (i.e., terapia molecular dirigida) con actividad antitumoral contrastada.
Dr. Josep María Llovet es profesor de Investigación (icrea) y dirige
el Laboratori de Recerca Translacional d’Oncología Hepàtica (idibaps, Hospital Clínic, Barcelona). Es professor of Medicine y director del Liver Cancer Program en el Mount Sinai School of Medicine
de Nueva York, y coordinador del consorcio heptromic.
Dr. Augusto Villanueva es especialista en Aparato Digestivo y
trabaja como investigador post-doctoral ciberehd en el idibaps
(Hospital Clínic, Barcelona). Entre 2005-2008 trabajó como
research fellow en el Liver Cancer Program (Mount Sinai School of
Medicine, Nueva York). Es Scientific Manager de heptromic.
28
La experiencia pionera en la nueva terapia molecular dirigida fue el descubrimiento del imatinib (Gleevec®) y su aplicación en un tipo de cáncer
hematológico, la leucemia mieloide crónica (lmc2). El desarrollo del imatinib comenzó a finales de los años noventa siguiendo un modelo diferente
al paradigma tradicional que dominaba la identificación de nuevos fármacos. En aquel momento, existía un conocimiento razonable sobre las
bases moleculares de la lmc. En la mayoría de casos, esta enfermedad
se origina tras translocación y unión aberrante de los cromosomas 9 y
22, generando lo que se ha denominado como cromosoma Philadelphia.
Esta unión origina una proteína de fusión anómala, la bcr-abl, que posee
gran capacidad para inducir proliferación celular incontrolada. El cambio
Bases moleculares para el desarrollo de terapias dirigidas
con aplicación clínica
La investigación oncológica está cambiando de forma vertiginosa. Se pueden enumerar muchos factores que han impactado de manera decisiva
en este cambio, pero cabe destacar cuatro: 1) el gran avance tecnológico
producido en los últimos 15 años tras la introducción de tecnologías de
exploración génica de alta resolución (e.g., microarrays de expresión, secuenciación de segunda generación, etc.); 2) el incremento notable en la
disponibilidad de muestras biológicas para estudios moleculares (e.g., bancos de tejido); 3) el desarrollo de la bioinformática, biología computacional
y las bases de datos de libre acceso como herramientas básicas en investigación genómica; y 4) el reconocimiento de la efectividad antitumoral del
modelo de diseño de fármacos basado en el conocimiento (i.e., rational drug
design3). Si consideramos una perspectiva temporal, los cambios introducidos en los últimos 20 años en nuestra capacidad de interrogar el genoma del cáncer son cuantitativamente superiores a los obtenidos durante
toda la historia precedente. De hecho, el desarrollo tecnológico ha creado
una situación desconocida hasta la fecha en investigación biomédica. A
pesar de resultar paradójico, el volumen de información genómica que
podemos generar, sobre todo el proveniente de técnicas de secuenciación
masiva, supera con creces nuestra capacidad para procesarlo, analizarlo,
interpretarlo e incluso almacenarlo de forma apropiada. Prueba de ello es
que desde que se publicaron los primeros estudios de secuenciación de
genoma completo4, los resultados siguen refiriéndose a descripciones de
las alteraciones genéticas en muestras únicas. Actualmente, es impracticable realizar este tipo de estudios en cientos de individuos, algo que sí
es viable con otras tecnologías como los arrays de expresión5. Existe otro
factor que dificulta la realización de estos estudios y es su elevado coste.
El precio estimado de la secuenciación de un genoma completo ronda los
50.000-100.000$, haciéndolo prácticamente inasumible para grupos de
investigación en solitario. Por este motivo, se han desarrollado iniciativas
internacionales encaminadas a distribuir el coste en estudios de esta magnitud. Dos de las más conocidas son el Cancer Genome Atlas (www.tcga.
cancer.gov, liderada desde ee.uu.) y el International Cancer Genome Consoritum (www.icgc.org, con participación multinacional y gubernamental).
Ambos comparten objetivo, caracterizar de forma precisa las alteraciones
presentes en el genoma del cáncer tras analizar un número muy elevado de
muestras humanas (~500 muestras por tumor) procedentes de neoplasias
de diferente estirpe. Es muy probable que la relevancia científica de estos
resultados sea equiparable al que tuvo en su momento la publicación de
la secuencia completa del genoma humano.
Desde que en 1976 los ganadores del premio Nobel Michael Bishop y Harold
Varmus caracterizaron el primer oncogén humano (i.e., src), se ha avanzado mucho en el conocimiento de las lesiones del dna que condicionan
el desarrollo tumoral. Entre los múltiples mecanismos responsables de
la disfunción genómica en cáncer destacan las mutaciones en oncogenes
(e.g., kras en cáncer de páncreas, egfr en cáncer de pulmón) o en genes
supresores de tumores (e.g., P53 en carcinoma hepatocelular), las translocaciones cromosómicas (e.g., cromosoma Philadelphia), el incremento
en el número de copias de dna (e.g., her2/neu en cáncer de mama), las
alteraciones en la regulación de la expresión génica (e.g., hipermetilación
del promotor de mgmt en gliomas, apc en cáncer colorectal), etc. La consecuencia de todo ello es la activación aberrante de diferentes vías de
señalización celular. Estas vías son sistemas bioquímicos de comunicación
intercelular. Estructuralmente, suelen constar de moléculas estimuladoras (i.e., ligandos) que se unen de manera específica a un receptor de la
membrana celular y que inducen activación secuencial de mediadores
dentro del citoplasma. El resultado final es la translocación nuclear de
un efector que modifica la expresión de un grupo de genes relacionados
con una función celular concreta (e.g., proliferación, diferenciación, apoptosis, migración, metabolismo, etc.). El conocimiento de qué vías están
alteradas es básica en el diseño de terapias dirigidas ya que la mayoría de
estas nuevas moléculas se dirigen contra algunos de sus componentes. Por
ejemplo, el cetuximab, aprobado por la fda en el tratamiento del cáncer
colo-rectal avanzado, es un anticuerpo monoclonal que bloquea el receptor de la vía del factor de crecimiento epidérmico (egf); o el trastuzumab,
aprobado en cáncer de mama, bloquea la vía de señalización de her2/
neu. Sin embargo, no todas las alteraciones en las vías de señalización son
modificables farmacológicamente. Prueba de ello son las dos alteraciones
genéticas más extensamente estudiadas en cáncer, pérdida funcional de
P53 y activación de ras o Wnt, para las que no existen compuestos en
fases clínicas avanzadas capaces de restaurar su normal funcionamiento.
El comportamiento de las vías de señalización no es estanco, es decir,
existen evidencias robustas que orientan hacia una notable interdependencia entre diferentes vías. Como consecuencia, se genera un denso
entramado de circuitos moleculares que operan como sistemas biológicos
complejos. El resultado de este entramado es la emergencia de nuevas
propiedades, no explicables a partir de la actividad aditiva de los elementos individuales. El hecho de bloquear la actividad de una vía de señalización impactará en el correcto funcionamiento de otras que dependen de
ella. Quizás esto sea una de las explicaciones de por qué algunos fármacos
altamente efectivos en modelos experimentales no hayan tenido un éxito
proporcional en humanos. Esta concepción multidimensional de las vías
de señalización ha favorecido el desarrollo de una disciplina que utiliza un enfoque global para analizar de forma integral el funcionamiento
de estos sistemas biológicos (i.e., Biología de Sistemas). Dentro de estas
complejas redes de comunicación, existen unos puntos o nodos donde
convergen gran parte de las señales y que actúan como factores limitantes
en la transmisión de la misma. Es previsible que la correcta modulación
de estos nodos tenga un impacto notable en oncología.
→
29
Investigacion hoy - diseño terapéutico basado en el conocimiento
Desarrollo farmacéutico basado en el conocimiento: Adicción
oncogénica y medicina personalizada
La adicción oncogénica es un concepto que ha adquirido particular relevancia en los últimos años. Se define como un estado de dependencia de
las células cancerígenas de la activación de determinados oncogenes o
la pérdida funcional de genes supresores tumorales. Dicha dependencia
es bidireccional, es decir, su presencia es suficiente para que una célula
adquiera o mantenga el fenotipo maligno y su supresión consigue revertirlo (e.g., regresión tumoral en modelos experimentales de osteosarcoma
tras eliminación de su adicción al oncogén myc). Estudios realizados
en muestras de cáncer humano han identificado múltiples alteraciones
genéticas. Se sabe que la importancia relativa de cada una de ellas es
distinta, existiendo cierta ordenación jerárquica. Algunas alteraciones
son indispensables para el mantenimiento del cáncer (‘driver events’),
mientras que otras son meros acompañantes resultado de errores aleatorios debidos al estado hiper-proliferativo característico de las células
tumorales (‘passenger events’). Los drivers son la base de la adicción oncogénica y, a priori, son las dianas ideales para las terapias dirigidas. ¿Cómo
se pueden distinguir drivers y passengers? La pregunta no tiene fácil respuesta y no hay un amplio consenso internacional que establezca unos
criterios bien delimitados. Existen algunos datos indirectos que pueden
sugerir la presencia de adicción oncogénica en un determinado tumor
(e.g., alteración recurrente en diferentes muestras, mutación que active
de forma constitutiva una quinasa, etc.). Sin duda, la prueba pre-clínica
más consistente la proporcionan los animales de experimentación, siendo
éste otro de los campos que ha experimentado una elevada sofisticación
en los últimos años. El diseño de animales modificados genéticamente (amg) facilita la modelización de múltiples lesiones genéticas en un
mismo individuo, habitualmente ratón. Además, existen tecnologías que
permiten la expresión de dichas alteraciones únicamente en determinados tipos celulares (i.e., amg tejido-específicos) y en algunos casos con
modulación cronológica selectiva (i.e., amg condicionados). Es previsible
que los amg sean también piezas claves para validar nuevos fármacos
en fases preclínicas.
30
Investigacion hoy - ESS-Bilbao
En humanos, existen algunos ejemplos de adicción oncogénica: imatinib
en lmc con presencia de la proteína de fusión bcr-abl, transtuzumab
(i.e., anticuerpo monoclonal contra her2/neu) en mujeres con cáncer
de mama y amplificaciones de her2/neu, gefitinib (i.e., inhibidor de la
actividad del receptor del egf) en pacientes con cáncer de pulmón y mutaciones de dicho receptor, etc. En todos ellos, la respuesta antitumoral es
significativamente mejor en aquellos pacientes cuyos tumores presentan
la adicción oncogénica diana para cada fármaco. Recientemente se ha
producido una situación paradigmática sobre el impacto de identificar
estos fenómenos en los diferentes tipos tumorales. En 2007 se comunicaron los resultados de un gran ensayo clínico en fase 3 que demostraba
un incremento significativo en la supervivencia de pacientes con cáncer
colo-rectal que sobre-expresaban el receptor del egf tratados con cetuximab. Posteriormente se sub-analizaron aquellos pacientes dentro
de este estudio que presentaban mutaciones de kras. Estas mutaciones tienen capacidad para activar la vía de proliferación de ras/mapk
independientemente del estado de expresión del receptor de egf. Los
resultados fueron clarificadores: aquellos pacientes con kras mutado
no presentaban respuesta al tratamiento con cetuximab. A nivel práctico, este estudio resume perfectamente la filosofía detrás de la medicina
personalizada. Dicho concepto engloba el estudio de pacientes como
individuos biológicos, permitiendo la adecuación de las intervenciones
terapéuticas según las singularidades genómicas en cada individuo, con
el fin último de maximizar la respuesta terapéutica. La aplicación de modelos personalizados en investigación clínica no se restringen a desarrollo
farmacéutico, sino que se ha visto que pueden ser de gran utilidad para
optimizar la predicción pronóstica en pacientes con cáncer6.
El gasto sanitario asociado al manejo de pacientes oncológicos ha crecido
exponencialmente en las últimas décadas. Gran parte de este gasto se
debe a las nuevas terapias moleculares, cuyo precio supera con creces el
de la quimioterapia tradicional. A modo de ejemplo, un tratamiento de
seis meses para el cáncer colo-rectal con cinco-fluorouracilo/leucovorin
cuesta $350 mientras que con cetuximab el precio ronda los $52.0007.
Estudios preliminares sugieren que el ratio coste-eficacia del uso de ce- →
→
31
PUBLICIDAD
Investigacion hoy - diseño terapéutico basado en el conocimiento
que recibían la droga. Este indicador proporcionó la base racional para llevar
a cabo el ensayo en fase 3 controlado con placebo, que inequívocamente
demostró la capacidad del sorafenib para incrementar la supervivencia de
estos pacientes8. El efecto antitumoral se conseguía a través del bloqueo
de vías de señalización imprescindibles para la progresión y diseminación
tumoral. A pesar de que esta droga es considerada poco selectiva, su actividad muti-diana junto a su baja toxicidad han condicionado un efecto
antitumoral notable asociado a efectos adversos asumibles y manejables.
Obviamente, este avance debe acompañarse en el futuro con la evaluación
de terapias moleculares contra vías de adicción más selectivas. Asimismo,
el hecho de ser el primer estudio positivo con un tratamiento sistémico
ha propiciado que los estudios fase 3 posteriores mimeticen los conceptos
básicos de su diseño (restricción a pacientes sin insuficiencia hepática grave,
estratificación por factores pronósticos, etc.). Todos estos criterios se han
resumido en un documento de consenso y unas recomendaciones para el
diseño de ensayos clínicos en pacientes con cáncer hepático9.
tuximab se incrementa significativamente en pacientes con cáncer colorectal seleccionados de acuerdo al estado mutacional de kras. Además
de justificación científica, parece que existen razones económicas para
seleccionar pacientes a la hora de aplicar terapias moleculares.
Cambios de paradigma y nuevos retos
Hay una desproporción desfavorable entre el número de fármacos que son
evaluados en fase 3 (la previa a su aprobación por agencias reguladoras) y
los que finalmente demuestran beneficios significativos en la supervivencia. Desgraciadamente, los modelos experimentales preclínicos siguen sin
predecir adecuadamente el comportamiento antitumoral de un fármaco en
humanos. La consecuencia es que una mínima parte del número de compuestos antitumorales que se empiezan a evaluar (~1%) llegarán al mercado
tras demostrar eficacia clínica contrastada. Es muy importante seleccionar
apropiadamente los criterios para interrumpir la evaluación clínica de un
fármaco en fases tempranas. Asimismo, es de vital importancia escoger las
herramientas adecuadas para capturar efectividad antitumoral en el seno de
ensayos clínicos. El desarrollo del sorafenib en el carcinoma hepatocelular
(chc), la forma más frecuente de cáncer hepático primario, es un claro
ejemplo de ello. Hasta 2007, ningún fármaco sistémico había demostrado
incrementar la supervivencia de los pacientes con chc en estadío avanzado.
Múltiples compuestos habían sido evaluados en estos pacientes: quimioterapia tradicional, interferón, tamoxifeno, etc., sin que ninguno demostrase
clara eficacia. En 2006 se publican los resultados de un estudio en fase 2 con
sorafenib, una nueva terapia molecular dirigida con actividad antiproliferativa (inhibición de la vía de ras/mapk) y antiangiogénica (inhibición de
vegfr y pdgfr). Dichos resultados contenían una señal de actividad antineoplásica teniendo en cuenta la mediana de supervivencia de los pacientes
32
Conclusiones
Las terapias moleculares han abierto una nueva era en la oncología. El diseño farmacológico tradicional da paso a uno basado en el conocimiento
a priori de los determinantes genéticos que originan, mantienen y hacen
progresar al cáncer. A corto plazo, el reto consiste en caracterizar estas
alteraciones y discernir cuáles son las principales a la hora de conferir el
fenotipo maligno. Una vez identificadas, sin duda serán las dianas ideales
para bloqueo farmacológico selectivo. El nuevo modelo se asienta sobre
una premisa de heterogeneidad tumoral intrínseca. En otras palabras,
las vías de señalización alteradas en un paciente pueden no ser las mismas que en otro, a pesar de que ambos presenten tumores de la misma
estirpe histológica. Es aún temprano para evaluar si esta aproximación
al tratamiento oncológico será exitosa, pues sin duda todavía estamos
en fase embrionaria. Sin embargo, creemos firmemente que el futuro de
la investigación oncogenómica y su aplicación clínica pasan por perfeccionar estos abordajes basados en medicina personalizada. Su evaluación
en el contexto de ensayos clínicos bien diseñados será fundamental para
asegurar su traslado a la práctica clínica diaria.
BIBLIOGRAFÍA
1.Jemal A, Siegel R, Ward E, Hao Y, Xu J, Thun MJ. Cancer statistics, 2009. CA Cancer J Clin
2009;59:225-49.
Instituto Tomás Pascual,
comprometidos con la sociedad y la ciencia
El Instituto Tomás Pascual cumplirá cuatro años de vida el próximo mes de febrero. Se trata de una institución sin
ánimo de lucro, comprometida al máximo con la sociedad científica moderna. Entre nuestros objetivos está detectar
las diferentes inquietudes entre todos los colectivos de la sociedad española para crear foros de debate, jornadas,
seminarios, mesas redondas y conferencias.
A pesar de los apenas cuatro años de vida de
nuestro Instituto, ya disponemos de más de
una treintena de publicaciones y más de 20 colaboraciones con centros de investigación de
acreditada reputación y excelencia. Queremos
convertirnos en un referente entre los principales foros científicos de nuestro país por ello a
través de nuestra web www.institutotomaspascual.
es dejamos constancia de las actividades realizadas y trabajamos activamente en la divulgación de
estos conocimientos, poniéndolos a disposición
del público tanto en formato electrónico como en
formato tradicional tipo libro, de forma completamente gratuita.
Los avances científicos han influido, y siguen influyendo, en la evolución de la sociedad actual. Hoy
día vivimos con un exceso de información, y particularmente de información científica que puede
convertirse en un problema si es interpretada mal
o fuera de contexto. Por lo tanto, existe una necesidad clara de crear nuevos foros independientes de
conocimiento que canalicen bien la información
y los avances científicos, adaptando y ajustando
en cada momento los contenidos y la manera de
divulgarlos a una audiencia receptora específica.
Puesto que los intereses de los diferentes públicos
van cambiando y dado que el acceso a la información es cada vez mayor, es obligado separar la
paja del grano, y saber trasmitirla en un lenguaje
adaptado al público que lo escucha, sea científico
o no, tenga un nivel cultural mayor o menor.
El objetivo es que la sociedad entienda el por qué
de la investigación y cuáles son sus aplicaciones,
ya sea en ciencia básica o aplicada. De esta manera, por fin, el hombre moderno será capaz de ubicarse en el espacio y el tiempo en el que vivimos.
En el Instituto Tomás Pascual, distribuimos las
actividades entre diversos colectivos, con la intención de crear una corriente crítica de información
entre el sector científico, y el público en general,
de modo que se logre un diálogo permanente y
creativo entre ambos sectores que favorezca el desarrollo y la divulgación de nuevos conocimientos.
Aunque el Instituto Tomás Pascual se centró en
su origen en temas relacionados con nutrición y
salud en general, los hábitos de vida saludables,
la alimentación o la tecnología de los alimentos,
sin renunciar a estos objetivos primarios actualmente deseamos abrirnos a otras nuevas áreas
científicas de interés como la nutrigenómica, la
proteómica o la conducta humana entre otras.
Nos encontramos en un continuo estado de alerta
ante nuevos descubrimientos. Para esta desafiante
tarea de situarnos en la frontera de la ciencia y
su divulgación, buscamos y establecemos colaboraciones estables y estrechas, como puede ser
la creación de Cátedras o convenios de colaboración con centros de excelencia como es el caso del
cic biogune.
Ricardo Martí Fluxá, Presidente
2.Sawyers CL. Shifting paradigms: the seeds of oncogene addiction. Nat Med 2009;15:1158-61.
3.Mandal S, Moudgil M, Mandal SK. Rational drug design. Eur J Pharmacol 2009;625:90-100.
4.Meyerson M, Gabriel S, Getz G. Advances in understanding cancer genomes through secondgeneration sequencing. Nat Rev Genet 2010;11:685-96.
5.Hoshida Y, Villanueva A, Kobayashi M, et al. Gene expression in fixed tissues and outcome
in hepatocellular carcinoma. N Engl J Med 2008;359:1995-2004.
6.Villanueva A, Hoshida Y, Toffanin S, et al. New strategies in hepatocellular carcinoma:
genomic prognostic markers. Clin Cancer Res 2010;16:4688-94.
7.Meropol NJ, Schulman KA. Cost of cancer care: issues and implications. J Clin Oncol
2007;25:180-6.
8.Llovet JM, Ricci S, Mazzaferro V, et al. Sorafenib in advanced hepatocellular carcinoma. N
Engl J Med 2008;359:378-90.
9.Llovet JM, Di Bisceglie AM, Bruix J, et al. Design and endpoints of clinical trials in hepatocellular carcinoma. J Natl Cancer Inst 2008;100:698-711.
La divulgación científica responsable es un pilar
fundamental de la ciencia moderna, puesto que
el mensaje ha de tener el atractivo e interés necesario para que el público por sí solo continúe
solicitando más información científica para poder
profundizar en su conocimiento. Es un reto apasionante encontrar científicos en cada disciplina,
capaces de transmitir con palabras sencillas y
ejemplos cotidianos lo que para ellos es fácil de
entender, y de esta manera así conseguir la necesaria conexión entre el mundo académico-científico
y la sociedad, que permitan derribar el mito de que
la ciencia es sólo para los científicos.
Acto de Inauguración del Instituto Tomás Pascual Sanz en la Real Academia Nacional de Medicina, en febrero de 2007
Friday 17th, December 2010
HALF DAY SEMINAR
Venue: Atrio cic biogune
Free attendance
Parque Tecnológico de Bizkaia
Ed. 800 · 48160 DERIO
Bizkaia, País Vasco (Spain)
“From the lab to the market:
Patents as vehicles
of knowledge’s transfer”
Organization
09:30-09:45
Seminar Opening
José M Mato (cic biogune)
09:45-10:30
General view of the Patent System
Manuel Illescas (Gónzalez-Bueno & Illescas -GBI-)
10:30-11:15
Intellectual Property and Technology Transfer from a Basic Research Chemical Laboratory: Some Personal Experiences
Manuel Martín-Lomas (cic biomagune)
11:15-11:45
Coffee break
11:45-12:30
The information services of the SPTO: a tool for business support
Esther Arias (Oficina Española Patentes y Marcas)
12:30-13:15
Intelectual Property and Smart Capital
Angel Santos (CRB Inverbio SGECR)
13:15-14:00
Latest case law of the EPO in Biotechnology: Interpretation and application of the European Patent Convention to the recent technological developments
Francisco Fernández-Brañas (European Patent Office)
14:00-14:15
Seminar Closing
* All the speaches will be given in English language (no translation into other languages available)
en Euskadi
Detalle del edificio de CIC bioGUNE. Foto: Asier Larraza
Collaborators
34
Entorno cic quiere ser una ventana abierta en la
revista cic Network para mostrar los avances y
novedades más significativas que se desarrollan en
el ámbito de la comunidad científico-tecnológica
de Euskadi.
36
Mesa de Ideas sobre la medición en ciencia, con
Aurkene Alzua (cic tourgune), Enrique Zuazua
(bcam) y Eudald Carbonell (Atapuerca).
Modera: Iñaki Letona.
46
El Equipo de ESS-Bilbao presenta el «Centro de
aceleradores y fuentes de neutrones a baja energía
para el sur de Europa».
52
Alex Bittner, de cic nanogune, escribe sobre el
proyecto «Magnifyco» que está desarrollando este
centro de investigación.
56
Investigadores de cic microgune describen las
«Tecnologías lab-on-a-chip para observar e identificar
moléculas individuales».
62
Igor Campillo nos habla de la reciente celebración de
Passion for Knowledge en Donostia, con motivo del
x. Aniversario del Donostia International Physics Center.
Entorno CIC - Mesa de ideas
Mesa de ideas
Xxxx xxxx xxx xxxxx
La ciencia a medida
Mesa de ideas con Eudald Carbonell, Aurkene Alzua y Enrique Zuazua. Modera: Iñaki Letona.
La medición está asociada a la determinación o
valoración. Ésta, normalmente, debe expresarse
por un número con arreglo a convenciones o a
normas admitidas, y por tanto, las mediciones
configuran valores en unos casos y expresiones
numéricas determinadas en otros, sujetas a la
acción de medir. De hecho, lo que medimos, lo
que se mide, está referido, en su mayor parte, a
magnitudes. Precisan cálculos, principalmente
matemáticos, que a veces, se efectúan a través
de instrumentos de índole variable y con resul-
Eudald Carbonell es co-director del yacimiento de Atapuerca,
profesor de la Universidad Rovira i Virgili. Aurkene Alzua es
directora general del Centro de Investigación Cooperativa
en Turismo, cic tourgune. Enrique Zuazua director del
Basque Center for Applied Mathematics (bcam). Iñaki
Letona ex director general de Gaiker (30-06-2010), actualmente adscrito al Gabinete de Presidencia de Gaiker.
36
tados o datos variables de mayor o menor rigor,
que se asocian a variables ligadas a la propia
medición o datación. Se emplean, las empleamos, en trabajos que posibilitan, en la mayoría
de los casos, resultados científicos, que a su vez,
terminan en aplicaciones técnicas concretas de
muy alto valor.
La medición no está asociada únicamente a lo
científico-tecnológico, lo está también al ámbito
de las ciencias sociales y a otras disciplinas menos conocidas, en el campo y dominio científico.
Un ejemplo a su vez, lo podríamos encontrar en
la paleontología o en la antropología. Por ello, y
con el fin pretendido, hemos reunido alrededor
de esta mesa a una científica en turismo y nuevas
tecnologías (Aurkene Alzua, directora general
de cic tourgune), a un matemático (Enrique
Zuazua, director de bcam) y a un paleontólogo
(Eudald Carbonell, co-director de Atapuerca);
las mediciones son el leit motiv de sus trabajos.
Iñaki Letona: Hablemos de la necesidad de
medir, ¿por y para qué?
Enrique Zuazua: El momento que vivimos socialmente se caracteriza por la abundancia de
datos. Si dentro de mil años se observa la evolución del planeta y de la especie humana, y lo que
ha supuesto el siglo xx y la primera parte del
xxi en su desarrollo, se llegará a la conclusión
de que este período se ha caracterizado por la
explosión del número y complejidad de datos
que el ser humano genera y maneja. Interpretar y manejar todos esos datos supone un gran
nuevo reto y oportunidad para el ser humano.
Aurkene Alzua: Por su puesto, pero yo le añadiría que nos faltan aún datos para muchos de los
retos científicos que nos proponemos. Hay una
eclosión de datos, y ahí están la informática y
las tecnologías que nos permiten seguir generando nueva información, formas novedosas de
medición, que a su vez nos permiten generar
nuevas preguntas para las que necesitaríamos
nuevos tipos de datos que no son tan evidentes.
Ese es nuestro reto. Por qué y para qué medir,
comentabas. Yo añadiría: ¿podemos avanzar en
el conocimiento sin medir? Creo que no. Y matizaría una cuestión. Cada procedimiento que
usamos para medir está imbricado con nuestra
visión del mundo, encorsetados en unos paradigmas conceptuales, y nos cuesta muchísimo
salir de ellos y generar nuevas técnicas de medición para alcanzar una nueva comprensión de
la realidad. Es nuestro caso, el de las ciencias
sociales, queda pendiente la superación de las
técnicas tradicionales y la incorporación de
los nuevos diseños y el desarrollo tecnológico
como instrumentos para abordar cuestiones
científicas; si no superamos los métodos tradicionales, como sí se ha hecho en paleontología,
no generaremos nuevo conocimiento. En el turismo como disciplina científica que aborda la
movilidad humana nos está costando.
Eudald Carbonell: En mi caso yo puedo hablar
de la importancia de las mediciones redundantes, de la interacción de las distintas disciplinas para datar y medir lo hallado. Nosotros
existimos como disciplina científica gracias al
parámetro tiempo. Podemos establecer analogías entre lo que ocurre y lo que ocurrió, pero
se debe medir, se trata del desarrollo de la especie y de nuestra conciencia, como humanos.
El tiempo está ligado a los sentidos. Cuando se
monitoriza algo se hace con los ojos o creando
la óptica que los sustituye, el sonido, lo mismo
con los aparatos que lo registran. Lo que hacemos al monitorizar es generar la conciencia
que registran nuestros sentidos. La arqueología,
a gran escala, es medir el tiempo, como también el espacio donde se encuentra el registro
arqueológico. Nosotros no exhumamos ningún
fósil que no haya sido medido y registrado en las
tres dimensiones. Si no midiéramos, no existiríamos como agentes de conocimiento.
Iñaki Letona: He sido testigo de vuestros registros, al levantar «ese» trocito de hueso o de vestigio importante. Reconstruis el lugar (coordenadas) y lo datáis informáticamente. Continuando
con las preguntas, muchas de las variables que
vemos y leemos, ¿hasta qué punto son interpretables por la comunidad no científica?
Enrique Zuazua: Hay diferentes maneras de interpretar los datos. Un piloto de Fórmula 1, utiliza
la turbulencia, la inestabilidad, la no linealidad...,
para ganar ventaja. Los pilotos han entendido
estos complejos fenómenos dinámicos y se han
convertido en maestros de los mismos, a través
de la experimentación. El otro día me encontré
con un grupo de surfistas que desea impulsar
una empresa para el desarrollo de generadores
de olas. Me llamó muchísimo la atención hasta
qué punto entendían la mecánica de fluidos sin
haber estudiado a fondo sus ecuaciones. Viven
la ola, la han vivido durante muchos años y han
entendido su naturaleza. En efecto, si te pasas
ocho horas al día en el agua de los 14 a los 34
años, entiendes la mecánica de los fluidos de otra
manera. Son muchos los ejemplos. Los pastores
nos hablan del tiempo, por ejemplo.
Pero es cierto que la mayoría observamos los datos, pasamos a su lado, sin entenderlos. En efecto, con frecuencia, la plasticidad del cerebro que
permite absorber los datos como las esponjas,
ha de ser normalmente cultivada a través de los
libros y un lento camino de formación y praxis.
Todos los datos son intrínsecamente interpretables. Otra cosa es que podamos interpretarlos
hoy. En el ámbito de las ciencias sociales se observa que cosas hasta hace poco incomprensibles,
hoy forman parte de teorías bien sustentadas.
El reto de entender es lo que hace que vivamos
en el planeta. Si renunciáramos a hacerlo, la
mayoría nos bajaríamos en marcha.
Aurkene Alzua: Es una pregunta difícil esa de si
los datos son interpretables por la comunidad
no científica. Existen dos puertas para acceder
a ese conocimiento. Una es la de la especialización y muchas veces en los medios de comunicación encontramos datos de una especificidad
muy concreta que queda lejos de nuestras capacidades, requerimos de la ayuda del comunicador para entender o interpretarlos. Necesitamos esa ayuda. Pero independientemente de
eso, es cierto que vivimos en un mundo de datos
y todos estamos cada vez más acostumbrados a
manejarlos e interpretarlos, a extraer significado del mismo. Yo creo, en el caso de la movilidad
humana en turismo –personas que se mueven
fuera de su entorno cotidiano–, hemos seguido
un sistema restrictivo de medición y me pregunto si los datos generan conocimiento suficiente y en qué proporción representan la realidad.
¿Qué porcentaje o prisma de la realidad creemos entender o cuál es la distorsión derivada
de las muestras observadas? Esa es la pregunta.
Se ha trabajado poco la observación objetiva de
manera empírica, hacer seguimiento del rastro
del comportamiento humano, generar datos a
través de sistemas de localización avanzados,
observar esa conducta en un espacio temporal →
37
Entorno CIC - Mesa de ideas
y poder inferir significado de ellos. Eso es más
difícil. Ninguno de los datos de los que hemos
hablado hasta ahora hacía referencia al mundo
afectivo, por ejemplo. Se puede medir. ¿O no?
¿Cómo inferimos ese mundo afectivo sin ser intrusivos? Nosotros tenemos un gran reto: cómo
medir la conducta humana de movilidad en el
eje espacio temporal y además inferir algún tipo
de emoción o de ciclo afectivo en esa itinerancia
sin ser intrusivos, sin que esa persona deje de
comportarse como iba a hacerlo. ¿Cómo penetro en ese mundo?
Enrique Zuazua: Quizá lo podrías plantear al
revés. ¿Del conjunto de personas que se mueven fuera de su entorno original, cuántas no lo
hacen por una cuestión afectiva?
Aurkene Alzua: Pero esa es otra pregunta. No es
lo mismo vivir fuera de tu hábitat natural que
salir de tu entorno cotidiano.
Eudald Carbonell: Aunque de lo general a lo
particular. Los conocimientos los afrontas recogiendo técnicas de otras disciplinas que te interesan y que te son útiles. Pero pienso que si no
generas un cuerpo teórico que dé consistencia
a las bases analíticas, difícilmente puedes establecer un trabajo sistémico sobre lo que haces.
Si me planteara este problema formalmente,
primero me preguntaría qué pasa con la dinámica de flujos; también a nivel de constantes
demográficas; y cómo se integra la diversidad,
porque cuando te mueves estás integrando. Yo
intentaría partir de lo general y después establecer lo particular y en la redundancia asegurar el
proceso. Quizás no sería un método científico
del todo, pero sí uno riguroso. Si partes al revés,
de lo que no conoces ni sabes lo que quieres
hacer, es muy difícil dar respuestas y la Ciencia
en su base tiene una tautología; lo importante
no es la respuesta, sino la pregunta.
Enrique Zuazua: Estás describiendo la mecánica de trabajo de la dinámica de fluidos, de la
meteorología, la dinámica de gases y partículas
que chocan, rebotan, se agrupan o disgregan.
Aurkene Alzua: Es que yo creo que ese es nuestro trabajo. Se habla cada vez de una sociedad
más líquida, de la sociología más allá.
Enrique Zuazua: Ahí están los modelos de los
fluidos, que cada vez trabajamos más. Internet
y el flujo de información que se da en la red es
un buen ejemplo. Es tan complejo el grafo que
constituye la red, el ir y venir de mensajes, los
que rebotan y los que pasan, que es imposible
analizarlo todo. Por eso se desarrollan teorías
sobre los límites fluidos, que indican las leyes
macroscópicas que gobiernan el flujo de infor38
Entorno CIC - Mesa de ideas
mación en la red. Luego está el detalle, en el que
vivimos la mayoría, con nuestro navegador y
nuestros emails, pero que en el fondo no es tan
relevante de describir.
Aurkene Alzua: Según si te metes en lo micro o
si quieres abordar las estructuras subyacentes.
Pero esa es la tendencia.
Iñaki Letona: Estáis hablando de datos, mediciones, redes, y de socializar ese conocimiento en
última instancia. ¿Eso no tiene que ver mucho
con la divulgación, vamos, con dar a conocer?
“El reto de entender es lo
que hace que vivamos en el
planeta. Si renunciáramos
a hacerlo, la mayoría nos
bajaríamos en marcha”
Enrique Zuazua
Eudald Carbonell: Esto es intrínseco del ser
humano racional. Cuando abrimos la boca ya
estamos midiendo. Desde que te levantas por
la mañana somos numéricos, mides la hora,
sobre todo en esta sociedad; si me tomo café,
pido uno. Cuántos kilómetros me quedan, a qué
hora llamaré o me llamarán. No hay nada que
no midamos. No conozco en el cuerpo nada que
no sea medido. Cuando tienes un bolígrafo en
la mesa y quieres cogerlo, tienes que medir la
distancia que hay entre tu mano y él para hacerlo. Somos ingenios diseñados para entender.
Nuestro esqueleto está medido, hay una memoria en nuestro sistema que hace que por ensayo y error tengamos todas esas mediciones ya
hechas. La ciencia natural, que se ha utilizado
toda la vida, se ha utilizado para la agricultura,
para el tiempo, para los ciclos de los animales.
Los mamíferos, que no los primates, medimos
todo. Ahora, somos conscientes de las medidas
para las que tenemos métodos científicos.
Aurkene Alzua: Eso es muy importante. La expresión de la medición nos ayuda a ser conscientes
de ese gran mundo desconocido del que somos
parte. La matemática, por ejemplo, nos ayuda a
dar expresión y ser conscientes de ese entorno.
Sin ella, no podríamos generar conocimiento.
Iñaki Letona: ¿No se utiliza a la opinión pública
con los datos que nosotros tenemos y usamos?
¿No os da la sensación de que la manipulamos?
Enrique Zuazua: El otro día abrí el periódico y
decía: «Obama ha llamado esta noche a Zapatero». No entendí por qué. Pero al cabo de cinco
horas lo comprendí. «Recorte del 5%». Era una
preparación. Es otra de las características de
esta sociedad, esa capacidad de los media de
incidir en la opinión pública.
Iñaki Letona: Evidentemente esto tiene que
ver con nuestra permeabilidad hacia los datos
que nos dan.
Aurkene Alzua: En ciencias sociales en general,
académicos, técnicos, todos recogemos datos
parametrizados en un contexto teórico. Será
una intención política utilizarlos para otros
fines. No creo que nosotros lo hagamos.
Enrique Zuazua: Pero ahí entra un aspecto matemático que es el de las correlaciones, no siempre del todo obvias. Vivimos en un mundo en el
que hay variables que son independientes unas
de otras, como lo era el dinero que teníamos en
la hucha de niños. Eso era un hecho seguro. Si
en tu hucha tenías cien, ahí estaban. Entonces
no éramos conscientes de que el dinero fluye y
que lo que pasa en Hungría afecta a España, y
a Euskadi, y al final te afecta a ti. Como cuando
cierra una compañía aérea dejando a la gente
con las maletas en el aeropuerto.
El tema de las correlaciones es cada vez más complejo. El grafo del planeta es muy conexo; todos
podemos contar cuántos pasos nos separan de
alguien en concreto. Si le has dado la mano al Lehendakari, que seguro que se la ha dado al Rey, por
ejemplo, solo un paso más te separa de Obama.
Vivimos en una sociedad tan interconectada,
que correlaciones muy poco visibles están
afectando a la viabilidad de los negocios. La
innovación se está basando no ya en nuevos
productos o escenarios, sino en explotar esas
correlaciones que otros no habían visto.
Eudald Carbonell: Esto es interesante y complicado. Lo complicado hay que gestionarlo, lo
complejo no podemos. Gracias al conocimiento
somos capaces de vivir en lo complejo gestionando lo complicado, eso es posible, lo contrario no, como ya he dicho. Vamos a colapsar en
este siglo, nuestra especie pasa por una crisis
sistémica; se manifiesta primero en el sector financiero; luego en una crisis social, ideológica y
psicológica... Es la primera vez en la historia de
la evolución humana, que sepamos, que colapsaremos monitorizados. Esto se hundirá y lo estaremos viendo en nuestras pantallas. Estamos
al horizonte de los acontecimientos de un agujero negro que pone en peligro nuestra propia
evolución y algunas especies humanas somos
conscientes porque tenemos información. Con
sondas en los mares que controlan la humedad
y la conectividad de las aguas; en los continentes, con estaciones que controlan día a día cada
variable; con estructuras económicas que nos
dicen que nuestro sistema capitalista está acabándose, que se está autodestruyendo porque
no es capaz de generar estructuras suficientes
para conservar su potencia. Y precisamente la
ventaja de los números es que colapsaremos
monitorizados y es una gran ventaja porque
sabremos lo que está ocurriendo. La conciencia de especie nacerá como consecuencia de
esta parametrización y monitorización de la
realidad, y eso para mí es el gran cambio que
estamos viviendo. Todo es medible, no se puede
vivir sin medir, y ahora vamos a comprobarlo.
La capacidad de medir nos dará la conciencia
de especie. Pero esto no evitará que colapsemos.
Enrique Zuazua: ¿Esa conciencia no existe ya?
En Grecia existía el sabio nómada Protágoras de
Abdera, al que le preguntaban de todo cuando
iba de pueblo en pueblo; y solía decir que a la
hora de medir el mundo el modelo era el propio
hombre y por eso, por ejemplo, contamos de
cinco en cinco (por los cinco dedos de la mano).
Eudald Carbonell: Si hubiera conciencia de
especie no colapsaríamos en este siglo. La
conciencia de especie, en mi opinión, es cómo
colectivamente pensamos como especie, no
como hombres o como humanos. En el caso
del ser humano la conciencia de especie es una
serie de adquisiciones biológicas y culturales
que permiten establecer relaciones entre no-
sotros. Es cuando no piensas en clases sociales
ni personas, sino en cómo formas parte de un
organismo que no existe en todo el planeta.
La conciencia de especie empieza a emerger
con la crisis de los misiles, en los años 60 es
la primera vez que somos conscientes de que
podemos destruir el planeta. Esa conciencia
empieza a nacer ahí, pero pienso que no será
total hasta que seamos capaces de crear un
espécimen humano, cuando nos deshumanicemos. Aparecerá por lo tanto cuando seamos
“ Tenemos un gran reto: cómo
medir la conducta humana
de movilidad en el eje espacio
temporal y además inferir
algún tipo de emoción o
de ciclo afectivo en esa
itinerancia sin ser intrusivos”
Aurkene Alzua
capaces de construir, no después de destruir. Lo
que estamos haciendo ahora -intentar generar
vida autónoma, la ingeniería genética y poder
construir una secuencia artificialmente- es
crear una especie distinta por relación técnica.
Por eso pienso que esta crisis monitorizada es
el principio de esa conciencia de especie. En
el siglo xxi habrá un colapso para metabolizar
todo esto, y este colapso nos dará la capacidad
de, mediante modelos matemáticos y sistemas,
fundar algo que los humanos podamos dirigir
y controlar. Cambiar orden por organización.
Aurkene Alzua: Es una reflexión muy interesante
pero, ¿no te parece que eso implica más que la
medición? Porque tú estás hablando de medición y parametrización, lo que yo entiendo por
medición y modelización, como algo parecido.
Para modelizar necesitamos parametrizar, y lo
cierto es que sí estamos dando algunos pasos
hacia adelante. Un poco, en la reflexión de esta
mesa redonda, he hecho una lista de asuntos
en la medición que son retos pero que suponen
un cambio importante en la manera en que ya
no solo medimos, sino que gestionamos la medición. Son dos cosas diferentes. Y no estoy hablando de interpretación, sino estoy hablando
de la gestión de la medición, de la generación de
sistemas de apoyo para la gestión de la medición.
Estamos un poco lejos de lo que se comenta, a
mi parecer, porque todavía tenemos retos considerables. Se trata tanto de la generación de
los datos, de poder generar datos de naturaleza
muy diferente, y de nuevos modelos para poder
gestionarlos… Antes hablaba de datos que son
fugaces, que sólo se pueden gestionar en un
momento dado de una manera determinada,
de datos que tienen un determinado ciclo vital,
son efímeros, pero nos permiten alcanzar otra
serie de hitos y respuestas. Pero también estamos caminando hacia la gestión de los recursos, y los recursos son datos y metadatos; y son
datos distribuidos sobre todo espacialmente y
también temporalmente y que generan, nuevas
formas de trabajar con mayor comprensión de
la realidad. La estructura de las bases de datos
son ya diferentes, antes has dado un ejemplo
buenísimo, sobre cómo empezamos a trabajar
con estructuras de bases de datos totalmente
diferentes a las que, tradicionalmente, hemos
utilizado en ciencias sociales. Cómo hacemos
frente con datos distribuidos, heterogéneos,
estructuras completamente irregulares, con
recursos más que con datos.
Las oportunidades que nos brindan las nuevas tecnologías, de abordar una observación
de formas novedosa, nuevos datos, hace que
podamos cuestionarnos en términos que nunca previamente hubiéramos sido capaces de
diseñar o imaginar. Al principio se comentaba que por una parte es cierto que tenemos
muchos datos pero nos encontramos también
con grandes carencias a la hora de poder dar →
39
Entorno CIC - Mesa de ideas
respuesta a ciertas preguntas porque éstos no
responden debidamente a cuestiones complejas, con lo cual necesitamos nueva tecnología,
nuevos diseños, que a su vez nos dan apoyo en
este camino hacia lo que él comentaba: la modelización de esos datos en nuevos paradigmas
o en nuevas cuestiones.
Enrique Zuazua: Lo que pasa es que yo no sé si
es tanto falta de datos, porque el modelo que
ha descrito Eudald creo que es el modelo de la
mecánica de los fluidos, de los gases, que es en el
fondo la única que entendemos. Es como jugar
al billar. Hay bolitas, tú le das a una, que a su vez
le da a otra, la otra rebota… y al final produce carambolas totalmente inesperadas. Creo que en
el ámbito que tú mencionas está la necesidad de
axiomatizar, o sea, cuáles son las propiedades
relevantes, qué sustituye al color, la temperatura, la velocidad; y eso es lo que creo que está
por determinar. Y no sé si es tanto una cuestión
de datos como más bien de todo lo contrario,
que alguien se siente como decía Eudald antes
y que haga el trabajo de Kant; y establezca lo
que realmente determina el comportamiento
social, los diez principales ingredientes y sus
interacciones que puedan ser descritas en un
pequeño mapa. No sé si eso está hecho. Me da la
impresión de que para eso falta mucho. Y cuando esto se haga, los datos empezarán a encajar.
Eudald Carbonell: Yo creo que antes que modelización, lo cual también es verdad, estoy de
acuerdo en que es una parte técnica y mecánica
y hace falta una teoría de la evolución social.
Enrique Zuazua: La axiomatización.
Eudald Carbonell: La teoría de la evolución, que
funciona tremendamente bien, y nadie ha sido
capaz de encontrar una brecha que ataque a
la descendencia con modificación. Esta teoría está cerca de la realidad. No es una teoría
en el sentido de un artefacto explicativo, sino
que explica la propia realidad, con lo cual ya
tampoco es una teoría, sino una metateoría.
Es un metasistema porque normalmente los
criterios normales en falsación científica dicen que una teoría que no puede ser falsada
no es científica. Nadie ha podido establecer, ni
desde la paleontología, ni la genética, ni la arqueología, ni la prehistoria, argumentos sólidos
para rebatirla. Haría falta añadir a la teoría de la
evolución biológica una teoría de la evolución
social y ésta es mi gran aspiración, construir
una teoría unificada de la evolución, explicar
cómo somos capaces a través de las leyes de
la biología y de sus interacciones culturales
de establecer cuáles son las propiedades que
40
Entorno CIC - Mesa de ideas
la socialización humana ha introducido en
el proceso de adaptación biológica. Nosotros
somos sociales por naturaleza, la emergencia
de un descubrimiento y su socialización es un
proceso que solo se da a nivel acumulativo y exponencial en los humanos, no se da en ninguna
especie conocida. Hemos analizado desde seres
unicelulares a pluricelulares, es decir, nuestra
estructura social se ha retroalimentado gracias
a la tecnología. La tecnología ha resocializado a
los primates humanos. Tenemos algunos rudi-
“¿Hasta qué punto son
interpretables por la comunidad
no científica muchas de las
variables que vemos y leemos?”
Iñaki Letona
mentos para intentar establecer leyes si somos
capaces de establecerlas y que complementen
la teoría biológica de la evolución, así estaremos en condiciones de llegar a nuestro objetivo.
Iñaki Letona: En esas mesas de sabios o de personas que intercambiáis datos y conocimiento,
donde os reunís muchísimas disciplinas; por
ejemplo, en los encuentros en las Islas Galápagos, se ha estado hablando efectivamente de
que vamos hacia a una hecatombe…
Eudald Carbonell: … a un colapso.
Iñaki Letona: A esto, principalmente, quiero
referirme. En esos debates o encuentros, de
las diversas disciplinas o multidisciplinas en
las que convergéis en ese tipo de pensamientos o de conclusiones ¿habéis llegado a poder
evidenciar el que se pueda dar ese colapso o a
plantearnos si no está ya en marcha y es irreversible? Existe una cierta irreversibilidad o al
menos eso tengo entendido. ¿Hay datos? En
este sentido, pueden estar equivocados? Es
decir, de todas estas dataciones, de estos conocimientos, de estas hipótesis, tesis…. que se
están poniendo encima de la mesa ¿hasta qué
punto el error, tan importante en la medición,
en este caso, es una esperanza?
Enrique Zuazua: Eso depende de la plasticidad
social. Si no fuera por ella no habría esperanza.
Es como en el cristal del coche: si tiene un pequeño poro… No sabes cuánto va a durar: igual
dura cinco años o toda la vida. Salvo que haya
otro elemento o agente que dote al cristal de
capacidad de cambiar de fase, eso es un defecto
que inexorablemente le va a conducir al colapso, a la catástrofe, a la singularidad. La cuestión
es si la sociedad tiene la suficiente plasticidad
como para absorber esas burbujas que le han
surgido y que aún están ahí.
Iñaki Letona: Pero, ¿no se estarán confundiendo
(interpretándolos erróneamente) con toda esa
cantidad de datos que se manejan? ¿No nos
estaremos confundiendo también nosotros?
Enrique Zuazua: Ni nos confundimos ni nos
dejamos de confundir, hay burbujas que están
explotando permanentemente. La inmobiliaria
ha sido igual la más gorda, la que todos hemos
vivido. Todo occidente hemos perdido un 20%
de nuestro patrimonio, pero la cuestión es si
globalmente el planeta y los humanos tenemos
suficiente plasticidad como especie como para
transmutar a otra fase donde esa burbuja pueda
ser digerida. Es como los gases en la digestión…
Iñaki Letona: Ligado a esto, los matemáticos
trabajáis con datos, con variables de muy diverso tipo… ¿Hasta qué punto los matemáticos
no sois una ciencia que ayuda y que confunde?
Enrique Zuazua: Confundir no; si uno usa bien
las matemáticas, nunca confunde. Las matemáticas son una ciencia básica y, además,
una herramienta pero, obviamente, hay que
utilizarlas bien. Las paradojas de la estadística
son bien conocidas, uno puede coger cualquier
conjunto de datos y deducir cualquier tipo de
comportamiento absurdo. Por eso hay que
utilizarla bien.
Iñaki Letona: Te lo comento por lo siguiente.
Yo he leído hace poco sobre los fractales, en
concreto, La geometría fractal de la naturaleza y,
sin embargo, he visto que llevando esta teoría
a su aplicación, p.e. a la biología, dentro de la
complejidad que tiene, algunos matemáticos,
físicos, médicos o biólogos, principalmente,
opinaban que las conclusiones a las que se
llegaban a través de la aplicación de la geometría fractal podían ser un engaño o se llegaba
a conclusiones erróneas.
Enrique Zuazua: La teoría fractal lo único que
indica es que hay determinadas estructuras
geométricas que pueden ser reproducidas y que
lo puedes hacer, por ejemplo, en los azulejos. La
naturaleza acierta, en cierta medida reproduce estos fractales y acaba generando fronteras
suaves allá donde parece que hay rugosidad,
armonía donde hay desorden, etc. Pero no veo
cómo la teoría de los fractales, que está basada
en leyes autorreproductivas de funciones, que
a veces convergen y otras divergen, puede confundir si uno las utiliza bien. Evidentemente la
naturaleza es mucho más rica que cualquier
construcción matemática y precisamente por
eso seguimos haciendo ciencia. Pero no creo que
se pueda achacar nada a la teoría fractal, que no
es más que una clase de conjuntos que se fueron
encontrando desde que se inició esa reflexión
sobre incompletitud, la complejidad, los conjuntos de Cantor,… Los conjuntos fractales no
son más que reflejos de una constatación. Basta
mirar el relieve de un objeto en cualquier ámbito
de la naturaleza, para darse cuenta que no es
solamente ceros y unos repartidos de manera
regular. Pero no sé cómo se puede decir que la
teoría fractal tiene algo de incierto o de confuso
salvo que sea aquella confusión a la que pueda
conducir el mal uso de la misma.
Iñaki Letona: Cambiando de tema, me gustaría
conocer cuáles son las variables o datos que
estáis trabajando, por ejemplo en vuestro caso,
en cic tourgune.
Aurkene Alzua: Estamos trabajando en ámbitos
muy diferentes, pero te doy dos ejemplos. Uno, lo
micro, poder medir, representar numéricamente; primero, los flujos de las personas que están
fuera de su hábitat cotidiano en un entorno no
habitual, no es mi casa o mi oficina. Por ejemplo,
cualquier ecosistema o cualquier espacio determinado pueden tener un doble papel. Para ti Bilbao puede ser cotidiano y para mí no. Tenemos
que saber quién es el visitante, quién está fuera
de su entorno cotidiano, que es una gran dificultad. Es importantísimo poder identificar esa
partícula en ese espacio y entender y medir los
ciclos afectivos de esas personas para empezar
a poder inferir algún tipo de conocimiento entre
patrones de flujos con evoluciones afectivas en
un momento dado. ¿A qué se debe? Se sabe muy
poco sobre cómo se «consume» el lugar, o el espacio temporal que hacemos las personas en un
desplazamiento, como ejemplo de turismo. Es
una cuestión muy difícil de medir y eso es lo que
estamos haciendo en lo micro, en la medición,
que tiene que ver mucho con todas las nuevas
“La arqueología, a gran escala, es
medir el tiempo, como también
el espacio donde se encuentra
el registro arqueológico. Si no
midiéramos, no existiríamos
como agentes de conocimiento”
Eudald Carbonell
tecnologías que nos ayudan a seguir el rastro
de una persona; el móvil, el dispositivo móvil es
una herramienta de trabajo para nosotros. Y en
lo macro, estamos buscando estructuras simples de comportamiento humano, más allá de
lo coyuntural que viene dado por las realidades
culturales y sociales en cada caso…
Esos son los dos grandes retos y ahí nos estamos
encontrando con muchísimos problemas de los
que he estado hablando antes, de la interoperabilidad, de la naturaleza de los datos, de la
gestión de todos los datos, de la construcción
de variables, etc.
Iñaki Letona: Eudald, vais a empezar una nueva campaña. La trigésimo segunda campaña,
tengo entendido, campaña con otras mediciones… Aunque parece que siempre se repiten
las mismas cosas, continuareis midiendo y
descubriendo …
Eudald Carbonell: Sí, empezamos la Campaña
en Atapuerca el día 15 de junio cada año. Pienso
que en nuestro sistema científico la redundancia
es la que nos ha permitido establecer criterios
que tienen cierta viabilidad evolutiva. Nosotros
hemos tomado una serie de caminos y uno de
los fundamentales y básicos es la medición del
tiempo. Pongo un ejemplo para ilustraros. Cuando llegamos a Atapuerca con el profesor Emiliano Aguirre hace más de treinta años, encontramos una mandíbula de 300.000 años. No había
ningún dato radiométrico, solo la morfología
de la mandíbula, pero sin aplicación de series
isotópicas. Hemos profundizado en lo que es el
origen del tiempo y de los homínidos en Atapuerca. Y de cuando empezamos con registros
de una cronología desde 300.000, ahora estamos
en 1.300.000. El reconocer una serie estadística
evolutiva que asocie herramientas y homínidos
y contexto faunístico, nos permite trazar una
secuencia en arbusto, o la genética, que nos
acerca a la comprensión de los fenómenos de
adaptación y adquisición de los homínidos en
este tiempo. Con lo cual, medir, paleomagnetismo, núclidos cosmogénicos, toda la física, y la
física química que es la que nos permite la gran
escala temporal para tener elementos parados
en el tiempo, para establecer analogías y poder
observar los cambios en estos procesos.
Y después, por supuesto, un segundo nivel, son
los análisis de laboratorio que son la medición,
espécimen por espécimen, tanto a nivel botánico como a nivel paleontológico que nos expliquen la ontogenia de los objetos, es decir, cómo
estos objetos en esta escala general juegan un
papel de variabilidad y cómo somos capaces de
reducir esta variabilidad en un proceso filogenético, es lo que estamos trabajando ahora. Precisamente, a mí esta experiencia empírica y mis
formas de conocer, me han dado la pauta para
intentar abordar con un equipo de prospectiva,
de prognosis, sobre los humanos, instrumentar
elementos para la teoría de la evolución social. →
41
Entorno CIC - Mesa de ideas
Enrique Zuazua: Los matemáticos tenemos
tendencia, como todos los seres humanos, a
intentar llevar las cosas a nuestro terreno, y
nuestro terreno es el de los parámetros adimensionales. Entonces los matemáticos buscamos
paradigmas como el que comentaba Aurkene,
de lo micro frente a lo macro. Antes hablaba de
encontrar modelos fluidos en el ámbito de las
redes, y no es tan de sorprender lo que antes
comentaba Aurkene en el ámbito del comportamiento de las personas cuando están fuera
de su propio hábitat; uno empieza a pensar en
modelos, en axiomas, en dinámica, en evolución y, posiblemente, se dará cuenta de que no
es tan distinto a lo que antes hablábamos de las
bolas de billar, de los fluidos, de las redes, de Internet, etc. A los matemáticos nos gusta llevar
las cosas a ese terreno. Cuando lo que tenemos
es un grafo, tenemos conexiones entre sus elementos y nodos e intentamos determinar qué
es lo que hace que algunos puntos de ese grafo
sean más importantes que otros. Por ejemplo,
el algoritmo de Google, es un algoritmo simplemente matemático. ¿Por qué cuando uno pone
en Google, por ejemplo, Bilbao, te sale seguramente la página web del Ayuntamiento de Bilbao y no te sale la página web de mi vecino que
también se apellida Bilbao? Es la ordenación
inducida por primer autovector de la matriz de
conectividad del grafo que, según el teorema de
Perron, en el caso de una matriz simétrica definida positiva, tiene todas las entradas positivas
y como son positivas las puedes ordenar. Es en
eso donde los matemáticos experimentamos
el placer, el trabajar con ese tipo de temas. Dicho esto, como en bcam somos un centro de
matemática aplicada, todos los días tenemos
que abordar temas más concretos, pero repito, siempre intentamos llevarlo al terreno de
lo adimensional, de los axiomas y los modelos
en temas, por ejemplo, como la medición del
viento. Tú antes lo comentabas, los datos, la
estadística, eso es algo tremendamente complejo. En el ámbito de la energía, en la energía
eólica, por ejemplo, uno de los temas claves es
la medición del viento, cómo se mide, cómo se
extraen tendencias, consecuencias, etc. Tenemos ámbitos de trabajo variados como son las
redes de telecomunicaciones, las energías, los
fluidos, la biología matemática, la teoría de la
elasticidad de los materiales, donde tenemos
siempre que contrastar lo que hacemos con los
datos numéricos y experimentales. Pero ahí tenemos un gran aliado que es el ordenador. Al
final, los matemáticos hacemos modelos teó42
Entorno CIC - Mesa de ideas
ricos que después trasladamos a algoritmos y
que testamos en el ordenador. Muy rara vez hoy
en día las matemáticas se cruzan con las tablas
de datos directamente. En la actualidad, hay
un intermediario, que es el ordenador, o sea,
teoría matemática, ensayo en el ordenador y
contraste con los datos. Y, a partir de ahí, como
explicaba Eudald, esa mejora constante de los
modelos, que evidentemente siempre son necesariamente demasiado simplificados. Esa
mejora se produce a través del procedimiento
de la asimilación de datos, que es lo que se ha
hecho en meteorología de manera sistemática
para ir mejorando los modelos, es decir, aprovechar el defecto del modelo que tenemos hoy
para mejorarlo. ¿Por qué? Porque si somos capaces de evaluar qué defecto tiene el modelo
ya sabemos en qué dirección lo tenemos que
mejorar. Precisamente, con esa idea a mí me
suele gustar poner un ejemplo para explicar lo
que de alguna manera inspira a la teoría de la
asimilación de datos, la optimización, el diseño matemático, etc.: Estamos de noche en el
monte, no vemos nada, pero queremos bajar a
casa, ¿qué haríamos? Palpar el terreno y avanzar hacia abajo. Pero eso ya sabemos que lo tenemos que volver a verificar de vez en cuando
porque la pendiente del terreno puede volver
a cambiar. Y eso es lo que en matemáticas se
llama los métodos gradientes de descenso y es
lo que en la práctica, con el intermediario del
ordenador, nos está permitiendo acercar los
modelos matemáticos a realidades cada vez
más complejas. Y, por eso, el tiempo lo podemos predecir para siete días y no para dos como
hace veinte años. Ahora, estamos todavía lejos
de los millones de años…
Aurkene Alzua: Sin las matemáticas y las capacidades computacionales no podríamos avanzar. La mitad del trabajo o más que hacemos
en nuestro centro tiene que ver con ello para la
transformación de los datos porque, en nuestro caso, trabajamos en esta construcción de
variables y de modelos complejos, no podríamos generar ningún puente hacia pequeños
fragmentos de información, base de algunas
premisas teóricas. Vosotros también trabajaréis
y el apoyo de las matemáticas es fundamental.
Eudald Carbonell: Yo hice mi tesis sobre El sistema lógico analítico aplicado a los conjuntos
líticos pleistocenos del Mediterráneo occidental
El Montgri (Girona). Me di cuenta que las clasificaciones que había eran arbitrarias, los objetos
en vez de clasificarlos con una serie de variables
conocidas se hacían por analogía. Por ejemplo,
“¿No se utiliza a la opinión
pública con los datos que
nosotros tenemos y usamos? ”
Iñaki Letona
“Los matemáticos tenemos
tendencia, como todos los seres
humanos, a intentar llevar las
cosas a nuestro terreno, el de los
parámetros adimensionales”
“La Ciencia en su base tiene una
tautología; lo importante no es
la respuesta, sino la pregunta”
“La expresión de la medición
nos ayuda a ser conscientes de
ese gran mundo desconocido
del que somos parte”
Eudald Carbonell
Aurkene Alzua
Enrique Zuazua
por la forma, una pieza tallada tenía forma de
tortuga… núcleo de tortuga, esto es muy pedestre. Esta pieza tiene que ponerse en espaciotiempo, apliqué la teoría de la información y
apliqué, porque me pareció que era lo más correcto, la termo-dinámica del conocimiento de
la morfología de los objetos. Apliqué el principio
de entropía, una piedra que es un canto redondo, cuando le vas dando golpes hasta hacer un
hacha, ¿qué ha pasado? Ha habido una pérdida
de peso, de volumen y la aparición de formas
intermedias hasta llegar a una forma final. Pues
lo que hice fue, de los ochenta o noventa caracteres que utilizaban para clasificar una piedra lo
reduje a seis. ¿Cómo lo hice? Muy sencillo, con
estadística inferencial. Con análisis de correspondencia y análisis de componente principal,
algoritmos muy sencillos, los que me permitieron ver que el peso de los ejes, con seis variables
o siete de clasificación del objeto, obtenía entre
el 60 y 90 % de información. Lo que hice fue
suprimir las fichas de ordenador que había de
la época que tenías que tomar decenas de datos.
Reduje el número de variables para realización
del análisis tecnológico-analítico.
La teoría de la información y la termo-dinámica
me dieron la llave para hacer el proceso y efectivamente, reduje a seis o siete. Este sistema de
clasificación se ha aplicado en todo el mundo
que es el éxito para establecer variables de la
evolución de las piedras.
Iñaki Letona: Insisto, con el aspecto del posible
«error». ¿No os asusta el miedo al error? El error
es intrínseco en la medición. Un error de datación, un error de aplicación en una variable, un
error al tomar determinado tipo de σ (sigma)…
Enrique Zuazua: Aquí los científicos lo que tenemos que hacer no es acertar sino errar mejor.
Eudald Carbonell: Te puedo ilustrar lo que estás
diciendo: se trata de una cuestión de paradigma científico. Cuando nosotros descubrimos el
Homo Antecessor, trabajábamos en una secuencia estatigráfica de la cual teníamos muy poca
información. Hay secuencias que las tenemos
datadas porque llevamos mucho tiempo trabajando en ellas y cuando llegamos a un nivel
conocemos la biocenosis en cronología. Cuando hacíamos lo del Antecessor no sabíamos, encontramos los restos, se hacen las dataciones
paleomagnéticas en este caso y dices, miren
ustedes, la impresión paleomagnética está por
encima de este nivel, es decir, lo que han encontrado tiene más de 850.000 años. Automáticamente, quien hace eso es el doctor Parés,
un colega que trabajaba en Michigan (Estados
Unidos), y le digo, ¿estás seguro?, ¿has hecho
varias dataciones? Si no has hecho redundancia
y lo que publicas es falso, posiblemente nunca
más publiques nada, porque los colegas no entenderán que es un error, se entenderá que has
hecho un protocolo mal. Por ejemplo, Harris,
que trabajó en África, tuvo una confusión geoló-
gica, porque no tenía un buen geólogo, y publicó
unas industrias que tenían 8.000 años como si
tuvieran dos millones y medio. Nunca más ha
publicado nada. Esto realmente es un error
muy grave, ¿por qué? Porque se ha hecho mal,
el error no viene de que ha fallado una máquina,
es porque se ha hecho mal. Todos cometemos
errores, tenemos que evitarlos.
Aurkene Alzua: En el proceso metodológico ha
habido un error en su caso. Yo creo que existen diferentes tipos de errores, pero lo cierto
es que si le llamamos error al poder superar un
paradigma y al poder enfrentarte a un nuevo
método con un nuevo instrumento, que quizás
es un camino erróneo, pero no hay otra manera
para poder avanzar en el conocimiento... Yo no
tengo ningún miedo al error. Lo que sí tengo
es miedo a la falta de metodología científica,
de procesos bien controlados, del trabajo sistémico y del rigor.
Cuando carecemos de esas habilidades o de
esos procedimientos, entonces, se acabó.
Enrique Zuazua: Lo que sí es cierto es que en
matemáticas antes el trabajo era muy individual, de modo que el margen de error estaba
controlado a la mínima. Evidentemente, sí podía haber un error, pero cada uno, de alguna
manera, trabajaba en los ámbitos en los que se
sentía técnicamente capaz y, por tanto, llegaba
hasta donde llegaba. La cosa empieza a ser más
compleja ahora donde el tipo de problemática a
la que nos enfrentamos, muchas veces en centros como el nuestro, donde tienes que hacer
frente a retos más ambiciosos, más complejos,
más multidisciplinares, te obliga a involucrar
a diferentes personas. Entonces, el coordinador del equipo de investigación no tiene más
remedio que ceder parcelas de responsabilidad,
de verificación, a colaboradores. Y es ahí donde
uno, efectivamente, aumenta el riesgo. Nosotros cuando trabajamos en el ámbito aplicado
industrial, como está claro que lo que desarrollamos son algoritmos para modelos más o menos adimensionales, después tiene que haber
un post-proceso, una adaptación, un trabajo
de ingeniería, de verificación antes de ser aplicados. Ahora, dentro del ámbito estrictamente
matemático sí que es verdad que en el momento
de poner varias disciplinas juntas se pierde un
poco esa capacidad de verificación.
Eudald Carbonell: Vuelvo al ejemplo de la última mandíbula que descubrimos. Lo que se hizo
para asegurar que haya integración de datos es
reunir todo el equipo de especialistas delante
del yacimiento, físicamente, en el nivel donde
se encontró el fósil, que explicarán el contexto
y toda la información analítica que proporciona
el mismo. Los geocronólogos que presentan las
series corregidas estadísticamente, los botánicos que presentan las muestras palinogramas,
los arqueólogos que presentan sus datos y los
últimos trabajos que se han hecho sobre el pe- →
43
Entorno CIC - Mesa de ideas
riodo que estamos trabajando. Y, en torno a eso,
se certifica el artículo que después se publica. El
resultado es un artículo consistente.
Aurkene Alzua: Es cierto que en sistemas distribuidos los errores crecen. No sé si es su caso o
el nuestro. Pero lo cierto es que no solo no trabajamos solos, sino que hay muchos equipos parecidos al nuestro que trabajan en el mundo en
cuestiones similares, con lo cual también tenemos
capacidad de contrastar lo que estamos haciendo.
Y creo que eso es muy importante. Cosas parecidas a las que hacemos aquí, se están haciendo
en Filadelfia, en la Universidad de Temple o en
Viena. Tengo colegas que están haciendo cuestiones similares y puedo ver cuán divergente o dispar
es mi trabajo con respecto al suyo. Y yo creo que
eso es también interesante, en el fondo tampoco
estamos trabajando de manera tan aislada.
Iñaki Letona: ¿Puede existir la física sin las matemáticas? ¿Tendrían sentido las matemáticas
sin la física? ¿Encuentran las matemáticas la
medición en la física? ¿Son primas hermanas?
Enrique Zuazua: Matemática y física son lo
mismo. Newton escribió los Principia Mathematica, y estableció los principios de la física y
todo lo que hoy eso arrastra en los ámbitos de
las ciencias sociales, de la antropología. También en esos ámbitos intentamos aplicar los
principia de Newton en realidad. Entonces, las
matemáticas y la física son hermanas gemelas
y, a partir de ahí, establecer fronteras es muy
difícil. De hecho existe esa disciplina que se
denomina Física Matemática. Hoy se reseñaba el fallecimiento de Vladimir Arnold, como
44
gran físico y matemático, de la teoría de los
sistemas dinámicos, los billares no lineales, etc.
Arnold dio una charla muy bonita hace veintitantos años en Nueva York pues le habían dado
el Premio del Tiempo –un joyero suizo judío
que había hecho dinero y que había dotado el
Premio del Tiempo–, por hacer una relectura
de los principia de Newton. Él enfatizaba la
dificultad de establecer las fronteras. Lo que
sí es cierto es que hay una parte de esa física
matemática que cada vez se ocupa de teorías
más abstractas y más identificadas con las matemáticas; y otra parte de la física, que es ya
más experimental, que trabaja con los láseres
en los laboratorios de óptica y que se identifica
más con la física de hoy. Pero siempre hay una
interfase extremadamente difusa y común. Y
estoy convencido que en el futuro va a seguir
siendo así. Es como la informática. Me acuerdo
del error histórico de los matemáticos al desinteresarse por la nuevas facultades de informática. Diez años después vieron cómo muchos
alumnos se iban a la facultad de informática.
Pero ahora, dentro de las matemáticas, uno
de los grandes temas es el de la complejidad
algorítmica, que ahora tiene sentido a través
de los ordenadores y que consiste en intentar
entender si los ordenadores van a ser capaces
de crear realidades virtuales, que no van a corresponder con las que realmente nosotros conocemos e identificamos como físicas. Al final,
las matemáticas quedarán como un punto muy
pequeño en el mapa de las ciencias, pero en
el centro, irrigando un poco todo el sistema
científico. Cada vez más, cuando oyes hablar
a nuestros colegas desde las ciencias sociales,
la antropología, la paleontología, te das cuenta
que el nivel de las matemáticas va creciendo
también en esas disciplinas, como si el grifo
estuviera abierto.
Aurkene Alzua: Yo ahondaría un poco más en lo
que dices, estoy totalmente de acuerdo. En mi
opinión ha sido un error hacer que las ciencias
naturales y la matemática trabajarán a espaldas
de las ciencias sociales y las humanidades. Yo
creo que no vamos a ningún sitio así. De hecho,
la realidad nos está diciendo que esa convergencia es la que está generando importantes
innovaciones en el campo científico y nos está
ayudando a comprender mejor los fenómenos
de nuestro entorno, sean de carácter natural o
sociales. Creo que seguiremos requiriendo de
trabajar más en representaciones numéricas.
Nosotros buscamos dar una representación
numérica a un fenómeno específico y poder
representar también lingüísticamente lenguajes lógicos, gramáticas lógicas, que es la base
prácticamente de todo lo demás. Yo creo que la
matemática se ha beneficiado de la filosofía, por
ejemplo, del pensamiento abstracto. Y yo creo
que estaba y estará en la base de todo lo que
hacemos. La finalidad está en llegar a mayores
grados de comprensión mediante la representación formal del conocimiento.
Enrique Zuazua: Einstein dijo algo sí como:
¿cómo puede ser que la matemática, una construcción artificial de la mente humana, sea capaz de describir la realidad con tanta fidelidad?
Xxxx xxxx xxx xxxxx
Entorno CIC - Proyectos de investigación
Proyectos de
investigación
en el diseño y explotación de una instalación local, que desarrollen capacidades para traccionar a un entorno industrial con actividad incipiente
en el suministro de equipamiento con destino a grandes instalaciones
de experimentación avanzada.
Consecuencia directa del acuerdo a que se hace referencia en el anterior
párrafo ha sido la nucleación de un equipo de proyecto que durante el
pasado año ha llevado a cabo un diseño de la instalación a construir por
ess-Bilbao y sus posibles aplicaciones, manteniendo al mismo tiempo
la colaboración en las labores de rediseño que encara en el momento
presente el proyecto ess3.
ess-bilbao
En su primer año de andadura en esta nueva fase, ess-Bilbao ha completado el diseño básico del acelerador lineal de iones ligeros y de la fuente de
generación de neutrones a baja energía. De estos, la sección del acelerador que se opera a temperatura ambiente está actualmente en construcción.
La máquina ha sido diseñada para cumplir con las especificaciones del proyecto ess, tal y como fueron descritas por la comunidad de expertos1
y que no han sufrido revisión. El nuevo centro de Bilbao servirá como base para soporte en el sur de Europa de diversas actividades en ciencia y
tecnología de aceleradores en el contexto de ess así como de las diferentes colaboraciones actualmente en curso. Además se han previsto un buen
número de aplicaciones para los haces de iones ligeros y los neutrones rápidos producidos en la instalación mediante reacciones de captura de
protones a baja energía.
ESS-Bilbao: E. Abad, I. Arredondo, I. Badillo, D. Belver, F.J. Bermejo,
I. Bustinduy, D. Cano, O.D. Cortázar, D. de Cos, S. Djekic, S. Domingo,
P. Echevarría, M. Eguiraun, V. Etxebarria, D. Fernández, F.J. Fernandez,
J. Feuchtwanger, N. Garmendia, G. Harper, J. Jugo, H. Hassanzadegan,
G. Larrea, F. Legarda, M. Magan, R. Martínez, A. Megia, L. Muguira,
G. Mujika, J.L. Muñóz, A. Ortega, J. Ortega, M. Perlado, J. Portilla,
I. Rueda, R. San Martín, F. Sordo, V. Toyos, A. Vizcaino
46
90 mA
300 MeV
75 kW
50 Hz
1.5 ms
352.2 MHz
9 MV/m
Tabla 1. Principales parámetros del acelerador de protones de ess Bilbao
Ess-Bilbao: Centro de aceleradores
y fuente de neutrones a baja energía
para el sur de Europa
Motivación
Hace ya algo más de un año, una reunión de representantes de países
con intereses diversos en el uso de haces de neutrones para investigación en Ciencias de la Materia Condensada, votaba abrumadoramente
a favor de la ubicación en el sur de Suecia (Lund) del futuro proyecto
Max. corriente protones
Max. energía final
Max. potencia de haz
Max. tasa repetición
Longitud de pulso
Frecuencia de paquetes
Max. gradiente cavidades
de Fuente Europea de Neutrones por Espalación. La decisión daba al
traste con las esperanzas de localizar en Bizkaia la única gran instalación europea presente en todo el territorio estatal. No es este lugar para
discutir las razones de tal resultado, que comprenden tanto la escasa
actividad española en la provisión de instrumentos científicos2 como la
claramente mejorable gestión de algunos aspectos de la candidatura.
Lo que aquí es sin embargo relevante concierne a la reacción de los
responsables ministeriales quienes al suscribir un acuerdo bilateral en
el marco del proyecto ess han habilitado la apertura de una ventana de
oportunidad que debiera permitir reducir nuestro fuerte déficit tecnológico en instrumentación científica avanzada. Tal actuación debiera
permitir establecer en nuestro país un núcleo de expertos en tecnología
de aceleradores de potencia y sus aplicaciones con experiencia directa
Descripción del Proyecto en Ejecución
Las tareas que ess-Bilbao (essb) acomete en el presente conciernen al
diseño de detalle y construcción de un acelerador lineal (linac) para
iones ligeros (protones, iones H o D negativos) capaz de alcanzar energías
finales y emplear intensidades de corriente que permitan su explotación
en un abanico amplio de especialidades que engloban desde aspectos
básicos en ciencias de materiales, electrónica, radiobiología y oncología
radioterápica experimental o física fundamental, hasta desarrollos de
tecnología de componentes y subsistemas eléctricos y electrónicos, mecánicos, de radiofrecuencia de alta potencia, de control etc.
El linac ha sido concebido como una máquina multipropósito, única en
su género al sur de Europa, cuyo objeto es el desarrollo en nuestro país de
una base de expertos en tecnología de aceleradores. Ello se ha realizado
cumpliendo además el diseño de la máquina con las especificaciones
requeridas para poder eventualmente emplear la tecnología desarrollada
en el inyector de la European Spallation Source (ess), una vez que este
último proyecto comience a despegar. El proyecto essb trata pues de desarrollar localmente capacidades significativas necesarias para soportar
la participación del país en un buen número de proyectos de aceleradores
en todo el mundo en los que el estado participa a través de suscripciones
dinerarias (cern, esrf) o mediante acuerdos de desarrollo de tecnológía
(fair, isis, ifmif/eveda).
Este artículo presenta el estado actual de los proyectos en curso en essb
dirigidos a construir la primera sección del acelerador que opera a temperatura ambiente, así como un criomódulo de test para dos resonadores superconductores de tipo radial (spoke resonators), que demuestre
la viabilidad de esta tecnología superconductora bajo haz en la segunda
sección del linac. Además se resumen algunas de las aplicaciones previstas tanto para los haces de iones ligeros como para los neutrones que
se producirán. Las previsiones actuales se centran en un acelerador de
protones/H-, aunque está en estudio la posibilidad de usar un inyector
común para protones y deuterones de baja energía.
Diseño del LINAC de protones/iones ligeros
Los parámetros básicos del acelerador de Bilbao se muestran en la Tabla
1. Todas las estructuras de aceleración planeadas o en desarrollo se han
diseñado para satisfacer las exigentes demandas de ess1, de modo que la
tecnología desarrollada pudiera eventualmente ser usada en la parte de
baja energía del linac de ess. La única decisión pendiente sobre los componentes a temperatura ambiente de la máquina se refiere a la posibilidad de
incluir una segunda línea para acelerar deuterones a baja energía, además de
la línea ordinaria de aceleración de protones. La ventaja de los deuterones
con respecto a los protones es la alta producción neutrónica al impactar en
blancos a energías moderadas, así como la muy remarcable dependencia
angular del espectro de los neutrones rápidos generados, que puede ser útil
Angulo
0º
15º
40º
en muchos
campos, como por ejemplo
en aplicaciones
de física
nuclear.
13 del acelerador
13 se describe a13contiEl estado
actual
de
los
componentes
0 < E < 10 MeV
3.30 10
3.17 10
2.48 10
nuación
somera. 3.91 10 12
4.25 10 12
3.14 10 12
10 <deEforma
< 20 MeV
En la 20
Fig.<1,Ese<muestra
de
forma
esquemática
la
estructura
del acelerador
2.35 10 12
2.15 10 12
1.06
10 12
30 MeV
de essb, cuya fase inicial la constituyen
las
fuentes
de
partículas
cargadas
12
11
1.64 10
7.17 10
1.58 10 11
30 < E < 40 MeV
(iones) a acelerar, seguido por una sección
de
estructuras
de
aceleración
13
4.08 1013y una sección
3.87 10 que
2.90
1013 por
Total a temperatura ambiente
que operan
está
formada
elementos que contienen cavidades superconductoras. Por razones de
viabilidad así como con el fin de permitir la explotación de la instalación
en un tiempo razonablemente corto, hemos programado la construcción
de la infraestructura en dos fases bien determinadas como:
···· Fase 1. Involucra la construcción de la máquina con capacidad
de aceleración del haz hasta unos 50 MeV. Tal fase contempla la
construcción y entrada en funcionamiento de las estructuras que
operan a temperatura ambiente así como un primer criomódulo de
prueba que contiene dos resonadores superconductores. Se prevé
en esta fase extraer haces de protones a varias energías con vistas
a su aplicación directa en varias líneas experimentales así como
la construcción de un blanco de generación neutrónico basado en
reacciones de producción directa (p,n) sobre un material ligero.
···· Fase 2. Contempla esta segunda fase la extensión del acelerador
mediante elementos basados en tecnología superconductora hasta
alcanzar una energía final de 300 MeV. Se prevé en esta fase remplazar el blanco de baja energía por una fuente de generación
neutrónica mediante reacciones de espalación sobre un blanco
rotatorio de metal pesado.
Describimos a continuación de forma conceptual las estructuras involucradas en la construcción de la primera fase.
Estructuras del acelerador
Fuente de Iones
El primer componente de un acelerador lo constituye una fuente de iones.
En el caso de un acelerador de electrones, tal fuente es usualmente un
cañón de electrones como por ejemplo un cátodo metálico sometido a
alta temperatura. En un acelerador de protones, la fuente parte de hidrógeno molecular comercial, al que se somete a procesos de disociación
molecular, añadiendo en casos un electrón adicional al ion H o extrayendo
H cargados positivamente en otros.
La primera fuente de iones de essb ha sido construida e instalada, realizándose en la actualidad pruebas de los diversos subsistemas y entrará
en explotación próximamente. Comprende una fuente H- tipo trampa
de Penning basado en el diseño de isis-fets4, capaz de suministrar un →
47
Entorno CIC - Proyectos de investigación
Entorno CIC - Proyectos de investigación
haz de iones de 70 mA en pulsos de hasta 1.5 ms de duración y típicas
tasas de repetición de 50 Hz. A continuación se ha instalado un conjunto
completo de sistemas de diagnósticos de haz, que permiten medir la corriente de haz de iones, su energía así como el perfil del haz. A principios
de primavera de 2010 comenzó la producción estable de protones. Las
Figs. 2 y 3 muestran los pulsos de plasma de hidrógeno en el osciloscopio
y la luminiscencia característica de dicho plasma.
En paralelo con el desarrollo de la fuente de iones H -, se ha comenzado la construcción de una nueva fuente pulsada de protones/deuterones basada en el principio de resonancia electrón-ciclotrón (ecr). En
este caso, la formación de plasma se produce mediante la aplicación
de microondas. Los plasmas se confinan durante tiempos del orden
de 10 ms mediante la aplicación de campos magnéticos cuya magnitud aproximada viene dada (en Teslas) aproximadamente por B= f /
28, donde f es la frecuencia de microondas. En este caso se ha elegido
operar en modo pulsado usando un klystron de banda S de una frecuencia f = 2.7 GHz, capaz de suministrar hasta 1.2 kW de potencia de rf.
Eje de haz
Eje de haz
6
11
6
11
11
Solera
11
6
11
11
6
11
11
6
10
11
10
9
9
11
5
11
5
11
8
5
7
4
3
2
48
1
11
8
7
lebt
La siguiente estructura tiene como objetivo transportar el haz desde
la fuente de iones y ajustarlo dentro de la ventana de aceptación del
primer elemento que produce aceleración mediante campos de radiofrecuencia referido como cuadrupolo de radiofrecuencia (rfq).
El transporte de haz de essb se basa en un diseño de cuatro solenoides y sus correspondientes fuentes de alimentación. Tal ejercicio se
ve facilitado por la experiencia previa del equipo de essb ganada en
el suministro a la Fuente de Neutrones por Espalación isis, sita en el
Rutherford Appleton Laboratory (gb) como parte de la colaboración
Front End Test Stand (fets)4. Este diseño del lebt, más largo de lo
usual en estos sistemas, se ha elegido para mejorar su versatilidad de
modo que pueda emplearse tanto para haces de H+, H- como D+, lo cual
requiere controlar los cuatro grados de libertad del trasporte del haz.
rfq
Para llegar a obtener los estrictos requerimientos de las fuentes de espalación del rango de los MW1, el rfq es un elemento clave. El diseño de esta
estructura para el acelerador de essb ha sido completado recientemente
en el marco de colaboraciones internacionales entre ral, Imperial College,
ASTeC, Warwick University y Universidad del País Vasco (upv/ehu). El
diseño contiene una mínima cantidad de braseado, de modo que el mantenimiento y las reparaciones se facilitan en gran medida, al mismo tiempo
que se garantiza un funcionamiento robusto cumpliendo especificaciones
1-Fuente H2-Fuente H+
3-LEBT
4-RFQ
5-DTL
6-Criomódulos
7-Extracción Continua a 3 MeV
8-Extracción Continua a 10 MeV
9-Extracción Continua a 40 MeV
10-Extracción Pulsada a 40 MeV
11-Klystrons
como para eventualmente poder servir como inyector para la ess.
Esta estructura de aceleración, de una longitud de unos 4 m requiere una
potencia de rf del orden de 1 MW que es suministrada por un transmisor
de rf, alguno de cuyos detalles explicamos en un apartado más abajo.
dtl
La última estructura no superconductora del acelerador de Bilbao, para
acelerar protones por encima de 3 MeV, es un linac de tubos de deriva
(dtl) tipo Alvarez de tres tanques, que deberá llevar el haz hasta los 40
MeV. El diseño en el que nos apoyamos es una adaptación del desarrollado
para el proyecto Linac4. El primer tanque, de longitud 4.6m lleva al haz
hasta los 13 MeV, y el segundo y tercero, con longitudes 5.12 m y 4.87 m,
arrojan energías de salida de 27.3 MeV y 40.5 MeV, respectivamente. Los
tres tanques incluyen internamente 45, 30 y 22 tubos de deriva, respectivamente. Un reciente acuerdo con el cern para contribuir al proyecto
Linac4 mediante la participación en la construcción en su máquina nos
ayudará a adaptar su diseño a nuestro propósito. Todos los tubos de de- Figura 2. Pulsos de plasma en la fuente de iones H
riva y los cuadrupolos de imanes permanentes, tanto para Linac4 como
1
para nuestro acelerador, se desarrollarán en el área de Bilbao.
Cada tanque del dtl está alimentado por un klystron. Las simulaciones de
2
dinámica de haz realizadas con diferentes corrientes y simuladores predicen un haz bien adaptado con emitancias dentro de especificaciones,
aunque puede ser necesario insertar un chopper a la salida del rfq, para
poder manejar distintas corrientes de haz aún usando imanes permanentes. La principal ventaja de usar cuadrupolos de imanes permanentes es
que reducen drásticamente el coste del sistema de enfocado, simplifican
3
el montaje de los tubos de deriva y aumentan la impedancia de shunt
permitiendo tubos de deriva de menores diámetros. Se ha elegido un
1-Klystron
gradiente de aceleración relativamente alto en el dtl (3.3 MV/m en el
2-Circulador
primer tanque y 3.5 MV/m en los tanques 2 y 3) para reducir su longitud.
3-Carga
4-Guía de Ondas
Sección Superconductora
5-Cavidad
La sección superconductora del linac de Bilbao acelerará los protones de
40 MeV hasta 300 MeV, y se basará en resonadores de tipo radial (spoke
resonators), que ya han sido diseñados5 y se encuentran en fase de proto- Figura 3. Luminiscencia del plasma de hidrógeno en la fuente de iones Htipación. Se ha construido un modelo en aluminio (cold model) de dicho
diseño (Figura 4) y se han medido sus campos acelerantes y su respuesta
de rf, contrastándolos con la predicción de los programas de diseño y
simulación. Se están preparando actualmente pruebas a temperatura ambiente de sintonizadores y acopladores para estos resonadores. También
en el futuro próximo se desarrollará un criomódulo de prueba con una
célula de aceleración básica consistente en dos resonadores en 5niobio y
4
un elemento focalizador superférrico. Se ha puesto en marcha recientemente una colaboración con acs (France) con el objetivo de producir el
primer prototipo de dicho criomódulo, lo cual podría permitirnos probar
cavidades radiales en condiciones de haz por primera vez.
Transmisores de Radiofrecuencia (rf) a Altas Potencias
La potencia de radiofrecuencias requerida para la aceleración a la frecuencia base de 352,2 MHz se genera mediante tubos de vacío conocidos
como klystrons cuyo desarrollo está ligado a la tecnología de radar. En resumen, tales dispositivos responden en nuestro caso de régimen pulsado a
un pulso de corriente eléctrica el cual acelera un haz intenso de electrones
emitidos por un cátodo metálico dentro del tubo mediante una serie de
cavidades resonantes alimentadas por un campo de radiofrecuancias
Figura 4. Modelo en aluminio de un resonador radial doble
49
Entorno CIC - Proyectos de investigación
Entorno CIC - Proyectos de investigación
auxiliar, hasta un cierto valor a partir del cual tal haz de electrones se
desacelera emitiendo en este proceso un pulso de rf intenso al exterior,
que se dirige hacia los resonadores en cuestión mediante un sistema de
guías de onda, siendo además capaz de atenuar las ondas reflejadas y
atenuarlas mediante una carga absorbente de rf con el fin de no dañar
el klystron. El sistema en su conjunto contiene una serie de elementos,
según se describe en la cadena que se adjunta y en la Figura 5,
Transformador -> Convertidor/Modulador -> Klystron -> Circulador ->
Guías de Onda / Carga-> Estructura Resonante
de las cuales elementos tales como el Convertidor/Modulador, responsable de la generación de pulsos de corriente para el guiado del klystron
comprenden estructuras de alta fiabilidad construidas mediante componentes de electrónica de potencia de última generación. En este aspecto, essb ha impulsado el desarrollo por parte de empresas de nuestro
entorno y en colaboración con la Fuente de Neutrones por Espalación
sns del Laboratorio Nacional de Oak Ridge de un prototipo de Convertidor/Modulador de muy altas prestaciones adecuado para operación en
fuentes de alto rendimiento como sns.
críticos y de alta especificación, como por ejemplo precisión micrométrica en guiado, enfocado y emitancia de haz, incremento en energía
(orden de GeV) y corriente de partículas (orden de décimas de Amperio)
o sincronización en el rango de los ns de los campos acelerantes de radiofrecuencia de cientos de MHz y varios MW de potencia, entre muchas
otras características para cuya resolución se requiere la presencia de forma obligada en la máquina de múltiples lazos de realimentación para
empujar a sus límites la tecnología disponible. Las actividades en curso
en essb comprenden el desarrollo de sistemas de control para todos los
numerosos subsistemas de la máquina, que involucran miles de señales
para monitorizar y controlar, así como el diseño y construcción de diversos nuevos sensores para medida de la posición, distribución temporal y
forma del haz, así como sistemas de llenado y sintonía en rf de cavidades
resonadoras, para gobernar y acompasar con alta precisión los campos
acelerantes al paso de las partículas. Todo ello se está integrando dentro
del estándar abierto epics (Experimental Physics and Industrial Control
System) dentro de una red colaborativa internacional de grandes instalaciones científicas en la que essb participa activamente.
Sistemas de Diagnóstico y Control
La operación adecuada de un acelerador requiere de la concurrencia de
un sistema jerárquico de sensores y actuadores que permiten detectar
con precisión las características del haz y corregir en caso necesario los
parámetros relevantes, lo cual incluye usualmente procesos altamente
Aplicaciones previstas para haces de protones y neutrones
El centro essb espera poder suministrar en pocos años haces de protones y neutrones útiles para la comunidad de usuarios locales, que ha
ido mostrando un interés creciente en el uso de haces de partículas en
diversos campos de las ciencias físicas y biomédicas.
1
2
3
1-Klystron
2-Circulador
3-Carga
4-Guía de Ondas
5-Cavidad
5
50
Las aplicaciones protónicas previsibles para los tres puertos diseñados a
3 MeV, 20 MeV y 40 MeV están dirigidos a aplicaciones dentro de:
···· Litografía mediante haces de protones
···· Análisis por haz de iones (pige, erda, pixe…)
···· Tecnología Ion Track
···· tof-sims de alta energía
···· Terapia experimental por radiación en células vivas y tejidos
···· Radiobiología, particularmente en el campo de mutagénesis
controlada por radiación.
Las aplicaciones neutrónicas previsibles se enfocan hacia:
···· Desarrollo de Reflectores/Moderadores,
···· Uso de neutrones térmicos y fríos para,
···· Desarrollo de detectores de neutrones apropiados para fuentes
de espalación,
···· Estaciones de instrumentos,
···· Desarrollo de selectores de velocidad de neutrones y otros
equipos de óptica neutrónica.
···· Puertos de neutrones rápidos también para aplicaciones,
···· De tiempo de vuelo para medida de secciones eficaces de
núcleos de interés en Astrofísica nuclear y otras áreas de
ciencia básica nuclear,
···· De metrología para calibrar detectores de neutrones rápidos,
···· Experimentos de propagación neutrónica en medios inertes
como plomo o grafito,
···· Estudio de la cinética de sistemas subcríticos.
Angulo
0 < E < 10 MeV
10 < E < 20 MeV
20 < E < 30 MeV
30 < E < 40 MeV
Total
0º
3.30 10 13
3.91 10 12
2.35 10 12
1.64 10 12
4.08 1013
90 mA
300 MeV
75 kW
50 Hz
1.5 ms
352.2 MHz
9 MV/m
15º
3.17 10 13
4.25 10 12
2.15 10 12
7.17 10 11
3.87 10 13
40º
2.48 1013
3.14 10 12
1.06 10 12
1.58 10 11
2.90 1013
Tabla 2. Producción neutrónica (n mA-1 sr-1) a diferentes ángulos (protones de 40
MeV en blanco de Be)
Como conclusión general en lo referido a las aplicaciones, es muy remarcable el hecho de que simplemente la sección a temperatura ambiente
del acelerador previsto, que está en construcción y se espera esté listo en
pocos años, debería ser suficiente para comenzar a hacer ciencia seria en
la nueva instalación de Bilbao, y dar servicio a un gran número de usuarios.
En cuanto a la producción neutrónica esperable, los cálculos y previsiones
realizadas permiten concluir que podrán desarrollarse una gran variedad
de aplicaciones y dar servicio a una creciente comunidad de usuarios.
Referencias
[1]Conclusions Report of the ESS-Bilbao Initiative Workshop (2009) http://www.essbilbao.com/
portals/0/ficheros/noticias2/imagenes/conclusions.pdf
[2]Informe Cotec 2010, Tecnología e Innovación en España. Fundación Cotec para la Innovación Tecnológica, ISBN: 978-84-92933-00-6, p. 59.
4
Figura 5. Transmisión de RF desde el klystron a la cavidad acelerante
Max. corriente protones
Max. energía final
Max. potencia de haz
Max. tasa repetición
Longitud de pulso
Frecuencia de paquetes
Max. gradiente cavidades
Dinámica del haz de protones a lo largo del linac
De la lista anterior, las típicas aplicaciones de haces protónicos se centrarán principalmente en su uso para ciencia de materiales (litografía,
microprocesado de materiales ultraduros, irradiación de semiconductores, etc. ), así como algunas aplicaciones seleccionadas en el ámbito de las
biociencias. Por otra parte, actualmente está en desarrollo conceptual un
blanco de baja energía (40 MeV) para reacciones (p,n) en materiales sólidos ligeros (9Be, 7Li). Dicho blanco es capaz de suministrar flujos neutrónicos significativos, de acuerdo con algunos cálculos preliminares cuyos
resultados se muestran en la Tabla 2. Más que orientados a experimentos
en Ciencias de la Materia Condensada, sus principales aplicaciones están
dentro del campo de la instrumentación neutrónica general. Además,
el desarrollo de dicho blanco ayudará a salvar también el creciente gap
detectado por la comunidad de Física Nuclear que trabaja en temas muy
diversos que van desde la medida de secciones eficaces neutrónicas hasta
aplicaciones en Física de Astropartículas6.
[3]El esfuerzo de rediseño seguido en la actualidad por ESS-AB (ESS-Scandinavia) es fundamentalmente indistinguible del propuesto por el Consorcio ESS-Bilbao antes de la toma de
decisión sobre la localización de la instalación. Ver, http://www.essbilbao.com/portals/0/
ficheros/noticias2/imagenes/ESS%20Bilbao%20Proposal%20for%20the%20Design%20Review.pdf. Tal propuesta contrasta con el documento oficial de revisión de diseño al comité
de expertos de esfri producido en 2008, en el cual tanto la candidatura sueca como la
húngara apostaban por el diseño de 2003, considerablemente obsoleto.
[4] Letchford AP et al. (2010) Status of the ral Front End Test Stand
http://accelconf.web.cern.ch/AccelConf/IPAC10/papers/mopec075.pdf
[5]Bustinduy, I, Lucas, J, Bermejo, FJ, and Etxebarria V (2009) Multiparticle beam dynamics
simulations for the Bilbao superconducting proton accelerator
http://accelconf.web.cern.ch/AccelConf/SRF2009/papers/thppo099.pdf
[6] Etxebarria, V, Bustinduy, I, Bermejo, FJ, and Cano-Ott D (2010) Baseline design of the ESSBilbao accelerator: a machine compliant with ESS Specifications Proceedings of ICANS XIX,
19th meeting on Collaboration of Advanced Neutron Sources.
51
Entorno CIC - Proyectos de investigación
Proyectos de
investigación
Xxxx xxxx xxx xxxxx
Magnifyco
Alex Bittner, líder del Grupo de Autoensamblado de cic nanogune e Investigador Ikerbasque
magnifyco es uno de los curiosos acrónimos utilizados para designar un proyecto colaborativo que se desarrolla en el marco de la Unión Europea.
El acrónimo hace referencia a «MAGnetic NanocontaIners For combined hYperthermia and COntrolled drug release», esto es, nanocontenedores
magnéticos para combinar hipertermia y liberación controlada de fármacos. El proyecto incluye once socios de empresas, institutos y universidades de Italia, España, Francia, Alemania y Holanda. Su objetivo es «el ensamblado y la fabricación de una nueva generación de nanoestructuras
multifuncionales que permitan un tratamiento combinado mediante hipertermia y liberación controlada de fármacos, con una orientación específica
a células ováricas cancerosas». Creo que esta complicada frase requiere ser desgranada punto por punto.
En primer lugar, mientras las nanoestructuras están bien asentadas en el
ámbito de la investigación y están siendo usadas en un número cada vez
mayor de aplicaciones, el concepto de nanoherramientas multifuncionales es relativamente nuevo y despierta un gran interés. Estas herramientas desarrollan, al mismo tiempo, diferentes tareas utilizando un único
nanodispositivo, usualmente una nanopartícula. Esta aproximación es
muy novedosa dado que la síntesis de este tipo de objetos puede ser muy
compleja: normalmente el material en cuestión, digamos una aleación
Alexander Bittner es doctor en química y trabaja desde 2008 como
líder del Grupo de Autoensamblado de cic nanogune y como
investigador Ikerbasque. Con anterioridad ha trabajado en Alemania,
Inglaterra, Suiza y Francia. Sus principales áreas de interés se centran
en la ciencia de la nanoescala, interfaces y electroquímica.
52
magnética, otorga la funcionalidad, y ha de forzarse a formar pequeñas
partículas. Añadir una segunda funcionalidad, la capacidad de unirse a las
células por ejemplo, requerirá de una síntesis completamente diferente,
que no debe interferir ni con la estructura ni con la primera funcionalidad. Sin embargo, algunas de las funcionalidades de interés, como la
mencionada unión a las células, se basan en interacciones bioquímicas
muy sensibles, mediadas por grupos químicos que pueden dañarse con
facilidad. No es de extrañar por ello que estructuras bifuncionales y especialmente trifuncionales sean excepcionalmente raras.
En segundo lugar, el término hipertermia hace referencia a sobrecalentar
las células cancerosas, más sensibles a la temperatura que las células
sanas. Esto ofrece un ingenioso método para combatir diferentes formas
de cáncer, pero con la dificultad de que el sobrecalentamiento debe aplicarse únicamente en la posición del tumor y de que la temperatura del
tejido debe ser controlada con gran precisión. Para conseguirlo pueden
colocarse nanopartículas magnéticas en el tumor y producir un calentamiento local por medio de un campo magnético oscilante. El proceso
de orientación y relajación de los momentos magnéticos producirá calor
en la vecindad inmediata de la nanopartícula.
En tercer lugar, la liberación o distribución de fármacos en la nanoescala
es el sueño de la medicina del futuro, de la que en un futuro cercano
probablemente podamos ver las primeras aplicaciones. Este proceso se
fundamenta en el hecho de que, aunque hay disponibles un gran número
de potentes fármacos, no pueden utilizarse de forma generalizada debido
a los efectos no deseables que producen sobre las células sanas. Con el
fin de dirigir un fármaco determinado contra una célula cancerosa, infectada o dañada, que mide unas cuantas micras, debemos ser capaces
de controlar el proceso en la escala del nanómetro. Esta es la razón por
la que las nanopartículas juegan un papel tan fundamental en la nanomedicina del futuro: las nanopartículas huecas no solo pueden transportar
fármacos en su interior, pueden además encontrar (reconocer) las células
enfermas, atravesar la pared celular o ser ingeridas (endocitosis). Todo
este proceso depende en gran medida de la forma de la partícula y de su
funcionalidad química.
En cuarto y último lugar, no se pueden combatir ciertas formas de cáncer
de ovario mediante tratamientos convencionales (que funcionan bien
para otras clases de cáncer): nuevos tumores aparecen a menudo tras
la remisión inicial. En esta fase sería deseable utilizar fármacos muy potentes, pero los efectos secundarios pueden hacer imposible dicho tratamiento. Por ello buscamos una liberación muy localizada de los mismos,
combinada con una terapia física como la hipertermia.
Resumiendo: los nanocontenedores a desarrollar deben ser capaces de
reconocer las células cancerosas, tratar la zona mediante hipertermia magnética y, como consecuencia del estímulo térmico o magnético, liberar un
fármaco muy tóxico de alta selectividad con las células ováricas cancerosas.
Y todo al mismo tiempo. El desarrollo de estos contenedores continuará
con estudios en animales, requisito previo a su uso en humanos. Nos centraremos a continuación en cómo funcionan dichos nanocontenedores.
¿Cómo pueden integrarse todas estas funciones?
Es obvio que requerimos nanocontenedores muy especiales para hacer
posible la multifuncionalidad. Aunque magnifyco abarca diferentes
clases de materiales contenedores, desde sólidos inorgánicos porosos a
pequeños objetos biológicos semejantes a células, todos ellos incluirán
tres componentes fundamentales:
Material magnético: permitirá su detección mediante imágenes de resonancia magnética (irm), el tratamiento del cáncer mediante hipertermia y proporcionará además un estímulo para la liberación del fármaco.
Trabajamos predominantemente con métodos químicos húmedos para
producir y ordenar las partículas magnéticas, requiriendo además un
análisis y caracterización física muy detallados. cic nanogune está especialmente bien equipado para realizar estas tareas.
Cápsula biocompatible: mientras el contenedor guarda el fármaco y evita
su degradación, su contacto con la sangre y las células no ha de provocar reacciones adversas del sistema inmunitario. Con este fin estamos
investigando también recubrimientos orgánicos biocompatibles. Estos
recubrimientos deberían adicionalmente facilitar la liberación del fármaco
ante la aplicación de un estímulo externo como el calor. El estímulo podría
tener también un origen interno como el pH ácido de las células tumorales.
a) Síntesis de partículas magnéticas; b) contenedores; c) partículas magnéticas ligadas
a contenedores cargados de fármacos; d) enlace a células cancerosas (receptores de
folato alpha); e) hipertermia magnética; f) ensayos
Enlace de contenedor cargado (tipo canal) vía anticuerpos – receptores de folato
alpha; b) endocitosis; c) un campo magnético variable induce la apertura del
contenedor, la liberación del fármaco y la hipertermia; d), e), f) Mismo proceso
para otro tipo de contenedor (vesícula o partícula blanda)
Imagen de microscopía de barrido de fuerza atómica de un virus del mosaico del tabaco
53
Entorno CIC - Proyectos de investigación
Entorno CIC - Proyectos de investigación
Socios de Magnifyco: National Nanotechnology Laboratory, Lecce; Dompé pha.r.ma,
L’Aquila; Nanovector, Milán; Italian Institute of Technology, Génova; National
Tumor Institute, Milán; cnrs, Groupe Physique du Vivant, París; MagForce, Berlín;
cic nanogune, San Sebastián; Universidad Complutense, Madrid; Universidad de
Santiago de Compostela; Molecular nano Fabrication at University of Twente, Enschede
Hojas de tabaco sanas
Hojas de tabaco infectadas por el virus del mosaico del tabaco (tmv)
Nanopartículas de zeolita. Cada bloque de silicato contiene canales lineales
extremadamente finos
Fragmentos de anticuerpos: son adheridos a la superficie de los nanocontenedores para que alcancen de forma selectiva las células ováricas
cancerosas. Los anticuerpos se enlazan a características específicas presentes en las células cancerosas (receptores de folato alpha).
Cuando consideramos todos estos aspectos, decidimos centrarnos
en una pequeña familia de contenedores poco habituales, que esperamos poder modificar según el triple requerimiento: nanopartículas
lipídicas sólidas (pequeñas bolas hechas de lípidos), partículas poliméricas de hidrogel (objetos orgánicos blandos), tubos de péptidos
(ensamblados de pequeños péptidos extremadamente finos). Además
de estas estructuras artificiales, se seleccionó una estructura inorgánica (silicato), consistente en partículas de zeolita L, poseedoras de
canales extremadamente estrechos de escala molecular (< 1 nm), así
como otras dos candidatas de origen biológico: el Virus del Mosaico
del Tabaco (tmv, Tobacco Mosaic Viruses, partículas de virus vegetal
con forma de tubo) y micropartículas vesiculares derivadas de células
vivas (globos llenos de líquido, envueltos por una fina membrana).
Nos enfrentamos ahora al gran reto de usar estas partículas como
plataformas para la fabricación de estructuras multicomponentes,
capaces de agrupar todas las tareas biomédicas en un único objeto. Es evidente que no todos los nanocontenedores en estudio serán
igualmente adecuados, por lo que en las fases finales seleccionaremos
uno o dos de los candidatos más satisfactorios. Sin embargo, estamos
convencidos que todos los candidatos son susceptibles de ser transformados en contenedores funcionales, mereciendo todos por ello
una investigación en profundidad.
Trabajo en cic nanogune
cic nanogune colabora estrechamente con el grupo de Christina Wege
y Holger Jeske de la Universidad de Stuttgart (Alemania), expertos en
virología vegetal. Nuestro trabajo se centra en el TMV, virus vegetal completamente inofensivo para el ser humano. Estos virus son muy comunes
y están muy extendidos, especialmente en las plantaciones de tabaco.
Por ejemplo, es muy probable que el lector de este artículo tenga un buen
número de ellos en las yemas de sus dedos, ¡especialmente si es fumador!
Hay que destacar la gran estabilidad biológica, química y física del virus,
relacionada con el hecho de que su infección se produce a través de lesiones en la planta (hojas dañadas, por ejemplo), lo que obliga al virus
a sobrevivir en campo abierto para poder infectar y extenderse. Esto es
común a otros virus de plantas. De forma general, los virus vegetales
están constituidos por una cápsula (envoltorio) de proteínas y al menos
una hebra de ácido nucleico. Presentan una gran variedad de formas,
con tamaños que van desde unos pocos nanómetros hasta unas micras:
estructuras tubulares alargadas y rígidas, filamentos flexibles, partículas
esféricas o con forma de bala,…. Para cada familia de virus las dimensiones y las características superficiales son extremadamente reproducibles,
y pueden ser alteradas de forma predecible incluso mediante reacciones
químicas. Obviamente, estas características hacen de ellos excelentes
candidatos para fabricar contenedores.
Una partícula individual de tmv está formada por 2.130 proteínas idénticas, colocadas helicoidalmente alrededor de (y ligadas a) una única
hebra de arn con unos 6.400 nucleótidos, que se encuentra encerrada
en el interior del mencionado tubo de proteínas de 300 nm de longitud.
Cada proteína de la cubierta incluye 158 aminoácidos en el caso de la
cepa más común. El tmv tiene un diámetro de 18 nm, y el diámetro del
canal interno longitudinal es de 4 nm. Este canal no tiene aparentemente
ninguna función biológica pero puede rellenarse de forma sencilla con
soluciones acuosas. Esto nos animó a tratar de rellenarlo con potentes
fármacos anticancerígenos, trabajo que estamos desarrollando en la actualidad. Aunque confiamos en lograr este objetivo, la naturaleza abierta
del canal implica que será necesario desarrollar un tapón de cierre que
pueda ser retirado en el interior de las células cancerosas. En esta tarea,
a desarrollarse en una escala de 4 nm, esperamos que la física y la química de pequeñas partículas o coloides nos puedan servir de guía. En
otros contenedores propuestos (zeolitas o tubos de péptidos), se espera
que los canales puedan cerrarse utilizando objetos tan pequeños como
moléculas individuales.
Al mismo tiempo, estamos trabajando para dar propiedades magnéticas
al virus. Encontramos que mediante la precipitación de sales de hierro
se pueden obtener recubrimientos bastante lisos y adecuados. Diferentes métodos de análisis, realizados en colaboración con cic biomagune,
muestran la presencia de una mezcla de dos óxidos de hierro, mientras
que las medidas de magnetometría han probado la existencia del comportamiento magnético deseado: una histéresis magnética en presencia
de campos magnéticos variables. De hecho, los objetos recuerdan a pequeños imanes débiles con forma de barra.
La combinación de estas dos funcionalidades puede ser el obstáculo
más grande a superar, y todavía desconocemos si debemos magnetizar
el virus en primer lugar para luego introducir el fármaco, o viceversa. En
Micropartículas vesiculares rellenas de nanopartículas magnéticas
Imagen de microscopía de barrido de fuerza atómica de tmv (rojo) y del virus X de
la patata (verdes, más cortos) sobre una superficie sólida
De izquierda a derecha, esferas de óxido de hierro, cubos de ferrita, mancuernas de FePt-Fe2O3 y nanoflores de Au-Fe2O3 . Estas partículas pueden adherirse a los
contenedores para proporcionarles un momento magnético
54
cualquier caso, el siguiente paso será añadir anticuerpos que liguen el
virus-imán-contenedor a un receptor especial ( folato alpha), que se encuentra presente en número extraordinariamente alto sobre la superficie
de las células ováricas cancerosas.
Colaboración
Distinguimos dos tipos de socios participantes en magnifyco: industriales, que desarrollar y evalúan los materiales y actúan como asesores de
riesgos, y académicos, en institutos como cic nanogune o en universidades, que están a cargo del desarrollo de nuevas estrategias de nanofabricación. En ellos se sintetizan los elementos constructivos individuales
y se caracteriza su ensamblado según sus propiedades físicas, químicas
y biológicas. Experimentos con cultivos celulares nos permitirán entender el funcionamiento de nuestras nuevas nanoherramientas in vitro y
aclararán si son candidatas aptas para nuevos ensayos y, finalmente, para
su uso en humanos – todos los nuevos desarrollos de fármacos deben
superar esta larga carrera de obstáculos.
Los objetivos de magnifyco cubren un amplio rango de áreas científicas
por lo que ha sido necesario establecer una colaboración interdisciplinar
entre químicos, físicos, biólogos y médicos. Aunque la red se encuentra
todavía en una fase muy inicial, ya podemos decir que hay tanto de trabajo
duro como de diversión, y que todos los socios estamos adquiriendo nuevos y útiles conocimientos. Aparte de intercambiar muestras, distribuimos
parte del trabajo entre los socios, en función por ejemplo de la disponibilidad de los equipos de medida. Esta estrategia ha probado ser muy rápida
y eficiente, además de enriquecernos gracias a la interacción adicional.
55
Entorno CIC - Proyectos de investigación
Proyectos de
investigación
Xxxx xxxx xxx xxxxx
Tecnologías lab-on-a-chip para observar
e identificar moléculas individuales
Santos Merino, Estefanía Abad, Aritz Retolaza y Aritz Juarros, Unidad de Micro y Nanoingeniería de cic microgune
Los avances en micro y nanotecnología han permitido fabricar dispositivos en los que biomoléculas individuales interaccionan entre sí ó lo hacen con
objetos de su misma dimensión. Estos dispositivos han permitido estudiar la acción de una enzima sobre una molécula de dna o la actividad de un
único receptor sobre una célula y han arrojado luz para entender la relación entre estructura, función y dinámica de las biomoléculas en la célula viva.
El resultado de una investigación aplicada en este campo permitirá manipular o analizar moléculas individuales y formará la base para sistemas de
diagnóstico médico de una manera rápida, barata y personalizada.
Los avances en tecnología han permitido el desarrollo de técnicas de
observación e identificación de moléculas individuales. Técnicas de observación basadas en microscopía electrónica, microscopía óptica de
fluorescencia, microscopía óptica de campo cercano y microscopía de
fuerzas atómicas han ampliado las posibilidades para observar e interaccionar directamente con moléculas individuales.
El interés en reducir el volumen de los procesos analíticos, combinado
con los avances en micro y nanofluídica, está motivando el desarrollo
de nuevos chips en los cuales los análisis pueden ser desarrollados más
rápidamente y a un coste mucho menor que los tradicionalmente usados en laboratorios de biología molecular. Su desarrollo está cambiando
Los doctores Santos Merino, Estefanía Abad, Aritz Retolaza
y Aritz Juarros son investigadores de la Unidad de Micro y
Nanoingeniería de cic microgune.
56
la naturaleza de las cuestiones de las que podemos obtener respuestas
experimentales a nivel molecular. Estos nuevos chips integran medidas
eléctricas, ópticas y físicas combinadas con el guiado de fluidos para
crear un nuevo concepto de biochips denominados single molecule devices. Este tipo de sistemas proporcionan localización espacial, la cual es
relevante para observar, por ejemplo, la actividad de una única enzima,
la actividad de un único receptor sobre una célula, o las moléculas cuyo
origen es una célula del sistema inmune. El resultado de una investigación
aplicada en este concepto de chips dará lugar a sistemas para manipular
o analizar moléculas individuales y formará la base para la fabricación
de sensores ultrasensibles y sistemas de diagnóstico médico. Por ejemplo, uno de los últimos desafíos en biología es entender la relación entre
estructura, función y dinámica de las biomoléculas en la célula viva, lo
que permite estudiar los procesos bioquímicos y metabólicos y el origen
de las enfermedades a nivel celular. Sin embargo, observar los procesos
moleculares en células vivas, es todavía un objetivo del máximo interés
y dificultad, ya que las interacciones moleculares ocurren en la escala
del nanómetro, tamaño no accesible generalmente con sistemas ópticos
debido a la difracción. Para lograr este objetivo, se está trabajando en el
desarrollo de nuevas herramientas ópticas que permitan la manipulación
de funciones biológicas al nivel de moléculas individuales en su entorno
natural: la célula. Otro ejemplo importante, es la posibilidad de interaccionar con moléculas individuales de dna ( figura 1), mapear sus lugares
de restricción e identificar, por ejemplo, la presencia de un virus a partir
del corte del dna original en partes de dna de longitud conocida y medible
a partir del uso de enzimas de restricción. En general, estos chips pueden
permitir un análisis menos invasivo de fluidos biológicos complejos para
diagnóstico médico y terapias avanzadas. Un amplío rango de tecnologías,
incluida la fabricación, están siendo direccionadas hacia estos objetivos.
El conjunto de herramientas denominadas lab-on-a-chip, y particularmente, los chips basados en aproximaciones single-molecule, pueden en
el medio y largo plazo proporcionar sistemas funcionales para el diagnóstico de determinadas enfermedades diana y proporcionar sistemas
eficientes en el avance de terapias asociadas a enfermedades crónicas.
El desarrollo de chips moleculares en los que interaccionar con las biomoléculas requiere no únicamente de técnicas de detección ultrasensibles
sino que es necesario el control micro y nanofluídico a nivel de chip,
integrando canales, celdas, válvulas, electrodos y funcionalización superficial que permita la interacción con biomoléculas específicas. No menos
importante es el desarrollo de procesos de fabricación que permitan la
formación de canales, agujeros o rendijas de dimensiones en la escala de
las biomoléculas que queremos detectar, es decir, en el orden de unos
pocos nanómetros. Sin embargo, aunque necesario, esto no es suficiente
y el desarrollo de tecnologías maduras que permitan la fabricación de
dispositivos con motivos en esta escala de una forma fiable y económica
resulta fundamental para el éxito y llegada a la industria de este nuevo
concepto de chip. La combinación exitosa de todos estos factores crea
un rango de oportunidades enorme en el campo del análisis molecular.
En este sentido, la unidad de micro y nanoingeniería de cic microgune
( figura 2) está desarrollando tecnología basada en métodos emergentes
de nanofabricación, conjugando alta resolución y viabilidad industrial.
De este modo, se han fabricado chips de identificación molecular de dna
mediante estiramiento de dobles hebras en dispositivos nanofluídicos de
diámetro inferior a los 100 nm.
Micro y Nanofabricación. Alta resolución y producción
La habilidad para fabricar estructuras en la micro y nanoescala es de
crucial importancia, no solo en los chips para análisis biomolecular, sino
en general en el avance de las micro y nanotecnologías y el estudio de
las nanociencias. Aspectos críticos como la resolución, fiabilidad, velocidad y precisión son todos aspectos que deben de ser considerados
a la hora de desarrollar nuevos procesos litográficos. De este modo, se
deben desarrollar métodos de fabricación que permitan reproducir en
un producto comercializable los diseños y desarrollos de prototipos
realizados a escala de laboratorio. En este sentido, cuando se requieren
fabricar estructuras con una resolución por encima de 1 micrómetro, la
tecnología de fabricación de referencia es la Litografía Ultravioleta convencional. Esta tecnología combina tiempos de producción pequeños y
un coste en equipamiento y mantenimiento reducidos. Sin embargo, no
existe una tecnología madura que aporte estas prestaciones cuando se
buscan resoluciones sub-micrométricas, lo que limita la industrialización
de prototipos realizados en el ámbito de la nanotecnología.
Se han realizado importantes esfuerzos a la hora de optimizar las
tecnologías litográficas sub-micrométricas, utilizándose fuentes más
energéticas como la litografía ultravioleta extrema, la litografía con
electrones, con fuentes de iones o con fuentes de rayos-x. Existen hoy en
día numerosos problemas a la hora de hacer estas tecnologías productivas; entre otros: su coste –que en algunos casos supera los 50 millones
de dólares- o su tiempo de fabricación –extremadamente lento para la
industria-. Únicamente la litografía ultravioleta extrema, tecnología
empleada por la industria de semiconductores que integra circuitos
integrados en un chip, es una alternativa. Sin embargo, su coste en
inversión y mantenimiento anual está solo al alcance de una muy alta
producción anual como la que se realiza en la industria de semiconductores. Este hecho, unido a la aparición de aplicaciones ajenas a la
microelectrónica, muchas de ellas en el campo de la biotecnología y las
aplicaciones biomédicas, ha conllevado que numerosos investigadores
hayan invertido recursos en la búsqueda de alternativas que combinen
alta resolución a un coste moderado (microcontact printing, litografía
basada en microscopía de fuerzas atómicas o litografía dip-pen). De
entre estas tecnologías, la litografía de nanoimpresión (nil) es con diferencia la más madura.
→
Figura 1. Interacción entre una doble hebra de dna y un agujero de dimensiones en
la misma escala
Figura 2. Sala blanca para fabricación de biosensores
57
Entorno CIC - Proyectos de investigación
Entorno CIC - Proyectos de investigación
De este modo, el coeficiente de extensión Lestirado/L depende de la sección
del canal, que es característica de cada chip, y por tanto, la determinación
del grado de extensión para un determinado chip proporciona un método
para identificar moléculas de dna.
El diseño del chip para estiramiento de dna se muestra en la figura 4.
El chip se compone de una base de silicio, conteniendo microcanales
para el transporte del fluido y nanocanales para el estiramiento de dna,
inmovilización y detección. Un vidrio pyrex sella el dispositivo e integra
electrodos para el movimiento de la muestra por electroforesis. En la figura se aprecia la inclusión de postes de diámetro unos pocos micrómetros,
dejando un espaciado cada vez más pequeño según nos acercamos a los
nanocanales. El objetivo de estos postes es ayudar a deshacer la estructura helicoidal del dna en solución antes de alcanzar los canales. La figura 5 →
Figura 3b. Eliminación de la capa residual de polímero mediante plasma de oxígeno
Dispositivos micro y nanofluídicos para identificación de dna
Los métodos actuales de análisis de dna requieren cortar cada molécula
en millones de fragmentos, replicar cada segmento, ordenarlos por tamaño y reconstruir el dna original en un proceso costoso tanto en tiempo
como en material utilizado. En cambio, la posibilidad de estirar dna,
que consiste en linealizar moléculas individuales por confinamiento en
canales nanofluídicos, abre nuevas posibilidades para el análisis de dna
y sensado bioquímico de forma rápida y utilizando una cantidad ínfima
de muestra, lo que reduce considerablemente el coste del análisis.
El estiramiento de moléculas de dna en canales nanofluídicos ha sido
utilizado para el estudio de las propiedades físicas y biológicas de estas
moléculas, analizándose medidas de longitud de contorno en tiempo real
de las moléculas estiradas. Se han realizado también mapas de restricción
utilizando endonucleasas así como estudiado interacciones moleculares
entre una proteína y una molécula de dna. Recientemente, y por medio
de la introducción de electrodos en los canales nanofluídicos, se está
intentando desarrollar un método de secuenciación directa de moléculas
individuales de dna.
La unidad de Micro y Nanoingenieria de cic microgune, basándose en la
tecnología de nil, ha fabricado canales de sección nanométrica –de hasta
50x20 nm–, integrándolos en un chip que permite el movimiento de dna
por presión o campo eléctrico. De este modo, se ha resuelto el grado de
estiramiento de estas moléculas, obteniéndose un buen acuerdo entre
la predicción teórica y los resultados experimentales. En la actualidad,
se pretende demostrar que el grado de estiramiento es el mismo para un
canal dado, independientemente de la molécula de dna, lo que facilitaría
enormemente su uso en aplicaciones de diagnóstico rápido.
El dna es un polímero largo y flexible que en solución asume una conformación coloidal con un radio característico de giro dado por (PwL3)1/5,
donde P es la longitud de persistencia, una magnitud mecánica que cuantifica la rigidez de la macromolécula y que es aproximadamente 50 nm
para una doble hebra de dna; w es la anchura del dna, la cual puede ser
estimada en 2 nm, y L es la longitud de contorno, es decir, la longitud de
la molécula totalmente estirada. L depende del número de bases en una
hebra de dna y es normalmente calculada asumiendo una distancia de
0.34 nm entre pares de bases. El radio de giro para una molécula de dna
en solución es del orden de unos pocos micrómetros –2 µm en nuestros
experimentos–. Sin embargo, cuando las moléculas de dna son forzadas
a entrar en una sección con diámetro mucho más pequeño que el radio
de giro, es energéticamente más favorable para las moléculas estirarse
en una serie de bloques a lo largo del canal. En el régimen de De Gennes,
es decir cuando el radio de giro es mucho mayor que el diámetro de la
sección, y ésta a su vez mayor que la longitud de persistencia, la longitud
de la molécula de dna en el canal –Lestirado- escala con la longitud de
contorno L según Lestirado ≈ L(wP/D2)1/3 , donde D es el diámetro del canal.
Figura 3c. Transferencia de motivos al substrato mediante plasma específico
Figura 3d. Evaporación de una capa fina metálica y posterior extracción del polímero
Figura 4. Diseño del dispositivo fluídico formado por micro y nanocanales y
electrodos en el vidrio para el transporte eléctrico del DNA
Figura 5. Corte transversal del chip. Nanocanales de 250 micrómetros de longitud y
a) 50x50 nm de sección, b) 50x20 nm de sección
Figura 3a. Impresión del polímero
58
El principio de nil es muy simple. Un patrón, normalmente fabricado en
silicio, es transferido a una capa fina de polímero que recubre el substrato –normalmente vidrio o silicio- bajo unas condiciones controladas de
presión y temperatura ( figura 3a).
Este proceso de impresión da lugar a una capa residual muy fina de polímero, que es eliminado mediante un plasma anisotrópico de oxígeno
hasta alcanzar el substrato ( figura 3b).
Posteriormente, se puede realizar la transferencia de motivos al substrato
mediante ataques anisotrópicos en vacio, empleando para ello gases específicos y actuando el polímero como máscara ( figura 3c), o bien, evaporar
sobre el substrato una fina capa metálica con posterior extracción del
polímero en disolvente orgánico ( figura 3d).
El proceso permite la réplica de substratos a partir del patrón en tiempos
inferiores a los 15 minutos y alcanza una resolución mínima condicionada fundamentalmente por el molde patrón, pudiendo ser ésta inferior a
los 10 nm. Esta es la razón por la que esta tecnología ha acaparado una
gran atención de la industria y centros de investigación unos pocos años
después de su introducción en 1995.
La Unidad de Micro y Nanoingeniería de cic microgune está desarrollando esta tecnología y, una vez optimizados los procesos de fabricación,
la está aplicando en el campo de la salud para desarrollar no solo los
sistemas de diagnóstico basados en estiramiento de dna en dispositivos
nanofluídicos, sino también al desarrollo de sensores de proteínas en
suero basados en fluorescencia o en resonancia de plasmones, sensores
electroquímicos de alta sensibilidad, substratos para ingeniería de tejidos
o láseres orgánicos de alta fotoestabilidad en el espectro visible.
A
B
59
Entorno CIC - Proyectos de investigación
muestra un corte transversal del dispositivo micro y nanofluídico, donde
se observan canales de sección nanométrica –de dimensiones aproximadas 50x50 nm y 50x20 nm respectivamente– rodeados de canales –por
los que no circula el dna a estudiar– de sección micrométrica.
Estos chips han sido fabricados mediante nil, integración de los electrodos en el vidrio, creación de agujeros pasantes en el vidrio para introducir
la muestra y sellado posterior anódico ( figura 6).
En la figura 7 se muestra el llenado previo de los chips con una mezcla
de tinte fluorescente (rodamina B). Los canales –de 50x50 nm y separados 3 µm– muestran su funcionalidad y la ausencia de fugas en el
dispositivo fabricado.
Se han realizando experimentos de estiramiento con los chips fabricados
y conteniendo éstos una solución de λ-dna tintado con un marcador fluorescente. La figura 8 muestra el histograma de las longitudes promedio
medidas para el conjunto completo de moléculas de λ-dna analizado.
Considerando la longitud promedio –6µm– y las longitudes de contorno
y de persistencia para el λ-dna tintado con yoyo-1, se puede estimar que
el grado de estiramiento es del 33%. Si consideramos este grado de estiramiento en el régimen de Gennes descrito anteriormente, encontramos
que el diámetro teórico del nanocanal debiera ser de 107 nm, muy próximo
al valor experimental fabricado.
La unidad de micro y nanoingenieria de cic microgune está extendiendo
el uso de estos chips a otras moléculas de dna con el fin de demostrar que
el grado de estiramiento es el mismo para un mismo chip y condiciones
de dilución de la muestra de dna.
La fabricación de chips en esta escala de manera fiable y escalable a producciones de series cortas puede no solo potenciar el uso de estos chips
hacia tests de diagnostico rápido y control de terapias basadas en el uso de
biomoléculas, sino que puede ser de utilidad para conocer otros aspectos
relevantes. Buenos ejemplos de esta aplicación pueden ser: el transporte
de proteínas a través de los nanoporos existentes en la membrana del
núcleo celular o bien la forma en la que un enzima se fija a una molécula
de dna o estudiar una reacción de reconocimiento antígeno-anticuerpo.
Figura 6. Chips micro-nanofluídicos obtenidos
Figura 7. Imagen del llenado de los chips con rodamina B fluorescente
Figura 8. Imagen del λ-DNA estirado e histograma de las longitudes promedio medidas para el conjunto completo de moléculas de λ-DNA analizado. La escala corresponde a 15 µm
60
61
Xxxx xxxx xxx xxxxx
Entorno CIC
Entorno CIC
objetivo, el dipc ha mantenido varios programas de actuación abiertos
durante estos diez años de andadura.
Programa de Investigadores Visitantes
Este programa ha buscado atraer a los mejores científicos de todo el
mundo en el campo de la ciencia básica de materiales y establecer una
plataforma de interacción entre investigadores de reconocido prestigio
de otros países e investigadores locales. Más de 1.200 investigadores han
disfrutado de estancias superiores a 3 semanas desde el año 2000, 17 de
los cuales han sido Premios Nobel.
Programa Fellows Gipuzkoa
Gracias a la financiación específica del Departamento de Innovación de
la Diputación Foral de Gipuzkoa, se ha puesto en marcha este programa
de recuperación de científicos, que permite a jóvenes investigadores
que desarrollan su actividad en el extranjero tener una «plataforma de
aterrizaje» en el dipc mediante un contrato de una duración máxima
de cinco años. Este Programa se inició a finales del año 2000 y desde
entonces lo han disfrutado 11 personas.
Programa de Congresos Internacionales
Este programa está destinado a organizar y celebrar jornadas, workshops,
escuelas de verano y congresos internacionales que sirvan de encuentro,
debate y discusión de las principales líneas de investigación que se abordan en el dipc. Se han organizado 51 eventos en los que han participado
más de 6.000 personas de todo el mundo.
Passion for Knowledge
Igor Campillo, secretario general de Passion for Knowledge.
Este año se cumple el décimo aniversario del Donostia International Physics Center - DIPC. Para celebrarlo hemos organizado Passion for Knowledge, un Festival que ha comprendido múltiples actividades dirigidas a la comunidad científica y al gran público y que ha congregado a grandes figuras de las ciencias y otras humanidades durante la semana del 27 de septiembre al 1 de octubre en la ciudad de Donostia – San Sebastián.
Diez años del dipc
El día 26 de abril del año 2000, Heinrich Rohrer, Premio Nobel de Física en
1986, ofreció la charla inaugural Small is beautiful and powerful con la que
el dipc empezaba su andadura. El dipc se constituyó como una alianza
público-privada establecida legalmente como una fundación sin ánimo
de lucro. Ha contado con una determinante participación pública que
incluye a los Departamentos de Educación, Universidades e Investigación,
e Industria, Innovación, Comercio y Turismo del Gobierno Vasco, la Diputación Foral de Gipuzkoa, el Ayuntamiento de la Ciudad de Donostia – San
Sebastián y la Universidad del País Vasco – Euskal Herriko Unibertsitatea
(upv/ehu), así como una significativa participación privada que ha ido
incrementándose en el tiempo (ver recuadro «Mecenas»).
Igor Campillo, secretario general de Passion for Knowledge.
62
El dipc es una iniciativa muy singular en su ámbito por la flexibilidad
de su arquitectura institucional y el desarrollo de actividades que trascienden la propia estructura del centro. El dipc nace independiente y a
la vez estrechamente vinculado a la upv/ehu, lo que ha potenciado el
enriquecimiento de la actividad universitaria investigadora en la Ciencia
de Materiales del País Vasco y su internacionalización. Así, el dipc ha
contribuido a que en estos 10 años haya aumentado la producción científica de vanguardia de la Universidad del País Vasco, que es el núcleo
fundamental de producción científica de Euskadi. En particular, se han
publicado 1.192 artículos en revistas internacionales del sci, siendo la
cifra de publicaciones del año 2009 tres veces superior la producción del
2000, y habiendo recibido más de 17.500 citas en la década.
El dipc también ha operado como catalizador de la actividad investigadora de excelencia en su entorno más cercano, habiendo sido el incubador
y ama de cría del centro mixto de la upv/ehu con el csic, así como el
impulsor intelectual del cic nanogune.
El dipc nació con el fin de promover la investigación y el conocimiento en
física de la materia condensada y ciencia de materiales. Para cumplir este
Compromiso social
La ciencia, y en particular las ciencias naturales, se fundamentan en un
optimismo, en lo que G. Holton, de la Universidad de Harvard, ha dado en
llamar el ‘encantamiento jónico’, la creencia de que los problemas tienen
solución y que si se deja volar la imaginación sin desanimarse nunca se
encuentran las preguntas y las respuestas adecuadas. Respuestas muchas
veces distintas a las esperadas y por caminos que ni se vislumbraban. Por
eso, la ciencia es, por encima de todo, creatividad, impulsada por la pasión
por conocer, por superar la ignorancia, por descubrir y por establecer las
leyes que nos permiten explicar y predecir los fenómenos naturales, los
comportamientos, los hechos, etc. Asimismo, la ciencia evoluciona en
un constante diálogo socrático en el que se suceden hipótesis, premisas,
afirmaciones, refutaciones, enunciados, razonamientos y contrarrazonamientos, experimentos y contraexperimentos, modelos , teorías, leyes,
paradigmas… Un flujo de comunicación siempre abierto, infinito, entre
los que hacen la ciencia, los científicos.
Creatividad y comunicación.
La ciencia es creatividad y comunicación.
Y es responsabilidad de los científicos a su vez comunicar su conocimiento
hacia fuera de la comunidad científica, a compartirlo con toda sociedad.
Porque una sociedad científicamente informada y educada, que entienda
cómo funciona la ciencia, que entienda que la ciencia es una actividad estéticamente hermosa, culturalmente importante y económicamente decisiva
es menos susceptible de manipulación por grupos de presión y está más
preparada para tomar libremente muchas de las decisiones que configurarán su futuro. Solo una sociedad concienciada del valor de la ciencia será
capaz de configurarse finalmente como una sociedad del conocimiento.
En este sentido el dipc tiene un compromiso firme con los ciudadanos
de hacerles llegar los resultados, los avances y las implicaciones de la investigación científica. Porque el dipc quiere contribuir a que la sociedad
y, en particular, los ciudadanos del País Vasco, vivan la ciencia como un
valor importante en su devenir. Por ello el dipc tiene en marcha un cuarto
programa de actuación, un Programa de Comunicación de la Ciencia,
con el que busca contribuir a establecer un diálogo fluido y permanente
entre la ciencia y la sociedad, entre los científicos y los ciudadanos, que
propicie un progreso social y científico corresponsable en un entorno
intelectual libre y tolerante y que muestre la ciencia como una actividad
cultural accesible y atractiva a todos los públicos. De forma especial,
se quiere cultivar un clima adecuado que estimule a los más jóvenes a
introducirse en las carreras científicas y tecnológicas y así potenciar una
cantera dinámica y que capitalice el talento de las nuevas generaciones.
Dentro de este programa hay que destacar dos iniciativas ejecutadas
en la primera década del dipc. Por una parte, la celebración del Albert
Eisntein Annus Mirabilis 2005, evento con el que el dipc se sumó, en el Año
Mundial de la Física, a las conmemoraciones del centenario del Annus
Mirabilis de Albert Einstein. Los investigadores invitados formaban parte
de la élite mundial e incluían a 6 premios Nobel. Los actos programados
comprendían conferencias plenarias y temáticas, así como exposiciones
para presentar la figura de Einstein a los niños y jóvenes. Por otra parte,
la celebración del Congreso Internacional Atom by Atom en septiembre
de 2009, coorganizado con el cic nanogune. El congreso Atom by Atom
también fue un congreso abierto al público con el objetivo de divulgar
de forma clara y accesible los avances, los retos y las implicaciones de
diversas áreas de la nanociencia y la nanotecnología. Para ello se diseñó
un programa de conferencias y actividades en las que participaron un
importante plantel de ponentes que incluía a tres premios Nobel e investigadores destacados.
Finalmente, un hito importante en la difusión de la ciencia hacia el público ha sido la creación de la web TV www.dipc.tv en el año 2008. Esta
web tv está sirviendo de plataforma de conexión entre el dipc y el gran
público. En esta web se encuentran alojados vídeos con las diferentes
actividades científicas, públicas y de difusión que el dipc ha realizado
durante los últimos 10 años.
→
Encuentro con escolares en el kutxaEspacio de la Ciencia. Participaron Jean Marie
Lehn, Frank Wilczek y Juan Igancio Cirac
63
Entorno CIC
Mecenas
El Donostia International Physics Center –dipc- es una institución
excepcional en el mundo de la Ciencia en nuestro país. Las razones son muchas. Pero hay una que merece ser reconocida de
forma destacada: disponer de mecenas privados en un centro de
investigación básica. Es una de las razones de su éxito y uno de
sus elementos distintivos.
El mecenazgo estuvo inicialmente vinculado a las artes. Pero
ahora abarca cualquier actividad de interés social relevante. Los
países anglosajones son el mejor ejemplo. Las instituciones de
investigación científica y de estudios superiores son uno de los
destinos elegidos por los mecenas privados y por las empresas,
que se han ido sumando a esta labor. Demuestran, así, ser conscientes de que el desarrollo económico y el bienestar social dependen del desarrollo científico.
Por desgracia, no es el caso de Euskadi ni de España.
El banquero norteamericano David Rockefeller, está donando
a la Universidad de Harvard, en la que realizó sus estudios, dos
millones de dólares anuales y ha establecido un legado de cien
millones a su muerte. Estos hechos ayudan a entender la distancia
entre los Estados Unidos y los países europeos.
Sin mecenazgo privado no es posible la independencia financiera, que garantiza la estabilidad y el trabajo a largo plazo de las
instituciones de investigación, indispensables para competir en
condiciones en la escena mundial.
El dipc, por una excepcional confluencia de factores -la solidez del
proyecto, la competitividad internacional de sus investigadores y la
personalidad de su presidente-, ha hecho posible que empresas como
Kutxa, Naturgas Energía, Telefónica, mapfre y caf se hayan sentido atraídas por nuestro proyecto, convirtiéndose en sus Patronos y
contribuyendo, con su presencia y sus aportaciones económicas, a
nuestro éxito. A pesar de que el tratamiento fiscal al mecenazgo en
Ciencia no fomenta decisiones como las que ellos tomaron, necesitado, como está, de ser pensado con una visión de mayor alcance.
Pero el dipc ha tenido la fortuna insospechada de contar con
un mecenas de excepción: Dña. Josebe Olarra Lizarralde, quien
le dejó su herencia, en la mejor tradición anglosajona. Desde su
muerte, el Salón de Actos del Centro lleva su nombre. Nuestra
primera benefactora siempre permanecerá en nuestra memoria.
Alberto López Basaguren es catedrático de Derecho
Constitucional de la Universidad del País Vasco y Secretario
del Donostia International Physics Center.
64
Sesión de pósters en los workshops
Encuentro con escolares en el Aquarium. Participaron Ada Yonath y Sylvia Earle
Festival del conocimiento
El 26 de abril del presente año, Julio Linares, consejero delegado de Telefónica, impartió la conferencia «Las Telecomunicaciones pasan por la
Física», con la que se daba comienzo a la segunda década del dipc y se
abría Passion for Knowledge. Durante los diez años de historia, el centro
de gravedad del dipc ha sido el conocimiento científico. Por eso, celebrar
el dipc es celebrar el conocimiento. El formato elegido para Passion for
Knowledge no ha sido el de un congreso al uso, sino que se diseñó como
un auténtico Festival, un Festival del conocimiento, que ha englobado
múltiples actividades bajo tres grandes secciones: Las Conferencias, La
Ciudad, ambas abiertas a todos los ciudadanos, y Los Workshops, restringido a la comunidad científica.
Las Conferencias se ha constituido como el plato fuerte de Passion for
Knowledge. Ha consistido en un programa de conferencias abiertas al
público impartidas por un grupo de ponentes que incluía a diez premios Nobel de física y química, investigadores de reconocido prestigio y ponentes de disciplinas humanistas, que nos han hablado de los
momentos clave, los retos, los resultados y las implicaciones de sus
carreras profesionales.
Las Conferencias tuvieron lugar en el Kursaal del 27 de septiembre al 1
de octubre en horario de 17:00 a 21:00. Cerca de 2.000 personas se inscribieron y asistieron en directo a este ciclo de conferencias, además de
las más de 5.500 personas que siguieron en directo las conferencias en el
canal tv del dipc –dipc.tv (4.500 personas han visualizado en diferido las
conferencias hasta el 12 de octubre de 2010, sumando un total de 3.604
horas de visionado).
La Ciudad incluía un programa de actividades distribuidas por la ciudad
de San Sebastián y realizadas en colaboración con diferentes agentes
culturales y sociales: Aquarium, Kutxa Obra Social, KutxaEspacio de la
Ciencia, el centro comercial La Bretxa, y la Fundación Elhuyar. Estas colaboraciones han permitido extender la celebración del décimo aniversario
del dipc por múltiples espacios y rincones de la ciudad y llevar la ciencia
a lugares y eventos que el público asocia con la cultura y el ocio. Sobre
todo, estas colaboraciones, y otras que se puedan establecer en los próximos años, deben servir para crear canales permanentes que vehiculicen
la difusión del conocimiento científico en formatos innovadores y cada
vez más accesibles al gran público.
Fruto de esta colaboración, en la sección La Ciudad, Passion for Knowledge
se han desarrollado las siguientes actividades:
Un ciclo de conferencias bajo el título Lecciones Kutxa impartidas por
investigadores del entorno del dipc durante los meses de mayo y junio,
y que han servido para preparar al gran público para la sección de Las
Conferencias.
En lugares concurridos de la ciudad como son el centro comercial la
Bretxa y el Aquarium, bajo el título «Pasión por el arte», se han tenido
abiertas, desde el 20 de septiembre al 10 de octubre, dos exposiciones de
arte de gran calidad y belleza que ofrecen una mirada sorprendente y algo
desconocida sobre la ciencia. La exposición NanoArt21 presentaba una
selección de trabajos de 28 artistas internacionales que han estado entre
los diez mejores en las cuatro ediciones del Concurso Internacional de
NanoArte en Internet. La exposición FotCiencia mostraba una selección
de 50 obras fotográficas que participaron en la 7a edición del certamen →
→
65
Entorno CIC
Xxxx xxxx xxx xxxxx
El lunes 27 de septiembre, el Ayuntamiento de San Sebastián rindió un homenaje a los patronos privados del dipc, grandes empresas que han apostado por la
ciencia demostrando la viabilidad y necesidad de las alianzas público-privadas para el progreso científico. Acudieron a recibir una placa conmemorativa los máximos
representantes de los patronos privados del dipc, Xabier Iturbe, presidente de Kutxa, Fernando Bergasa, consejero delegado de Naturgas Energía, Julio Linares, consejero
delegado de Telefónica, Andrés Arizkorreta, director general de caf, y José Manuel Martínez, presidente de Mapfre
nacional de fotografía científica organizado por el por el Consejo Superior de Investigaciones Científicas (csic) y la Fundación Española para
la Ciencia y la Tecnología (fecyt).
Dentro de la sección La Ciudad la actividad que mayor impacto ha tenido es la de Los Encuentros entre Premios Nobel e investigadores con
diferentes colectivos de la Comunidad Autónoma del País Vasco. Se han
celebrado 4 Encuentros en total: 2 Encuentros con escolares de entre 14
y 18 años, celebrados en KutxaEspacio de la Ciencia y Aquarium los días
28 y 30 de septiembre respectivamente, uno con profesores de secundaria
celebrado en KutxaEspacio de la Ciencia el 29 de septiembre y uno con
profesionales del ámbito biosanitario celebrado el 27 de septiembre en
KutxaEspacio de la Ciencia. En los Encuentros con Escolares participaron 49 colegios, sumando un total de 200 escolares y 66 profesores, en el
Encuentro con profesores participaron 80 profesores y en el Encuentro
biosanitario participaron 102 profesionales.
Junto con la Fundación Elhuyar, se ha organizado el concurso de vídeos online On Zientzia, con el que se quiere premiar la capacidad de divulgación
de la ciencia. On Zientzia está dirigido a investigadores nóveles, aficionados
a la ciencia, escolares y cualquiera que desee un enfoque creativo sobre
la ciencia. Se han recibido 50 vídeos en total. El fallo del jurado se dará
a conocer durante la semana de la ciencia en Donostia – San Sebastián.
En el Aquarium, bajo el título genérico de Pasión por el mar tuvieron lugar
una jornada de conferencias sobre investigación en túnidos el día 24 de
septiembre y proyecciones de cine sobre el mar y la naturaleza los días
25 y 26 de septiembre.
La sección Los Workshops ha estado dirigida y restringida a la comunidad
científica internacional y comprendía la celebración de cuatro workshops
centrados en las líneas de investigación principales que se han desarrollado en el dipc durante los diez años de existencia:
···· Dinámica ultrarrápida de electrones, bajo el título Passion for
electrons.
···· Física de superficies, bajo el título Passion for interfaces.
···· Física de materiales poliméricos, bajo el título Passion for soft
matter.
···· Fotónica y plasmónica, bajo el título Passion for photons.
Cerca de 400 investigadores de todo el mundo han participado en los
workhops, habiendo tenido lugar 4 Keynote lectures, 109 ponencias orales
y 161 posters.
Passion for Knowledge ha sido un éxito porque ha contado con ponentes
extraordinarios, porque ha servido para compartir e intercambiar ideas
entre científicos, porque el nivel de las comunicaciones recibidas y el nivel
de las conferencias plenarias ha sido muy elevado. Todo esto es verdad,
y con ello podríamos sentirnos satisfechos. Pero, sobre todo, Passion for
Knowledge ha sido un gran éxito por la respuesta ciudadana. La asistencia
de público y la participación de estudiantes y profesores en los Encuentros
han desbordado las expectativas, y se ha podido comprobar que se han
seguido las ponencias y actividades con gran interés y entusiasmo. Por
todo ello, en el dipc nos sentimos reafirmados para continuar con mayor empeño en nuestro compromiso de acercar la ciencia a la sociedad.
Es el comienzo de una nueva década.
commy nim am zzriustrud tio conulla aliquip suscill andreet lore feuismod exer alit lut accum ing enim zzrilisi blamcon hendio delit praesto
dolore ming exeriusci et luptat. Adiam augiatem in etue do eugait el eui
tate faci blametuerat alis doleniamcore dolor sectet adip et irit utem etueraesto odolor suscing exeratummod ex eugait venibh er sum iriustrud dip
euisl eummy nullut luptatis nim quat, core commy nullandio odolenim
dignissed te consequ amcommodo erosto od dolore modip ex eugiamc
onsequip exero od magnis amet velisi.
Percil irit am ad duis ad et at, quatue tem verit, sum augiam zzriurercin
henim ad tisis nullam inciduip ero ea feugue min utat. Ure tet veliquat
nulla ate elit aliquatet la corLent acil endiam duis alit, coreet nostie tat
irillum ing esecte modiamc onsecte feuguer sit amet, veliquamet am
dolobore magna ad minibh et vero od molorper sis amet praese dio od
magnim etue molore consequam illam zzriustrud ea feu feu faciduisi ex
esto odoloreetue venim dionsed ting euisis aliquate conullan vel dolenit
enisim nullaoreet lore conulluptat.
Vulla autatem in hendre modionsectem zzriustis nisi blam ad tet, quatum non ullam doloborper sent exero commod dolorem dolobore velit
lorpero consequat et lamcon enibh eugait ver in exero et vel dolortis ad
minis et aciliquat.
Uguer sendion sequat. Quisi tem dio odoluptatie cor summy nit wismolum nos augiamcon elis diat, quissi.
Ud eugiat nit la adigna facing euismod magna feuis adignibh esequatet
et, suscing ex ea atem ipisl ute essecte velessi eu faciliquat. Duisim aute
commod min enis augiatue delis nonsed tio eliquatin velenibh eugait
pratummod magnisit augait in hent acidunt ipit, velit lore min ullaore
tet dolor sim dolore dunt lut dolut adignismod exerostie consequ atissi
exerit adigna facipisim init irillut nullamet vullaoreet illummy nullametue
ming er suscinisi.
Ore feumsan utpat irit nonsequisi bla faccummod magnit atet adiamet
inciduisim in henismodolut alismol orperci duipsum ipisl ipissim inciduis aute er sit nonsed tie feu faciliquat acing eugue moloreetue dolore
ming erostie diamet vel iniam dignit duis dunt velenis cipiscin henit,
core volore molesequisi ex elis nonsequis dolor sim irilisl delisit lutpatie
commy nim am zzriustrud tio conulla aliquip suscill andreet lore feuismod exer alit lut accum ing enim zzrilisi blamcon hendio delit praesto
dolore ming exeriusci et luptat. Adiam augiatem in etue do eugait el eui
tate faci blametuerat alis doleniamcore dolor sectet adip et irit utem etueraesto odolor suscing exeratummod ex eugait venibh er sum iriustrud dip
euisl eummy nullut luptatis nim quat, core commy nullandio odolenim
dignissed te consequ amcommodo erosto od dolore modip ex eugiamc
onsequip exero od magnis amet velisi.
Percil irit am ad duis ad et at, quatue tem verit, sum augiam zzriurercin
henim ad tisis nullam inciduip ero ea feugue min utat. Ure tet veliquat
nulla ate elit aliquatet la cor
→
66
67
Xxxx xxxx xxx xxxxx
Euskadi en breve
Euskadi en breve
Guserbiot desarrolla la primera levadura
autóctona para los vinos de Rioja Alavesa
La empresa Guserbiot ha desarrollado la primera levadura autóctona para los vinos
de Rioja Alavesa con la colaboración de la Fundación Leia y las bodegas Marqués de
Riscal y Baigorri. La levadura, denominada GBiot EL 011-S, ya ha sido patentada y ha
empezado a ser comercializada de cara a la vendimia de 2010.
El vino es el resultado de un complejo proceso bioquímico en el que desempeña
un papel fundamental la fermentación alcohólica llevada a cabo por la levadura
Saccharomyces cerevisiae, responsable de un proceso metabólico que transforma
los azúcares del mosto en etanol. Desde hace más de 20 años, la práctica totalidad
de los productores de vino de las diferentes denominaciones de origen recurren a
levaduras externas comerciales, importadas de países como Francia o Australia,
para incorporarlas al proceso de elaboración del vino.
Estas levaduras comerciales han dado unos resultados óptimos, pero al mismo tiempo
han contribuido a crear una cierta estandarización de los aromas y sabores de los vinos.
Por ello, las denominaciones de origen de diferentes zonas vitivinícolas del mundo
están buscando la diferenciación con respecto a la competencia, reforzando las señas
de identidad de sus respectivos caldos a través del desarrollo de levaduras autóctonas.
Este nuevo producto es el resultado de 6 años de investigación en Guserbiot, que
junto con a&b Laboratorios de Biotecnología conforma el grupo abg Biotech. El
proyecto ha contado con el apoyo de los programas de ayuda a la investigación,
desarrollo e innovación de la Diputación Foral de Alava y del Gobierno Vasco.
Inaugurado en San Sebastián el Centro de Investigación
en Neurociencia Cognitiva del Lenguaje
El nuevo Centro de Investigación en Neurociencia Cognitiva del Lenguaje (bcbl, Basque Center on Cognition, Brain and Language), único en España dedicado a esta materia, fue inaugurado el pasado 7 de junio en San Sebastián. El centro, ubicado en el
Parque Tecnológico de San Sebastián y con un laboratorio en el campus donostiarra
de la upv/ehu, ocupa 1.500 metros cuadrados y cuenta actualmente con un equipo
internacional de 53 personas.
El Basque Center on Cognition, Brain and Language (bcbl) pretende desentrañar los
mecanismos neuropsicológicos de la adquisición, procesamiento y representación
del lenguaje en bebés, jóvenes y adultos, en personas sanas y con trastornos. Los
investigadores también trabajarán en proyectos de investigación neuropsicológica
para comprender mejor enfermedades como el Alzheimer o la hiperactividad.
Las instalaciones del bcbl dedicadas a neurociencia cognitiva cuentan, entre otros,
con resonancia magnética de 3 Teslas, que obtiene imágenes tridimensionales del cerebro cuando se presenta un determinado estímulo, y una unidad de magnetoencefalografía, que registra la actividad del cerebro durante la ejecución de tareas cognitivas.
Actualmente, trabaja en cinco proyectos, uno de los cuales profundiza en los procesos
implicados en la lectura, la dislexia, los problemas de atención y las dificultades de
razonamiento, que están siendo desarrollados junto a las universidades de Granada,
Murcia, La Laguna y Sevilla.
68
Progenika lanza dos nuevos productos
contra enfermedades en recién nacidos,
embarazadas y personas con cáncer
La empresa de medicina personalizada Progenika ha presentado dos nuevas herramientas para identificar grupos sanguíneos basados en las tecnologías más avanzadas
del mercado. Estos nuevos desarrollos permitirán evitar enfermedades y complicaciones a recién nacidos, mujeres embarazadas y personas que requieren múltiples
transfusiones de sangre como son los pacientes oncológicos.
Con estos nuevos desarrollos, se pueden evitar enfermedades en recién nacidos como
trombocitopenias neonatales, enfermedad hemolítica o anemia fetal. Asimismo,
ayudan a evitar la aloinmunización en mujeres embarazadas, es decir, la generación
y el paso de anticuerpos maternos al feto que suponen la destrucción de células
sanguíneas fetales. Además, para personas que necesiten múltiples transfusiones
sanguíneas, estas técnicas nuevas evitan las reacciones adversas del paciente. Cabe
destacar que para algunos de los grupos sanguíneos analizados no existe actualmente
ninguna técnica alternativa.
Las nuevas herramientas desarrolladas por la compañía vasca están basadas en la
tecnología Luminex, una técnica muy rápida, ya que solo son necesarias 5 horas
desde la extracción del dna para obtener los resultados, y que permite analizar un
elevado número de muestras en el mismo proceso, lo que supone una optimización
de los recursos y del coste. Por otra parte, es una técnica que está adaptada a las necesidades de los bancos de sangre, con lo que éstos no tienen que invertir ni cambiar
su forma de actuación. Esta nueva tecnología, junto a la ya disponible de dnachips,
convierten a Progenika en referente internacional en el desarrollo de herramientas
de diagnóstico molecular en medicina transfusional.
Ambas técnicas, que forman parte de la familia bloodchipID y por lo tanto cuentan
ya con el marcado ce, que supone la aprobación de la Unión Europea y su autorización para ser comercializados, están incluidas en el acuerdo de distribución suscrito
recientemente entre Grifols y Progenika.
La Universidad del País Vasco incluye
el grado de Biotecnología en su oferta
académica para el próximo curso
La Universidad del País Vasco (upv/ehu) incluye por primera vez el título de
Biotecnología en su oferta de grados para este curso académico. Este será el
primer año académico en que esta institución académica oferte títulos de grado
plenamente adaptados al Espacio Europeo de Educación Superior, tal como hizo
hace ya varios cursos con sus títulos de postgrado.
El grado de Biotecnología, enmarcado en la Facultad de Ciencia y Tecnología, está
muy implicado con los de Biología y Bioquímica, con los que tiene algunos cursos en
común. La upv/ehu ha realizado esta apuesta para formar profesionales en Biotecnología, ya que, según la propia Universidad, esta disciplina «ha experimentado un
desarrollo espectacular en los últimos años, que se prevé mantenga en un futuro».
Las actividades profesionales del Graduado en Biotecnología incluyen de manera
preferente el diseño y análisis de bioprocesos destinados a la obtención de productos,
bienes y servicios que demanda la sociedad, así como la gestión y control de procesos
biotecnológicos en plantas de producción a escala industrial. El marco laboral de
estas actividades incluye de modo muy preferente a las bioempresas, aunque también
se extiende a otras industrias que sean usuarias de aplicaciones.
69
Euskadi en breve
Un estudio de la Unidad de Biofísica csicupv/ehu desarrolla una nueva coraza para
evitar la infección del virus del sida
Un estudio del Consejo Superior de Investigaciones Científicas (csic), dirigido por el
profesor Félix Goñi, director de la Unidad de Biofísica, centro mixto csic-upv/ehu,
ha desarrollado un método de ataque contra el virus del sida que consiste en crear un
sistema de prevención basado en una coraza en las células que van a ser infectadas.
Esto impide de facto que el virus pueda acceder a ellas y comience a actuar sobre el
sistema inmunológico.
El estudio, iniciado hace tres años, sienta las bases de un posible futuro fármaco
que permitiría atacar al virus del sida en su fase inicial. El artículo que ha dado a
conocer el trabajo se titula Dihydrosphingomyelin impairs HIV-1 infection by rigidifying liquid-ordered membrane domains, y se ha publicado en la prestigiosa revista
Chemistry&Biology del grupo Cell.
La investigación proporciona un nuevo enfoque en la investigación científica hasta
ahora no explorado: se basa en la regulación de la fluidez de las membranas celulares
y pretende evitar el fenómeno conocido como la fusión de membranas, resultado
del contacto entre las membranas de las células y la propia membrana del virus. La
investigación pretende fortalecer la estructura de la membrana, haciéndola más
rígida, para evitar la fusión de membranas y, por consiguiente, la inoculación del
virus del sida en la célula.
En la investigación han intervenido, además del grupo de Goñi, el grupo del Centro
Nacional de Biotecnología (csic-Universidad Autónoma de Madrid) que dirige el
profesor Santos Mañes y el grupo de la profesora Gemma Fabrias, del Instituto de
Instituto Química Aplicada de Catalunya (csic, Barcelona).
Euskadi en breve
Un dispositivo desarrollado por ik4 para
detectar ets se comercializará en la India
Un dispositivo portátil desarrollado por la Alianza Tecnológica IK4, capaz de detectar la
clamidia, el virus del papiloma humano (inductor del cáncer de útero) y otras enfermedades de transmisión sexual en menos de media hora, será comercializado en la India
en 2012 con el objetivo de contribuir a diagnosticar este tipo de patologías. Con una
población estimada de 1.198 millones de habitantes, se calcula que más de 82,5 millones
de personas están afectadas por alguna de estas patologías en la India.
El dispositivo de diagnóstico rápido y de bajo coste, desarrollado por los centros de
ik4 gaiker e ikerlan, permitirá detectar la presencia de Enfermedades de Transmisión Sexual (ets) u otros agentes infecciosos en un tiempo muy inferior al de los
sistemas convencionales actuales de cultivo microbiológico o de detección molecular.
Este desarrollo tecnológico, que no requiere la infraestructura de un laboratorio,
lleva a cabo complejas técnicas de detección a partir de muestras clínicas y es más
eficaz y rentable que otras técnicas rápidas actuales.
La empresa india Globionic Technology, que se encargará de poner el desarrollo en
el mercado, ha tenido conocimiento de este dispositivo de diagnóstico a través de
diferentes publicaciones científicas y especializadas. El pasado mes de mayo, una
delegación de esta empresa visitó los centros de ik4 para conocer de primera mano
el desarrollo tecnológico. Durante la visita, se llevó a cabo una demostración de detección de salmonella en heces mediante ese sistema. La detección de este patógeno
fue, de hecho, el modelo inicial de trabajo del nuevo desarrollo.
Tras verificar su funcionamiento, ambas partes firmaron un convenio en el que
se acordó que la delegación india recibirá un prototipo de la plataforma para que
la Universidad de Delhi adapte el dispositivo a la detección de ets. La adaptación
deberá permitir el diagnóstico de cualquier enfermedad relacionada con la biología
molecular, incluidas las ets. Mientras tanto, los centros de ik4 trabajarán en el desarrollo del modelo de dispositivo portátil para su salida al mercado.
Investigadores de cic biomagune
desarrollan un nuevo método de diagnóstico
basado en quantum dots
Investigadores del Centro de Investigación Cooperativa en Biomateriales,
cic biomagune, han desarrollado un nuevo método de diagnóstico basado en puntos
cuánticos (quantum dots) que puede tener aplicación en los análisis clínicos del sida, la
hepatitis C y otras enfermedades infecciosas. La nueva técnica, para la cual se ha solicitado una patente, ha merecido la portada de la revista Chemistry- A European Journal.
Los puntos cuánticos son una nanoestructura semiconductora con la particularidad
de que están iluminados y reemiten luz en una longitud de onda muy específica.
Ofrecen imágenes de mucho contraste, lo que los hace muy útiles para el diagnóstico.
70
El grupo de investigación de cic biomagune, liderado por Valery Pavlov, ha desarrollado un ensayo analítico para detectar la actividad de dos enzimas principalmente, a
través de la generación de estos puntos cuánticos: por un lado, la acetilcolinesterasa,
una enzima humana que se encuentra en los tejidos nerviosos y los glóbulos rojos; y, por
otro, la fosfatasa alcalina, una enzima responsable de eliminar fosfatos de las moléculas.
La generación de estos puntos cuánticos durante los análisis elisa, un método muy
utilizado en el diagnóstico clínico, permite detectar de forma sencilla antígenos y
anticuerpos del sida, la hepatitis C y otras enfermedades infecciosas, lo que abre la
puerta a su utilización en los ensayos clínicos.
71
Euskadi en breve
Una investigación de cic biogune abre
una nueva vía de estudio para predecir
enfermedades neurodegenerativas
Investigadores de cic biogune, liderados por el Dr. Aitor Hierro, han abierto una
nueva vía para avanzar en el conocimiento y predicción de enfermedades neurodegenerativas como la esclerosis lateral amiotrófica (ela en sus siglas en inglés),
según se ha publicado en la revista The Proceedings of the National Academy of
Sciences of the United States of America.
Este estudio abre una posible nueva vía de investigación en humanos para llegar a
predecir esta patología, antes de que se generen sus primeros síntomas. El estudio
ha sido realizado en colaboración con grupos del Instituto Nacional de Salud (nih)
y del Centro Neuromuscular de la Clínica Cleveland, ambos de ee.uu., así como del
Centro Nacional de Investigaciones Científicas (cnrs) en Francia.
La investigación ha resuelto por primera vez la estructura de una proteína denominada Vps54. En el modelo de ratón wobbler, la proteína Vps54 presenta una mutación
que da lugar a una degeneración progresiva de neuronas motoras e infertilidad.
Debido a este fenotipo característico, el ratón wobbler ha sido utilizado desde su
descubrimiento en 1956 por el Dr. Falconer como modelo de ratón para el estudio de
la degeneración espontánea de neuronas motoras, incluyendo la esclerosis lateral
amiotrófica. En 2005, el grupo del Dr. Jockusch consiguió identificar la mutación
responsable del fenotipo wobbler. A partir de este momento, el grupo liderado por
el Dr. Hierro se ha centrado en entender cómo la mutación afecta a la proteína y a
su propia actividad.
Así, se ha descubierto que la enfermedad no es solo consecuencia de la mutación
sobre una proteína concreta —
­ tesis que se había mantenido hasta ahora en base a
los estudios precedentes—, sino que existe un efecto dominó en el que los niveles
reducidos de la proteína mutada ejercen un efecto desestabilizador sobre el resto
de componentes del complejo del que forma parte.
Un consorcio vasco desarrolla un
microsensor para controlar la artritis y la
psoriasis
El antihistamínico Bilastina, de Faes Farma,
autorizado para ser comercializado en la
Unión Europea
Un consorcio vasco, formado por cic microgune, el Instituto BioDonostia y las empresas Proteomika y Abyntek, del Grupo Progenika, trabaja en el desarrollo de un microdispositivo sensor que permita monitorizar la evolución de enfermedades inflamatorias
autoinmunes y crónicas, como la artritis reumatoide, la enfermedad de Crohn, la colitis
ulcerosa o la psoriasis. La actividad inflamatoria podrá medirse directamente en la sangre del paciente, lo que permitirá dosificar el uso de fármacos específicos, minimizando
los efectos secundarios y logrando un mejor control del gasto sanitario.
El antihistamínico de última generación de la empresa farmacéutica Faes Farma, Bilastina, ha sido autorizado por la Unión Europea para el tratamiento de la rinoconjuntivitis
alérgica y urticaria. El fármaco estará disponible en el mercado europeo a lo largo de
2011, donde aspira a alcanzar una cuota del 20%.
Uno de los parámetros clínicos empleados para estudiar la evolución de estas enfermedades es la concentración de la proteína C reactiva en sangre, y sin embargo,
el factor más importante que afecta al desarrollo de la actividad inflamatoria es la
proteína tnf alfa o Factor de Necrosis Tumoral, en muchas ocasiones generada por
el cuerpo como respuesta a la enfermedad.
La determinación de tnf-alfa no se realiza hoy en día de forma rutinaria en ninguno
de los hospitales del mundo ya que no existen técnicas viables dentro de la práctica
clínica diaria. Por eso, la búsqueda de un nuevo método que permita determinar
el tnf-alfa en la práctica clínica habitual resulta de un gran interés sanitario y económico. Dicho dispositivo aportará al facultativo datos objetivos y la información
necesaria para la personalización del tratamiento del paciente.
Los investigadores esperan poder contar ya con un prototipo en 2011, que se probará con
muestras reales de pacientes para finales de ese mismo año. Los trabajos en torno a tnfAlfa están financiados por el Gobierno Vasco y por la Diputación Foral de Gipuzkoa.
72
La aprobación de Bilastina supone un hito de la máxima relevancia en la historia de
la farmacéutica vasca, que ve cómo un fármaco nacido fruto de su investigación y
desarrollo obtiene luz verde para su comercialización, lo que supone el último paso
de un proceso de diez años de duración.
Bilastina es un antihistaminico de última generación, rápido y de acción prolongada,
con un amplio perfil de seguridad, indicado en rinoconjuntivitis alérgica y urticaria.
Su eficacia se ha contrastado en 28 ensayos clínicos llevados a cabo por Faes Farma
en tres continentes y sobre más de 5.000 pacientes. Faes Farma ha licenciado ya los
derechos del fármaco para su comercialización en numerosos países.
Se estima que entre el 10 y el 30% de la población mundial se ve afectada por síntomas
alérgicos, hasta ser considerada como la enfermedad más prevalente en pacientes
adultos. En la Unión Europea se considera que la alergia afecta a más de 100 millones
de personas, con la incidencia más alta en Alemania, Francia, Italia y España. El
mercado de antihistamínicos en el mundo se estima en la actualidad en unos 4.200
millones de euros, de los cuales, la cuarta parte corresponde a Europa.
40 entidades vascas participan
en BioSpain 2010, el principal
congreso español de biotecnología
Convenio de colaboración entre cic biogune
y el Instituto Pascual para promocionar la
formación y divulgación científica
La BioRegión Vasca estuvo presente en BioSpain 2010 con una delegación encabezada
por la Agencia BioBasque y compuesta por cerca de 40 entidades que incluyeron a empresas, representantes del entorno sanitario, agentes científico-tecnológicos, parques
tecnológicos, incubadoras e instituciones.
El Centro de Investigación Cooperativa en Biociencias, cic biogune, y el Instituto
Tomás Pascual han firmado un convenio de colaboración con el objetivo de fomentar la formación y difusión del conocimiento científico durante el presente año 2010.
El Instituto Tomás Pascual ha concedido a cic biogune una ayuda económica por
valor de 30.000€ con el fin de que la entidad científica vasca impulse actividades
asociadas con la formación de nuevos valores investigadores y la difusión científica
durante 2010.
BioSpain 2010 se celebró del 29 de septiembre al 1 de octubre en Pamplona, ciudad que
acogió este año el evento que, con carácter bianual, reúne a un nutrido grupo de expertos
del sector biotecnológico nacional e internacional. Precisamente, la internacionalización
de la feria fue la novedad más destacada de esta edición. Alrededor de 160 compañías, un
33% más que en la edición anterior (BioSpain 2008), participaron en el área comercial,
principalmente de España, Bélgica, Canadá, Francia, Alemania e India. La BioRegión
Vasca mantuvo contactos con estas delegaciones y con las oficinas de otros
países como Reino Unido.
El evento se estructuró en una feria
comercial, un acontecimiento de
partenariado, un foro de inversores,
sesiones plenarias y conferencias de
temática diversa con ponentes internacionales, el congreso científico de la
Sociedad Española de Biotecnología
(sebiot) y un foro de empleo.
El congreso científico organizado por
la Sociedad Española de Biotecnología (sebiot), Biotec 2010 incluyó,
entre otros, temáticas relacionadas
con la biotecnología medioambiental, las tecnologías de diagnóstico y
la nanobiotecnología, ámbitos en los
que trabajan numerosas empresas y
agentes científico-tecnológicos de la
BioRegión Vasca.
En este sentido, esta colaboración entre cic biogune y el Instituto Tomás Pascual
ha derivado en un programa muy ambicioso de actividades en formato de congresos, workshops, conferencias y seminarios científicos, mesas redondas, etc. En este
programa de actividades de difusión cabe destacar la organización de la V Bienal
del grupo especializado en Resonancia Magnética Nuclear, rmn, de la Real Sociedad
Española de Química, y las Jornadas de Enfermedades Crónicas, esta última que se
organizará en colaboración con la Fundación Ciencias de la Salud los días 11 y 18 de
noviembre en Bilbao.
Así también, durante este año, cic biogune ha organizado tres workshops: el primero,
organizado junto con ciberehd sobre tecnologías ómicas -«Análisis de Genomas,
Silenciamiento Génico, Proteómica y Metabolómica»; el segundo, sobre Traslational
Research, organizado con las plataformas tecnológicas Tecnalia e IK4, así como con
los Centros de Investigación Cooperativa (cic); y el tercero ha estado dedicado a las
Nuevas Técnicas en Biología Estructural.
Durante el presente año, cic biogune ha organizado alrededor de 25 conferencias
y 36 seminarios, con la participación de destacados referentes de la comunidad
científica internacional, como son Angelika Schnieke, creadora junto a Ian Wilmut
de la clonación de la Oveja Dolly; el Dr. Charles Weissmann, descubridor del gen que
fabrica los priones; Manuel Serrano, descubridor de p53, el guardián del genoma; y
Antonio Vidal, catedrático de la Universidad de Cambridge.
Del mismo modo, y con motivo de la visita a cic biogune del International Scientific
Advisory Board, se organizó en junio una mesa redonda bajo el título: «Fronteras de
la investigación biomédica», en la que intervinieron Richard H. Finnell, Angela Gronenborn, Samir M. Hanash, Shelly Lu, Juan Rodés y Roger M. Burnett.
Inaugurado en Bilbao el observatorio
astronómico más potente de Euskadi
La Escuela Técnica Superior de Ingeniería de Bilbao (upv/ehu) inauguró el pasado
mes de julio el Observatorio Astronómico Aula Espazio Gela, que cuenta con el
telescopio más potente de los instalados en el País Vasco.
La cúpula del observatorio, con un diámetro de 3,5 metros y construida en Australia, se
instaló el pasado 14 de marzo en el tejado de la escuela, para lo que fue necesario una
grúa de 50 metros. En su interior acoge un telescopio de 50 centímetros de diámetro,
el más grande y potente de los que operan actualmente en el País Vasco. Junto al observatorio, que ha costado 82.500 euros, los alumnos podrán hacer uso de telescopios
auxiliares y móviles para investigar todo tipo de cuerpos celestes desde distintos puntos.
El observatorio permitirá a los alumnos acercarse a los problemas que se encontrarán durante su carrera profesional, ya sea como tecnólogos para el desarrollo
y optimización de telescopios e instrumentos, o como científicos para completar trabajos de investigación del espacio. Aunque el observatorio está enfocado
fundamentalmente a la docencia, también se pretenden realizar observaciones
astronómicas sencillas que puedan contribuir a la divulgación de la Astronomía
y de la Ciencia Espacial.
El observatorio forma parte a su vez de las instalaciones del Aula Espazio Gela puesta
en marcha en julio de 2009 con el objetivo de formar a profesionales en el ámbito
de la ciencia y tecnología espacial, así como a la promoción de la investigación.
73
PUBLICIDAD
Euskadi en breve
El Kursaal, un espacio para los profesionales
de la ciencia y la tecnología
Un novedoso análisis de sangre permitirá
el diagnóstico precoz de la enfermedad del
hígado graso
Un consorcio de centros de investigación, universidades y empresas, liderado por cic
biogune y Owl Genomics, ha desarrollado un nuevo test de análisis, a partir de la tecnología metabolómica, que se erigirá en una herramienta eficaz para el diagnóstico precoz de la enfermedad del hígado graso no alcohólico (nafld). El novedoso proyecto ha
sido publicado este pasado mes de agosto en la revista Journal of Proteome Research,
y estará disponible en breves fechas en el mercado, ya que la empresa Owl Genomics
iniciará su comercialización en España con la compañía Ferrer.
El desarrollo de este novedoso proyecto ha contado también con la participación de
investigadores del inserm y varios hospitales universitarios (el Hospital aphp Pitié
Salpêtrière, la Universidad Pierre y Marie Curie de Paris, el Centro Hospitalario Universitario de Niza y la Universidad Sophia-Antipolis de Niza, Francia), la Universidad
Vanderbilt (Nashville, ee. uu.), la Universidad del Sur de California (Los Angeles, ee.
uu.), el Hospital Clínico e idibaps (Barcelona, España) y la Universidad de Alcalá de
Henares (Alcalá de Henares, España). En este sentido, forma parte de los proyectos
hepadip (www.hepadip.org) y ciberehd (www.ciberehd.es) y cuenta con el apoyo
de la Comisión Europea y del Instituto de Salud Carlos III de España.
La obesidad supone un grave factor de riesgo para la nafld. La nafld es una enfermedad progresiva, que abarca desde la simple acumulación de grasa en el hígado (esteatosis) hasta complicaciones necroinflamatorias más severas como la
esteatohepatitis no alcohólica (nash o ehna), que afecta al 24% de la población
estadounidense y europea.
Hoy en día, los métodos más comúnmente empleados para diagnosticar nafld
son las técnicas de imagen de ultrasonidos y resonancia magnética, y el examen
histológico de una muestra de biopsia de hígado. No obstante, las técnicas de imagen resultan caras y poco precisas (no logran distinguir un nash de una simple
esteatosis), mientras que la biopsia de hígado es una técnica cara, invasiva y de
procedimiento subjetivo, asociada con potenciales complicaciones y propensa a
los errores de muestreo.
El análisis de sangre basado en la metabolómica sí detecta la diferencia entre una
simple esteatosis y la nash. «Creemos que esta es la primera aplicación de una nueva
aproximación experimental para determinar un perfil metabolómico de la sangre que
dé pie a la identificación de los posibles biomarcadores para cualquier enfermedad
hepática y un magnífico ejemplo de investigación traslacional», comenta el profesor
José Mato, director de cic biogune e investigador de ciberehd.
74
Xxxx xxxx xxx xxxxx
Descubren un novedoso mecanismo de
comunicación entre las proteínas causantes
del suicidio celular
Un reciente estudio realizado por investigadores de cinco centros de investigación,
entre los que se incluye la Unidad de Biofísica (csic-upv/ehu), proporciona nuevas
claves para comprender el proceso de suicidio celular. La investigación se publicó en
septiembre en la prestigiosa revista Cell.
Diariamente, nuestro cuerpo elimina de forma controlada más de 100 millones de
células defectuosas, mediante un procedimiento denominado suicidio celular o
apoptosis. Este es un proceso de gran complejidad, cuyos desajustes pueden originar graves enfermedades, entre las que destaca el cáncer. Durante las últimas dos
décadas ha sido posible identificar los distintos componentes celulares implicados
en la apoptosis. Sin embargo, aún quedan importantes cuestiones por resolver sobre
el funcionamiento de algunas piezas claves de este gran rompecabezas celular. El trabajo desvela que tres componentes esenciales del proceso apoptótico, las proteínas
bax, drp-1 y el lípido cardiolipina, actúan de forma conjunta para producir un gran
agujero en la membrana externa de la mitocondria, el cual resulta letal para la célula.
Pero, probablemente, el aspecto más novedoso y sorprendente del estudio es que
los investigadores han conseguido descifrar un nuevo lenguaje utilizado por bax y
DRP-1 para comunicarse: estas dos proteínas no interaccionan físicamente entre sí,
como ocurre habitualmente, sino que lo hacen a través de los lípidos de la membrana.
«Específicamente, lo que hace una de las proteínas (drp-1) es deformar la bicapa
lipídica de la membrana y la estructura resultante es la que aparentemente posibilita
la activación de la segunda proteína (bax)». explica Gorka Basañez, de la Unidad de
Biofísica (csic-upv/ehu), uno de los autores del estudio. Estos hallazgos podrían
abrir nuevas vías para el desarrollo racional de fármacos antitumorales específicamente dirigidos contra estos componentes de la maquinaria apoptótica celular.
En este estudio, dirigido por el Profesor Jean-Claude Martinou, del departamento
de Biología Celular de la Universidad de Ginebra (Suiza), han intervenido, además
de la Unidad de Biofísica csic-upv/ehu, las universidades de Salzburgo (Austria),
Hanover (Alemania), y Florida (ee.uu).
exero et vel dolortis ad minis et aciliquat.
dolobore magna ad minibh et vero od molor- lore conulluptat.
Vulla autatem in hendre modionsectem zzrius- Uguer sendion sequat. Quisi tem dio odolupper sis amet praese dio od magnim etue molore
tis nisi blam ad tet, quatum non ullam dolobor- tatie cor summy nit wismolum nos augiamcon
consequam illam zzriustrud ea feu feu faciduisi
ex esto odoloreetue venim dionsed ting euisis per sent exero commod dolorem dolobore velit elis diat, quissi.
Ud eugiat nit la adigna facing euismod magna
aliquate conullan vel dolenit enisim nullaoreet lorpero consequat et lamcon enibh eugait ver in
feuis–Premio
adignibh
esequatet
et, suscing Mies
ex ea van
atem
exero
et
vel
dolortis
ad
minis
et
aciliquat.
lore
conulluptat.
Situado en el corazón de la ciudad, frente al Cantábrico y la playa de la Zurriola, el Kursaal, obra de Rafael Moneo
Europeo
de Arquitectura
essectemás
velessi
eu faciliquat.
Duisim
Uguerarquitectónico
sendion sequat.
Quisi temEldio
odolupVulla
autatem
in hendre
modionsectem
der Rohe
al mejor
edificio de
Europa 2001–,zzriuses un conjunto
de vanguardia.
Kursaal
disponeipisl
de laute
tecnología
avanzada,
con espacios
poaute
commod
min enis augiatue
delis noncor summy
nit formatos
wismolum
augiamcon
tis
nisi blam
ad tet, quatum
non ullam
doloborlivalente
y versátiles,
que lo hacen
el escenario
idóneo tatie
para acoger
diversos
denos
congresos
y reuniones.
Una
oferta diferenciadora
es la restauración,
a
sedestrellas
tio eliquatin
velenibh
pratummod
elis
quissi.
per
sent
dolorem
cargo
delexero
equipocommod
del chef que
ocupadolobore
el cuarto velit
puesto en
el diat,
ranking
mundial de restauradores y poseedor de dos
michelín,
Andonieugait
Luis Aduriz.
magnisit augait in hent acidunt ipit, velit lore
Ud eugiat nit la adigna facing euismod magna
lorpero consequat et lamcon enibh eugait ver in
Servicios
integrados
a
la
carta
min ullaore tet dolor sim dolore dunt lut dofeuis
adignibh
esequatet
et,
suscing
ex
ea
atem
exero
et
vel
dolortis
ad
minis
et
aciliquat.
En junio de 2009 el Kursaal cumplió diez años, una
lut adignismod exerostie consequ atissi exerit
ipisl
ute
essecte
velessi
eu
faciliquat.
Duisim
Uguer
sendion
sequat.
Quisi
tem
dio
odolupdécada en la que el edificio ha cambiado la fisonomía
El Kursaal ofrece una atención personal y un seradigna facipisim init irillut nullamet vullaoreet
aute
commod
min
enis
augiatue
delis
nontatie
cor
summy
nit
wismolum
nos
augiamcon
urbana de San Sebastián y se ha convertido en destino
vicio integral que destaca por su flexibilidad y
illummy nullametue ming er suscinisi.
sed
tio
eliquatin
velenibh
eugait
pratummod
elis
diat,
quissi.
preferente del turismo de reuniones.
capacidad para controlar las necesidades que se
Ore feumsan utpat irit nonsequisi bla faccummagnisit
augait
in
hent
acidunt
ipit,
velit
lore
Ud eugiat nit la adigna facing euismod magna
planteen en el desarrollo del evento. Un experto
Los
mod magnit atet adiamet inciduisim in henismin ullaore
tet
dolor
sim
dolore
dunt
lut
dofeuisespacios
adignibh esequatet et, suscing ex ea atem equipo
humano participa activamente tanto en el
modolut alismol orperci duipsum ipisl ipissim
lut
adignismod
exerostie
consequ
atissi
exerit
ipisl
ute
essecte
velessi
eu
faciliquat.
Duisim
Dos auditorios y 20 salas
proyecto como en la realización del acto y gestiona
inciduis aute er sit nonsed tie feu faciliquat
adigna
facipisim
init
irillut
nullamet
vullaoreet
aute
commod
min
enis
augiatue
delis
nonCon dos auditorios con capacidad para 1.806 y 624
una amplia oferta de servicios, que van desde auacing eugue moloreetue dolore ming erostie
illummy
nullametue
ming
er
suscinisi.
sed
tio
eliquatin
velenibh
eugait
pratummod
personas, cuenta además con 20 salas de reuniones
diovisuales, iluminación escénica hasta personal
diamet vel iniam dignit duis dunt velenis cipisOre
feumsan
utpat
irit
nonsequisi
bla
facmagnisit
augait
in
hent
acidunt
ipit,
velit
lore
con capacidades que van desde las 10 hasta las 575
técnico y azafatas o traducción simultánea. Es posicin henit, core volore molesequisi ex elis nonsecummod
magnit
atet
adiamet
inciduisim
in
min
ullaore
tet
dolor
sim
dolore
dunt
lut
dopersonas, además de salas vip y salas de prensa.
ble, además, la contratación de servicios y recursos
quis dolor sim irilisl delisit lutpatie commy nim
henismodolut
alismol
orperci
duipsum
ipisl
lut
adignismod
exerostie
consequ
atissi
exerit
Áreas de exposición
técnicos y humanos a la carta.
am zzriustrud tio conulla aliquip suscill andreet
ipissim
inciduis
aute
er
sit
nonsed
tie
feu
faadigna
facipisim
init
irillut
nullamet
vullaoreet
Equipado al más alto nivel, el edificio está preparado
Algunos
de
nuestros
clientes
lore feuismod exer alit lut accum ing enim zzriciliquat
acing
eugue
moloreetue
dolore
ming
illummy
nullametue
ming
er
suscinisi.
para acoger ferias y exposiciones en sus más de 5.000
lisi blamcon hendio delit praesto dolore ming
erostie
diamet
vel
iniam
dignit
duis
dunt
veleOre
feumsan
utpat
irit
nonsequisi
bla
facmetros cuadrados.
Entre las entidades y empresas tecnológicas y científiexeriusci et luptat. Adiam augiatem in etue do
nis
cipiscin
henit,
core
volore
molesequisi
ex
cummod
magnit
atet
adiamet
inciduisim
in
Dos terrazas
cas que han elegido el Kursaal para celebrar sus eveneugait el eui tate faci blametuerat alis doleniaelis
nonsequis
dolor
sim
irilisl
delisit
lutpatie
henismodolut
alismol
orperci
duipsum
ipisl
Sus amplias terrazas exteriores, de 5.000 metros cuatos, congresos, jornadas o seminarios se pueden citar:
mcore dolor sectet adip et irit utem etueraesto
commy
nim
am
zzriustrud
tio
conulla
aliquip
ipissim
inciduis
aute
er
sit
nonsed
tie
feu
fadrados, tienen vistas panorámicas a la playa.
· tecnalia
· inasmet
odolor suscing exeratummod ex eugait venibh
andreet
lore
feuismod
exer
alit
lut
accum
ciliquat acing eugue moloreetue dolore ming ·suscill
azti
· tekniker
El
sellodiamet
“Andoni
Aduriz”
er sum iriustrud dip euisl eummy nullut luptaenim
zzrilisi
blamcon
hendio
delit
praesto
erostie
velLuis
iniam
dignit duis dunt vele- ·ing
fatronik
· cadtech
tis nim quat, core commy nullandio odolenim
dolore
ming
exeriusci
et
luptat.
Adiam
augiatem
nis
cipiscin
henit,
core
volore
molesequisi
ex
En el capítulo gastronómico, el Kursaal dispone de
· cluster de conocimiento
· ceit
dignissed te consequ amcommodo erosto od
in
etue
do
eugait
el
eui
tate
faci
blametuerat
elis
nonsequis
dolor
sim
irilisl
delisit
lutpatie
una variada gama de espacios para la restauración
· ideko
· ikerlan
dolore modip ex eugiamc onsequip exero odUdalis
doleniamcore
dolor
sectet
adip
et
irit
utem
commy
nim
am
zzriustrud
tio
conulla
aliquip
con una capacidad de hasta 1.500 comensales senta· mik
· saretek
nit duis dunt velenis cipiscin henit, core volore
etueraesto
odolor
suscing
exeratummod
ex
eususcill
andreet
lore
feuismod
exer
alit
lut
accum
dos y 1.800 personas en cóctel. La cocina de Andoni
· cic nanogune
· dipc
molesequisi ex elis nonsequis dolor sim irilisl
gait
venibh
er
sum
iriustrud
dip
euisl
eummy
ing
enim
zzrilisi
blamcon
hendio
delit
praesto
Luis Aduriz y Bixente Arrieta -los chefs que dirigen
· universidad del país vasco· neiker
delisit lutpatie commy nim am zzriustrud tio
nullut
luptatis
nim
quat,
core
commy
nullandio
dolore
ming
exeriusci
et
luptat.
Adiam
augiatem
todos los servicios culinarios del palacio- se hace pa· mondragon unibertsitatea
· elhuyar
conulla aliquip suscill andreet lore feuismod
odolenim
dignissed
te
consequ
amcommodo
in
etue
do
eugait
el
eui
tate
faci
blametuerat
tente también en los coffe-breaks, en el bar de congreexer alit lut accum ing enim zzrilisi blamcon
erosto
od
dolore
modip
ex
eugiamc
onsequip
alis
doleniamcore
dolor
sectet
adip
et
irit
utem
sos, el restaurante y el bistrot, con estratégica terraza.
Entre otros congresos y reuniones del ámbito tecnohendio delit praesto dolore ming exeriusci et
exero
od
magnis
amet
velisi.
etueraesto
odolor
suscing
exeratummod
ex
euY todo ello con el sello Aduriz.
lógico y científico celebrados figuran:
luptat. Adiam augiatem in etue do eugait el eui
Percil
irit
am
ad
duis
ad
et
at,
quatue
tem
verit,
gait venibh er sum iriustrud dip euisl eummy
· 7th European Conference on Superplastic Forming
Para
tiponim
de eventos
tate faci blametuerat alis doleniamcore dolor
augiam
zzriurercin
henim
ad
tisis
nullam
nulluttodo
luptatis
quat, core commy nullandio ·sum
Passion for Knowledge
sectet adip et irit utem etueraesto odolor susinciduip
ero
ea
feugue
min
utat.
Ure
tet
veliquat
odolenim
dignissed
te
consequ
amcommodo
En el Kursaal, innovador tanto en su diseño como en
· Atom by Atom
cing exeratummod ex eugait venibh er sum
nulla
ate
elit
aliquatet
la
corLent
acil
endiam
erosto
od
dolore
modip
ex
eugiamc
onsequip
sus infraestructuras, tienen cabida todo tipo de even· Nano 2009
iriustrud dip euisl eummy nullut luptatis nim
duis
alit,
coreet
nostie
tat
irillum
ing
esecte
moexero
od
magnis
amet
velisi.
tos y reuniones: congresos, jornadas, seminarios, deba· 12th CIRP (Conference on Modelling of Machining Operations)
quat, core commy nullandio odolenim dignisdiamc
onsecte
feuguer
sit
amet,
veliquamet
am
Percil
irit
am
ad
duis
ad
et
at,
quatue
tem
verit,
· Euspen 11th International Conference
tes, mesas redondas, ruedas de prensa o actos sociales.
sed te consequ amcommodo erosto od dolore
magna
ad
minibh
et
vero
od
molorsum augiam zzriurercin henim ad tisis nullam ·dolobore
21st Annual Conference of the European Cetacean Society
Compromiso
defeugue
calidad
modip ex eugiamc onsequip exero od magnis
sis
amet
praese
dio
od
magnim
etue
molore
inciduip ero ea
min utat. Ure tet veliquat ·per
X Congreso de Materiales
amet velisi.
consequam
illam
zzriustrud
ea
feu
feu
faciduisi
nulla
ate
elit
aliquatet
la
corLent
acil
endiam
· visio 2007
Además de un edificio singular, el palacio de
Percil irit am ad duis ad et at, quatue tem verit,
ex
esto
odoloreetue
venim
dionsed
ting
euisis
duis
alit,
coreet
nostie
tat
irillum
ing
esecte
mo· World Cutting Tool Conference WCTC
congresos se ha dotado de un servicio integral
sum augiam zzriurercin henim ad tisis nullam
aliquate
conullan
vel
dolenit
enisim
nullaoreet
diamc
onsecte
feuguer
sit
amet,
veliquamet
am
· tnt-Trends in Nanotechnology
para dar soporte a la organización de los eventos
inciduip ero ea feugue min utat. Ure tet veliquat
lore
conulluptat.
dolobore
magna
ad
minibh
et
vero
od
molor· AAATE - Conferencia Europea para el Avance de las
más exigentes y con una calidad contrastada,
nulla ate elit aliquatet la cor
Vulla
autatem
in
hendre
modionsectem
zzriusper
sis
amet
praese
dio
od
magnim
etue
molore
Tecnologías
avalada internacionalmente por la ISO- 9001, el
tis
nisi
blam
ad
tet,
quatum
non
ullam
doloborconsequam
illam
zzriustrud
ea
feu
feu
faciduisi
· III Joint European Magnetic Symposia
Certificado en Gestión Ambiental o el Certificado de
sent exero commod
ex esto odoloreetue
·per
4th International
Conference dolorem
on Polymerdolobore velit
Accesibilidad
Global. venim dionsed ting euisis
consequat
et
lamcon
enibh eugait ver in
aliquate conullan vel dolenit enisim nullaoreet ·lorpero
→
Einstein 2006
75
Actualidad Científica
Xxxx xxxx xxx xxxxx
Actualidad Científica
El hombre moderno comparte parte del
dna con el Neandertal
Un equipo internacional de científicos ha conseguido secuenciar el
genoma completo del neandertal, un gran proyecto que empezó hace
cuatro años y cuyos resultados publicó el pasado mes de mayo la revista Science. Se trata de un primer borrador de un 60% del dna, basado
en tres pequeñas muestras, procedentes de tres huesos distintos, de
entre 38.000 y 44.000 años de antigüedad, todos ellos del yacimiento
de Vindija en Croacia.
Los resultados aportaron datos como la certeza de que sapiens y neandertales se llegaron a cruzar en un momento de sus historias
o que el hombre moderno comparte un pequeño porcentaje de dna (entre un 1 y un 4%)
con el homínido extinguido.
El genoma neandertal presenta, además,
otras regiones cromosómicas que podrían
derivar de cruzamientos con homínidos más
arcaicos, como Homo erectus u Homo antecessor, la especie más antigua de Atapuerca.
Homo neanderthalensis, skull discovered in 1908 at la Chapelle aux saints (France)
Científicos en ee.uu. crean las primeras
células con un genoma sintético
Científicos estadounidenses anunciaron el pasado mes de mayo la creación de la primera forma de vida artificial, una célula con un genoma
creado en el laboratorio. El hito fue anunciado por el líder del proyecto,
John Craig Venter, uno de los padres del genoma, en la revista científica
Science.
En realidad, se trata de un híbrido, con la estructura natural de una bacteria
viva y el material genético artificial. Para lograrlo, primero generaron un
cromosoma sintético, una réplica a imagen y semejanza del genoma de la
bacteria (Mycoplasma mycoides) y después lo trasplantaron a otra bacteria
viva (M. capricolum), que actuó como recipiente para crear una nueva.
Una vez implantado, el dna de síntesis se activó y empezó a funcionar en
la nueva célula.
El proyecto ha generado diferencias en la comunidad científica respecto
a su alcance. Entre los proyectos de Venter está diseñar un alga que fije el
co2 atmosférico y lo convierta en hidrocarburos, utilizando la energía de
la luz solar para ello. Otros proyectos persiguen acelerar la producción
de vacunas y mejorar los métodos de producción de ciertos ingredientes
alimentarios, y de otros compuestos químicos complejos, o diseñar microorganismos que limpien las aguas contaminadas.
76
El Príncipe de Asturias de Investigación
premia la lucha contra el dolor
El Premio Príncipe de Asturias de Investigación Científica y Técnica
2010 ha sido concedido a los bioquímicos estadounidenses David
Julius y Linda Watkins, y al israelí Baruch Minke por sus estudios innovadores sobre el dolor.
El jurado señaló que los galardonados «han realizado descubrimientos
que en conjunto permiten una comprensión más profunda de las bases
celulares y moleculares de las diferentes sensaciones, en especial de la
del dolor». El fallo afirma que sus investigaciones «identifican dianas
moleculares a las que dirigir una nueva generación de medicamentos
específicos para el tratamiento selectivo de diferentes tipos de dolor, especialmente del crónico». Esto abre «vías esperanzadoras» para paliar
un mal que afecta a la calidad de vida de millones de personas.
David Julius, profesor del Departamento de Fisiología de la Universidad de
California-San Francisco, está considerado como el pionero en el análisis
molecular de los nociceptores. Baruch Minke, por su parte, profesor del
Departamento de Fisiología de la Facultad de Medicina de la Universidad
Hebrea de Jerusalén, ha sido el primero en identificar «los canales trp, componentes fundamentales de los sensores biológicos, implicados en la percepción del dolor». Por último, Linda Watkins, profesora del Departamento
de Psicología y del Centro de Neurociencia de la Universidad de ColoradoBoulder, ha descubierto un nuevo agente del dolor, las células nerviosas
no neuronales, denominadas células gliales, claves en los estados de dolor
patológico y en los que se producen después de una lesión nerviosa.
Los premios Lasker distinguen la
investigación de la pérdida de visión
y la obesidad
Los premios Lasker, entregados el pasado 1 de octubre, reconocieron
el trabajo de tres científicos, uno por diseñar un tratamiento para una
causa importante de pérdida de visión y dos por sentar las bases de
considerables progresos en investigaciones sobre la obesidad.
El premio por investigación clínica fue para el doctor Napoleone Ferrara,
de 54 años, de la compañía biotécnica Genentech en San Francisco. Es
reconocido por haber descubierto una proteína llamada VEGF en 1989
y usarla para desarrollar un tratamiento que mejora significativamente
la vista de personas afectadas con una variante devastadora de degeneración macular. Dos fármacos basados en la investigación de Ferrara, Lucentis y Avastin, se usan para el tratamiento de la enfermedad al
prevenir la formación de crecimientos anormales de vasos sanguíneos
detrás de la retina.
El premio Lasker para investigación básica fue compartido por Douglas
Coleman, de 78 años, del Laboratorio Jackson en Bar Harbor, Maine, y
Jeffrey Friedman, 56, de la Universidad Rockefeller en Nueva York. Se
les reconoce por el descubrimiento de la hormona leptina, que ayuda a
regular el apetito y el peso corporal.
El premio Lasker al logro especial en investigación médica fue para el
doctor David Weatherall, de la Universidad de Oxford. Se le rinde homenaje por 50 años de «excelencia internacional en ciencias biomédicas», en
especial su investigación sobre una anemia heredada llamada talasemia.
Científicos japoneses crean un páncreas
de rata en un ratón
Un equipo de investigación japonés ha creado un páncreas de rata
dentro del cuerpo de un ratón utilizando células madre pluripotenciales
(iPSCs). El proyecto de investigación, liderado por Hiromitsu Nakauchi,
del Instituto de Ciencia Médica de la Universidad de Tokio, fue publicado en septiembre en la revista Cell.
Los investigadores crearon un óvulo fecundado de un ratón al que se
había retirado la capacidad genética para crear un pancreas. Las células
madre pluripotenciales de una rata común se inyectaron en el óvulo, que
fue entonces implantado en el útero de otro ratón.
El ratón que nació tenía una combinación de células de rata y ratón, excepto en el pancreas, que estaba compuesto exclusivamente por células
de rata. El ratón sobrevivió hasta edad adulta, y los datos reflejaron que
tenía un nivel normal de azúcar en sangre. En efecto, el páncreas que
faltaba en el óvulo había sido sustituido
por células derivadas de las iPSCs.
Es la primera vez que se utilizan iPSCs
para crear un órgano que funciona, lo
cual abre la posibilidad de generar órganos humanos procedentes de animales y
de usarlos como órganos de trasplante.
77
Actualidad Científica
Descubren una estrella 20 millones de veces
más brillante que el sol
Un equipo de astrónomos ha descubierto una estrella 20 millones de veces más brillante que el sol. Los científicos, procedentes de Gran Bretaña,
Malasia y Alemania, han realizado el descubrimiento desde el desierto de
Atacama, en el norte de Chile, usando un telescopio de gran alcance.
La nueva estrella, a la que se ha bautizado como R136a1, duplica el límite
de masa solar previamente establecido. La estrella nació con una masa
320 superior a la que tiene en estos momentos el sol.
Se espera que, al ser tan brillante, la estrela explote en unos pocos millones de años, lo que en términos cósmicos supone un espacio de tiempo
muy breve. De hecho, en los últimos 1,5 millones de años, ha perdido la
masa equivalente a 20 soles.
El Dr. Richard Parker, de la Universidad de Sheffield, en el norte de Inglaterra, y miembro del equipo de astrónomos, aseguró que los científicos
estaban investigando el proceso de formación de estrellas en busca de
pistas sobre cómo evolucionó el sol cuando encontraron la estrella.
De izquierda a derecha: El Sol, Enana Azul, R136a1
Hallan en Cuenca un gran dinosaurio que
vivió hace 125 millones de años
Científicos españoles descubrieron el pasado mes de septiembre en
Cuenca un gran dinosaurio carnívoro y con una extraña joroba. El
ejemplar, que con sus seis metros de largo era cuatro veces mayor que
un velocirráptor, vivió hace 125 millones de años y es el dinosaurio más
completo que se ha encontrado en España.
El dinosaurio ha sido bautizado científicamente Concavenator corcovatus. La joroba es un rasgo peculiar y sorprendente del concavenator,
porque no se conoce en ningún otro dinosaurio, aunque algunos de estos
animales prehistóricos tenían una estructura dorsal que podría tener una
función termorreguladora, como un radiador.
El nuevo dinosaurio, cuyo hallazgo fue publicado en la revista Nature, destaca no
solo por su novedad, su tamaño y
su excelente conservación, sino
porque aporta información inesperada sobre la historia de este tipo de
animales del Cretácico inferior.
78
Actualidad Científica
La electrónica del Grafeno, más cerca
El grafeno –una lámina bidimensional de carbono de solo un átomo de
grosor– puede ser ideal para reemplazar al silicio como material alternativo en futuros dispositivos electrónicos. Concretamente, podría ser utilizado para hacer transistores ultrarrápidos, dado que los electrones del
grafeno se comportan como partículas relativistas sin masa de reposo.
Esto significa que pueden pasar por el material a velocidades extremadamente rápidas. No obstante, lamentablemente, las técnicas de
procesado utilizadas en la tecnología del silicio no pueden ser aplicadas
al grafeno, porque causan defectos en el material, que, a la larga, deterioran el rendimiento del dispositivo. Investigadores de la Universidad
de California en Los Ángeles pueden haber superado este problema
–por lo menos para los transistores–, y han creado el transistor de grafeno de mayor velocidad que existe. Los dispositivos podrían competir
comercialmente con los transistores de silicio existentes hoy en día
en el mercado; podrían utilizarse en aplicaciones electrónicas de alta
frecuencia, como la comunicación por microondas, toma de imágenes
o la tecnología de los radares.
Xiangfeng Duan y sus colaboradores han desarrollado una nueva técnica
de fabricación que consiste en emplear nanohilos cubiertos de alúmina
como electrodo de puerta de un transistor de grafeno. Los electrodos
fuente y drenador de los dispositivos están confeccionados utilizando un
proceso de autoalineamiento que usa los nanohilos como «máscaras», un
proceso que también minimiza la resistencia en el transistor, mejorando
así su rendimiento todavía más.
De todas maneras, aún hay muchos retos que superar antes de que el
sueño de que la electrónica sea totalmente de grafeno se convierta en
realidad. Uno de ellos es el desarrollo de una técnica de fabricación que
produzca dispositivos prácticamente sin defectos, algo que de momento
nunca se ha conseguido.
Duan y sus colaboradores, en cambio, han utilizado un nanohilo con núcleo
de siliciuro de cobalto y envoltura de alúmina como compuerta superior en
su transistor de grafeno. Esta estructura dieléctrica se confecciona aparte
y, después, simplemente se coloca sobre una monocapa de grafeno. Tal
propuesta no crea ningún defecto apreciable en el material, apunta Duan.
El dispositivo final tiene el mayor valor de transconductancia nunca registrado para este tipo de dispositivos, 1.27 mSµm– 1. La transconductancia
de un transistor indica la bondad de su funcionamiento. Las medidas de
microondas en los transistores también muestran que tienen una frecuencia de corte intrínseca inigualada en el rango de 100–300 GHz, que es
alrededor de dos veces más rápida que la de los mejores mosfets de silicio
de tamaño similar. Por último, la movilidad de los dispositivos (la que
determina la velocidad a la
que los electrones se mueven
a través de ellos) es de aproximadamente 20.000 cm 2/Vs,
un valor que es alrededor de
dos órdenes de magnitud mejor que el de los transistores
de silicio comercializados de
tamaño similar.
El trabajo ha sido publicado
en Nature.
Premio Nobel de Medicina
para el pionero de la fecundación in vitro
El Premio Nobel de Medicina y Fisiología 2010 ha sido otorgado al científico británico Robert Edwards, pionero de la fecundación in vitro, más
de 30 años después del nacimiento del primer bebé probeta.
El profesor Edwards, de 85 años, fue recompensado porque «sus descubrimientos hicieron posible el tratamiento de la esterilidad que afecta a
una gran proporción de la humanidad y a más del 10% de las parejas en
el mundo», según explicó el Comité Nobel. Cerca de cuatro millones de
niños han nacido gracias a la fecundación in vitro. El proceso aplicado
por el profesor Edwards consiste en fertilizar un óvulo en laboratorio y
dejar que el embrión empiece a desarrollarse antes de implantarlo en el
útero de una madre portadora, donde se desarrolla normalmente.
Por su parte, Andre Geim y Konstantin Novoselov, científicos de la Universidad de Manchester (Reino Unido), han sido distinguidos este año con el
Premio Nobel de Física «por sus experimentos fundamentales sobre el material bidimensional grafeno». Ambos han demostrado que el carbono en
lámina plana tiene propiedades extraordinarias originadas en el mundo de
la física cuántica. El grafeno es un nuevo material, extremadamente delgado
y resistente que, como conductor de la electricidad, se comporta como el
cobre, y como conductor de calor, supera a cualquier otro material conocido.
Finalmente, el investigador estadounidense Richard Heck y los japoneses
Ei-ichi Negishi y Akira Suzuki compartirán el Premio Nobel de Química
2010 por sus trabajos sobre las reacciones carbono-carbono. Los tres han
desarrollado por separado reacciones químicas distintas que emplean
catalizadores de paladio para crear enlaces de carbono-carbono mediante
emparejamientos cruzados.
Akira Suzuki.
Foto: Hokkaido University
Prof. Robert Edwards. Foto: Bourn Hall
Richard F. Heck.
Foto: University of Delaware
Andre Geim. Foto: Sergeom,
Konstantin Novoselov.
Ei-ichi Negishi.
Wikimedia Commons
Foto: University of Manchester
Foto: Pordue University
Una nueva perspectiva en el campo
de los biosensores
La sensibilidad de los biosensores basados en cristales plasmónicos
(sustratos metálicos nanoestructurados periódicamente en dos dimensiones) podría mejorarse ajustando un parámetro poco estudiado: el ángulo de luz que excita a los plasmones superficiales de los
cristales. Esto es lo que dicen investigadores de la Universidad del
Noroeste de Illinois que han fabricado, partiendo de cristales plasmónicos, sensores basados en patrones reticulares y que son ahora
más sensibles a las proteínas que deben detectar. Tales dispositivos
podrían ser utilizados en aplicaciones biomédicas como análisis de
drogas y vigilancia ambiental.
Solamente ciertas longitudes de onda de luz pueden ser reflejadas desde cristales plasmónicos o transmitidas a través de ellos, debido a la
periodicidad de la retícula de estos materiales. La plasmónica es una
nueva rama de la fotónica que se vale de los polaritones de los plasmones
superficiales, polaritones que surgen de la interacción de la luz con los
electrones que oscilan en la superficie de un metal.
El campo de los biosensores basados en la resonancia de los plasmones superficiales es un camino aún no balizado para detectar moléculas
químicas y biológicas en tiempo real, gracias a técnicas avanzadas de
espectroscopía. La mayor parte del trabajo realizado hasta ahora se ha
centrado en reducir los costos de la nanofabricación y en incrementar
la sensibilidad de detección para así mejorar el rendimiento de los biosensores. «Nuestro artículo supone avances en ambos frentes» dice el
jefe del equipo Teri Odom.
El trabajo ha sido publicado en Nano Letters.
Fabricación de cristales plasmónicos moldeados
79
Científicos ilustres - Edwin G. Krebs
Científicos ilustres
confundirlo con el descubridor del ciclo: «Debo confesar que no corregí
su falsa impresión. Estaba tan inseguro de mi estatus que me complacía
ser tratado con tanta deferencia, aunque fuera por la razón errónea».
Esta confusión le acompañó incluso hasta después de recibir el Nobel de
Medicina en 1992: «Una de las cosas que me pasó por la cabeza cuando
el premio, fue que ya no tendría que contestar más preguntas sobre el
ciclo, pero la gente todavía me felicitaba porque mi ciclo había sido por
fin reconocido −y pensaba que había sido necesario esperar hasta 1992
para que esto ocurriera». Con el fin de contribuir a deshacer este entuerto
puede ser apropiado tratar de resumir la singular obra de Edwin Krebs,
tomando su conferencia Nobel como guía.
Hablemos de Edwin G. Krebs
Francisco García Olmedo, Real Academia de Ingeniería.
Un problema de identidad
Resulta particularmente oportuno hablar del bioquímico Edwin G.
Krebs, no solo por su reciente fallecimiento el 21 de diciembre de 2009
sino, también de modo especial, por el hecho de que su importante
obra ha padecido con frecuencia un problema de identidad, problema
originado por la circunstancia de que el apellido Krebs lo ostentan
al menos tres famosos biólogos: aparte de Edwin, el mítico Hans A.
Krebs (1900-1981), judío alemán devenido ciudadano inglés, premio
Nobel de Medicina por los descubrimientos del ciclo de la urea y del
ciclo del ácido cítrico, conocido como ciclo de Krebs, y su hijo John R.
Krebs (1945-), Lord vitalicio y destacado zoólogo, coautor con Richard
Dawkins de importantes trabajos sobre comportamiento animal. Con
Francisco García Olmedo Real Academia de Ingeniería.
80
este último Krebs coincidí hacia 1954 en el City of Oxford High School,
donde nos había precedido nada menos que Lawrence de Arabia.
Hace medio siglo, uno de los capítulos centrales de los textos de introducción a la Bioquímica se titulaba «Ciclo de Krebs» y, que yo recuerde, éste era el único en cuyo encabezamiento aparecía el nombre de un
científico. En aquellos tiempos de subdesarrollo, muchos estudiantes
españoles teníamos la sensación de que las materias de nuestro interés habían sido desarrolladas por sabios extranjeros ya fallecidos. Por
esta razón, cuando por fin conocí a Krebs en un congreso de la Sociedad
Española de Bioquímica, me produjo el efecto de que estaba ante una
aparición del remoto pasado, impresión no tan descabellada si se tiene
en cuenta que las principales contribuciones científicas de aquel casi
octogenario profesor de Oxford habían sido hechas antes de la Segunda
Guerra Mundial, cuando todavía era un treintañero científico alemán.
Según ha contado el propio Edwin, la sombra del famoso ciclo que lleva
su apellido, aunque no su nombre, le persiguió durante toda su carrera. Así por ejemplo, recién llegado a la Universidad de Washington en
Seattle, el chairman de un departamento clínico incurrió en el error de
Una aportación fundacional
En 1940, cuando Edwin inició sus estudios en la facultad de Medicina
de la Washington University en St. Louis, ya se había establecido que la
degradación del glucógeno en el músculo esquelético y en otros tipos de
células ocurre por fosforolisis, catalizada por la enzima fosforilasa. En
ese tiempo y en dicha facultad, Arda Green y el matrimonio Carl y Gerty
Cori estaban purificando la fosforilasa de músculo de conejo y habían
observado que la enzima podía existir en dos formas, α y b, que eran
interconvertibles. Krebs tuvo oportunidad de familiarizarse con dichas
investigaciones durante sus años de estudiante, pero no se incorporaría
a ellas hasta más tarde. De hecho, su intención era dedicarse a la clínica
y, recién graduado, en los meses finales de la Segunda Guerra Mundial, se
alistó como médico en la Marina. Son muy numerosos los médicos que,
en el camino hacia una carrera clínica, han ido quedando atrapados de
forma irreversible por la investigación básica. Éste fue el caso de Edwin,
quien al desmobilizarse no encontró sitio en St. Louis para hacer el internado y decidió seguir la recomendación de enrolarse temporalmente
en la investigación básica. Entró en el laboratorio de los Cori y quedó
seducido para siempre por lo que sería el trabajo de su vida.
La forma α de la enzima había sido eventualmente purificada y obtenida
en forma cristalina, un hito para la época, y pudo comprobarse que era
activa sin el concurso de cofactor alguno, mientras que la forma b era
inactiva, excepto en presencia de concentraciones de adenosín monofosfato cíclico (5´-ampc) muy por encima de las fisiológicas. Aunque las dos
formas de la enzima eran interconvertibles, se estaba muy lejos de entender el mecanismo subyacente y, mucho menos, su significado biológico.
Tras dos años en el laboratorio de los Cori, en 1948 Edwin recibió la oferta
de un puesto en la Universidad de Washington en Seattle, ciudad que le
había subyugado cuando la visitó en su etapa de médico naval, y lo aceptó
sin dudarlo. En este entorno pasaría el resto de su vida, excepto por un
periodo en que fue chairman-fundador del Departamento de Química
Biológica de la Universidad de California, en Davis. Cinco años más tarde
se uniría al departamento Edmond H. Fischer, quien había trabajado en
la fosforilasa de patata, y decidieron unir sus esfuerzos para dilucidar
el secreto de la interconversión. Su asociación en los primeros años fue
tan intensa que, si uno se ausentaba para dar una conferencia, el otro
llevaba a cabo los experimentos del ausente. De hecho, en los círculos de
la especialidad se les conocía por «los dos Eds», Edwin y Edmond. Por la
misma época, Earl Sutherland, descubridor del 5´-ampc, segundo mensajero de la acción hormonal, estaba investigando sobre la implicación
de este compuesto en la formación de la fosforilasa α de hígado.
Buscando en vano el papel del 5´-ampc en la activación de la forma b,
Krebs y Fischer dieron con un mecanismo cuya generalidad e importancia
no pudieron ni imaginar, la fosforilación reversible de proteínas. Dicho
mecanismo consiste en esencia en que una proteína puede recibir un
grupo fosfato del adenosin trifosfato (atp), reacción que es catalizada
por una enzima proteína quinasa. La proteína fosforilada sufre en consecuencia cambios estructurales y funcionales, tales como, en el caso de la
fosforilasa, pasar de una forma inactiva a otra activa. En sentido inverso,
una enzima proteína-fosfatasa puede liberar el fosfato de la proteína,
devolviéndola a su estado inicial, inactivo, en el ejemplo de la fosforilasa. En otras palabras, el mecanismo de la fosforilación reversible de
proteínas tendría un papel similar al de un interruptor-conmutador en
una instalación eléctrica.
En una fase inicial se vio que este sistema de conmutación funcionaba
en algunas enzimas relacionadas con el metabolismo del glucógeno. Se
había demostrado inicialmente que operaba en la glucógeno fosforilasa
y en la fosforilasa quinasa, y pronto se vio que también afectaba a la
glucógeno sintasa. El trabajo sobre esta última enzima fue desarrollado
en los años sesenta por Joseph Larner y sus discípulos, algunos tan destacados como C. Villar-Palasí y M. Rosell Pérez. En los años 1965 y 1966
tuve oportunidad de frecuentar el laboratorio de Larner y Villar-Palasí
en la Universidad de Minnesota y de asistir a algunos de los seminarios
que ellos impartieron sobre sus investigaciones: no cabía duda de la importancia y novedad del trabajo que llevaban a cabo, pero nada hacía
barruntar la extraordinaria relevancia que ha alcanzado la fosforilación
reversible en los procesos biológicos.
En contraste con las dos primeras enzimas, la glucógeno sintasa perdía
actividad al fosforilarse, lo que sugería que la fosforilación actuaba cambiando el repertorio de enzimas activas en una coyuntura dada, activando
unas y inactivando otras. Durante la primera década de estas investigaciones, este mecanismo regulador parecía restringido al metabolismo del
glucógeno, pero el descubrimiento por Kuo y Greengard de una proteína
quinasa dependiente de 5 ´-ampc, que era multifuncional, abrió el camino
para explorar la verdadera importancia y generalidad de la fosforilación
reversible en la fisiología de los seres vivos. Poco después se descubrió que
una enzima ajena al ámbito del glucógeno, la piruvato deshidrogenasa,
también se regulaba por fosforilación y, hacia finales de los años setenta,
eran más de cincuenta las enzimas en las que se había comprobado dicho
mecanismo, esto sin contar una infinidad de proteínas no enzimáticas
para las que también era relevante.
→
81
Científicos ilustres - Edwin G. Krebs
Un mecanismo ubicuo
Krebs y Fischer recibieron el premio Nobel de Medicina en 1992 por un
descubrimiento concreto y simple. Excelentes experimentadores, no eran
ellos propensos a grandes planteamientos teóricos sino que, en cada
paso, seguían su instinto hasta el siguiente paso. Sin embargo, lo mismo
que el invento del transistor condujo a una pléyade de inventos cada vez
más complejos que se basan en él, el descubrimiento de la fosforilación
reversible llevó a una interminable nómina de mecanismos reguladores
cada vez más complejos que se basan en ella. Entre los primeros en ponerse de manifiesto cabe señalar la amplificación de señal en cascada y
la transmisión de señales extracelulares.
La actividad catalítica de una enzima implica que una molécula de ella es
capaz de procesar a producto un elevado número de moléculas de sustrato;
si el sustrato es la forma inactiva de una segunda enzima y el producto, la
activa, unas pocas moléculas de la primera enzima generarán una infinidad
de moléculas activas de la segunda; si la segunda es a su vez capaz de
activar a una tercera enzima, tenemos lo que denominamos coloquialmente una cascada de amplificación, cada salto de la cascada supone una
multiplicación del efecto. En otras palabras, la cascada es un mecanismo
que permite que unas pocas moléculas desencadenen una activación
enzimática a gran escala. Si por ejemplo, hemos de salir corriendo en
una emergencia, nuestros músculos necesitan liberar deprisa glucosafosfato a partir del glucógeno que se almacena en nuestros músculos
con el fin de extraer la energía necesaria para la acción mecánica: dicha
liberación está catalizada por la fosforilasa y la fosforilasa es activada
masivamente por un mecanismo en cascada. La señal que dispara dicha
cascada es extracelular y debe ser transmitida al interior de la célula. En
el caso del músculo, la señal extracelular es la adrenalina que, al unirse
a su receptor en la membrana, activa una ciclasa acoplada que convierte
el atp en 5´-ampc; este último activa una proteína quinasa, que a su vez
activa una fosforilasa quinasa que a su vez activa la fosforilasa que liberará
glucosa-fosfato a partir del glucógeno.
Signal in
Inactive
Enzyme
Protein
kinase
APP
P
OFF
ON
APP
Active
Enzyme
P
Signal Out
82
Pi
Protein
Phosphatase
La activación (o la inactivación) de enzimas y proteínas no enzimáticas
por sustitución reversible con fosfato regula toda suerte de funciones
celulares, incluido el tráfico metabólico, de una forma no muy distinta
a como una red de semáforos rigen el tráfico de una ciudad, abriendo y
cerrando vías de una forma coordinada. Estamos pues ante un elemento
esencial para la vida, que subyace tanto a procesos normales como a
patológicos: el ciclo celular, el desarrollo de los organismos, el cáncer,
la función neurológica y las señales cerebrales, la presión sanguínea,
la inflamación o la respuesta de las plantas a sus patógenos son solo
algunos de los procesos en los que está involucrada la fosforilación
reversible. Como se puede constatar, aguas abajo de las pioneras investigaciones de Krebs y Fischer se fue ensanchando un verdadero amazonas
de nuevo conocimiento.
Una aventura interior
En contraste con su excepcional trayectoria científica, con su aventura
interior, los signos externos de su vida son los de un sano americano medio de vida prosaica. Aunque nació en Lansing, Iowa (1918), consideraría
como su ciudad a Greenville, Illinois, un pueblo de entorno agradable y
buen sistema educativo al que, tras varios traslados, fue a servir su padre
como ministro presbiteriano. Nada hay reseñable de su etapa escolar,
salvo que fue un buen estudiante que no mostró particular inclinación
por la biología o la química y que no tenía ninguna afición especial. El
temprano fallecimiento de su padre significó una cierta estrechez económica que debió servirle de acicate en sus estudios. Se inclinó por la medicina, más por su utilidad práctica que como ámbito de conocimiento.
Como ya indicamos, su vocación y aptitud para la ciencia básica fue un
descubrimiento tardío y su desembarco en el laboratorio de los Cori se
debió más al azar que a la astucia. Debió tener excelentes condiciones
para el liderazgo que ejerció a partir de los cincuenta años, como chairman de departamento, primero en Davis (California) y luego en Seattle
(Washington). En el ensayo autobiográfico que publicó como parte del
ritual del premio Nobel, no dejó traslucir ninguna afición especial por
la literatura, las artes plásticas o la música. Que no ambicionaba la riqueza quedó patente por el hecho de que tardó tres días en preguntar
a cuánto ascendía el citado premio y, cuando lo averiguó, por la forma
en que lo gastó: «Ed (Fischer) y yo invitamos a nuestras familias ampliadas y pagamos el viaje a los que lo necesitaban». Ambos donaron la
mayor parte del dinero a instituciones educativas, médicas y artísticas,
e incluso un poco a sus respectivos departamentos. «Fácil viene, fácil se
va», comentaría Edwin.
www.cicnetwork.es
Descargar