nº8 Noviembre 2010 Revista semestral de la Asociación Red de Centros de Investigación Cooperativa del País Vasco Roger Burnett La ciencia a medida Mesa de Ideas sobre la importancia de la medición en la actividad científica, con Eudald Carbonell, Aurkene Alzua y Enrique Zuazua. Modera: Iñaki Letona. Proyectos de Investigación Investigación y Cáncer Artículos del Dr. Carlos López Otín (iuopa, Universidad de Oviedo) y de los Dres. Josep Llovet y Augusto Villanueva (idibaps, Hospital Clínic) ENTORNO CIC Entrevista con el experto británico en biología estructural Contenidos Editorial 04 Diálogos Científicos 06 EN PORTADA: Células de cáncer de próstata. Imagen coloreada tomada con micrografía de barrido electrónico. «La antesala de los nuevos materiales para la energía», por Jesús María Goiri. Nicola G.A. Abrescia, investigador de cic biogune, entrevista a Roger Burnett, científico británico de referencia internacional en el ámbito de la biología estructural y pionero en el área de la virología estructural. Divulgación 14 El biólogo y divulgador Eduardo Angulo y el matemático Raúl Ibáñez reflexionan sobre el valor de la divulgación científica. Investigación hoy 22 Una doble mirada sobre la investigación en cáncer, desde la visión clínica (Josep Llovet y Augusto Villanueva) y desde la investigación básica (Carlos López Otin). Entorno cic 35 Científicos ilustres 80 Mesa de Ideas sobre la importancia de la medición en la actividad científica, con Eudald Carbonell (Atapuerca), Aurkene Alzua (cic tourgune) y Enrique Zuazua (bcam). Modera: Iñaki Letona. El Prof. Francisco García Olmedo recuerda al recientemente fallecido Edwin Krebs, bioquímico de referencia internacional. consejo editorial Editorial Aurkene Alzua Eduardo Anitua Pedro Miguel Etxenike Manuel Fuentes Jesús María Goiri Félix M. Goñi Joseba Jaureguizar Xabier de Maidagan Manuel Martín-Lomas José María Pitarke Ana Zubiaga director José M Mato colaboran Raul Ibáñez Eduardo Angulo Josep Llovet y Augusto Villanueva Carlos López Otin Francisco García Olmedo ESS-Bilbao cic microgune Alex Bittner (cic nanogune) redacción y coordinación La antesala de los nuevos materiales para la energía La adquisición de tecnologías por parte de la humanidad es un proceso complejo e impredecible. Así, desde el punto de vista de la energía, nuestro modo de suministro todavía nos conecta de manera directa con la era del vapor. El genio de Faraday y Maxwell, entre otros, abrieron el electromagnetismo para permitir la gran revolución de la electricidad a caballo de la cual disponemos de un confort que tomamos como habitual y de aparatos inconcebibles, del dominio de la ciencia ficción hace solo cincuenta años. Sin embargo, esa conexión con el vapor nos ubica en los mismos principios limitantes descritos por Sadi Carnot en los albores de la Revolución Industrial. Además, la electricidad continúa con esa dependencia al utilizar los ciclos termodinámicos como base para su producción. En cierto modo, estamos entre la Revolución Industrial de principios del siglo xix y las promesas de la nueva física de la última mitad del s. xx y la primera década del s. xxi. Jesús M. Goiri es director general de CIC energiGUNE. De la era de las válvulas electrónicas pasamos, merced al descubrimiento de un material nuevo, el transistor, a un cambio mayor en la historia que nos provee acceso ubicuo a la comunicación y a la información. El cambio producido se origina en la nueva física, cuyo desarrollo actual posibilita un conocimiento de la materia casi tan detallado como queramos. Aunque lo prudente es no predecir, podemos estar en la antesala de la creación de nuevos materiales que, de modo similar al transistor que posibilitó la era digital, remodelen la energía alejándola de la combustión para centrarla en la conversión directa con énfasis de aplicación en las energía renovables y en la eficiencia. Los viejos conocidos fenómenos del mundo físico de conversión directa entre energías, tales como: fotoelectricidad, termoelectricidad, piezoelectricidad, piroelectricidad, aleaciones con memoria de forma, fotocatálisis, electroquímica, entre otros, constituirán nuevos modos que, merced al imparable conocimiento de la materia desde lo cuántico, producirán los materiales necesarios para lograr una nueva era de la humanidad. Por tanto, se puede barruntar que los logros de la energía en el futuro no se basarán únicamente en nuevos descubrimientos de yacimientos de Guk Estrategias de Comunicación diseño y maquetación Nu Comunicación reportaje fotográfico Xabier Aramburu edita carbono sino en nuestra habilidad de crear nuevos materiales para la energía. Es en esa línea donde deberemos centrar nuestros esfuerzos de investigación, aunque sin abandonar el perfeccionamiento de lo tradicional, que ahora nos rodea. Con cierto optimismo se puede decir que desde la edad del hierro, en cierto modo la que vivimos en la actualidad, una nueva era de los materiales para la energía nos ha de conducir por derroteros sostenibles, pues ahora lo crucial en nuestro planeta es satisfacer las necesidades de más de 6.500 millones personas y, al mismo tiempo, mantener la viabilidad de la biosfera con su diversidad de especies. En ese sentido todo indica que, para ello, es clave que cambie radicalmente nuestra forma de suministro y de consumo energético. Se precisan cuatro movimientos: escapar de los combustibles fósiles; saber explotar las energías renovables, adquirir sabiduría para utilizar lo nuclear y establecer nuestras costumbres de vida alrededor de conceptos éticos y de convivencia más responsables. Los resultados de una bien meditada investigación básica, orientada en la Ciencia de los Materiales para la energía, deberán de contribuir a que la humanidad tenga una estancia más placentera en este desconcertante lugar en el que nos encontramos todos. cic Network Asoc. Red de Centros de Investigación Cooperativa del País Vasco Parque Tecnológico de Bizkaia, Ed. 800 48160 Derio (Bizkaia) info@cicnetwork.es traducciones Elhuyar Fundazioa reserva publicidad publicidad@cicnetwork.es +34 943 32 69 66 depósito legal ss-1228-2006 Esta revista no se hace responsable de las opiniones emitidas por sus colaboradores. Queda prohibida la reproducción total o parcial de los textos y elementos gráficos aquí publicados. Diálogos científicos “Me fascina el Microscopio Electrónico por su gran potencial” Roger Burnett, pionero en virología estructural, entrevistado por Nicola G.A. Abrescia. Roger Burnett es un científico reconocido internacionalmente en el ámbito de la biología estructural, por sus aportaciones científicas con estructuras moleculares de virus y de proteinas virales, especialmente de adenovirus. Actualmente es profesor emérito en el Wistar Institute de Filadelfia (ee.uu.) y miembro del Scientific Advisory Board de cic biogune. El pasado mes de junio visitó este centro de investigación con motivo de su 5º aniversario y tuvimos la ocasión de mantener una interesante entrevista con él. ¿Cuándo surgió su interés por los virus? Eso fue cuando era estudiante de postgrado, en el laboratorio de Michael Rossmann. Después de licenciarme en física, pensé que dedicarme a la física no era lo más acertado, porque aunque pudiese abrirme paso en el campo de las matemáticas no era algo que conseguiría de inmediato y además odiaba la electrónica; y claro, ésa no era la mejor combinación para ser físico. Incluso pensé en dar marcha atrás, estudiar medicina y convertirme en médico, ya que me interesaba la biología. Pero en la Inglaterra de aquél tiempo Roger Burnett, es profesor emérito en el Wistar Institute of Filadelfia. Anteriormente fue Profesor de Inmunología, Química en dicha universidad, y Profesor de Bioquímica y Biofísica en la Universidad de Pensilvania. Es miembro del Advisory Board de cic biogune. Nicola G.A. Abrescia es investigador principal de la Unidad de Biología Estructural de cic biogune e Ikerbasque Research Professor. era muy difícil cambiar de dirección y nunca obtuve titulación alguna en biología. Entonces, por casualidad, me llegó una carta de Michael Rossmann, que acababa de trasladarse del laboratorio de biología molecular del mrc (Cambridge, Inglaterra) a la universidad de Purdue (medio oeste de ee.uu.) para poner en marcha su laboratorio. Esto ocurrió en 1964, cuando la mayoría de los europeos jamás habían estado en ee.uu. Solo conocíamos ee.uu. por las películas. Así que yo era un joven entusiasmado con la idea de acudir a ee.uu. para trabajar en un departamento de biología. Sabía que cualquier licenciado puede recibir formación en ee.uu. y que así podría estudiar biología y realizar investigaciones en cristalografía. Debo confesar que inicialmente no tenía especial interés en la cristalografía. Es más, no tenía ni idea acerca de la cristalografía. Ahora parecerá imposible, pero en aquella época aún no había visto ningún ordenador. Era 1964 y los ordenadores no eran muy comunes; y menos aún entre quienes no eran licenciados. Así → 7 Diálogos científicos - Roger Burnett que embarqué en el Queen Elizabeth original con destino a ee.uu., tomé un autobús de la Greyhound que habría de llevarme desde Nueva York a Lafayette Oeste (Indiana), y me pasé los primeros seis meses sintiéndome como dentro de una película, porque todo me parecía extraño y exótico. Michael Rossmann vino a buscarme a la estación de autobuses y enseguida me llevó a un cuarto oscuro, para enseñarme sus más recientes fotografías de difracción. Resultó que estaba muy interesado en los virus... Bueno, creo que, en realidad, no le entusiasmaban los virus como tales, sino poder desarrollar métodos. Existe un método denominado Método de Reemplazo Molecular. Él estaba muy interesado en los virus, porque constan de múltiples copias de la misma proteína en la misma estructura; los consideraba un buen modelo o banco de pruebas para testar sus métodos. Eran métodos en los que se podía hacer uso del reemplazamiento molecular. Así pues, él disponía de un pequeño programa [de virus]. De hecho, fui la 8 Diálogos científicos - Roger Burnett “Debo confesar que inicialmente no tenía especial interés en la cristalografía. Es más, no tenía ni idea acerca de la cristalografía” primera persona a la que convenció para que tratase de cristalizar virus. Y así fue, conseguí pequeños cristales de virus. ¿De qué virus se trataba? No lo recuerdo exactamente, pero diría que era el virus del mosaico del pepino (cucumber mosaic virus). De alguna manera, tuve suerte de que los cristales no fueran de gran tamaño, porque de lo contrario probablemente aún seguiría con el doctorado de física en Lafayette Oeste, así que me dediqué a otra cosa. Esto era una especie de introducción para explicar que se pueden estudiar los virus mediante la cristalografía. Pero en aquella época era prácticamente imposible pensar en obtener la estructura de los virus. Creo que por aquél entonces Stephen Harrison (en Harvard University) era la única persona que intentaba seriamente obtener la estructura de los virus. Después realicé un trabajo de postdoctorado acerca de la flavoproteína, una pequeña molécula, que sorprendentemente creo que es la octava o novena de las estructuras registradas en la base de datos (Protein Data Bank). Era 1973 y yo trataba de trabajar como docente universitario, pero la ciencia en ee.uu., y puede que en cualquier otro lugar, se comporta de forma cíclica en lo que a financiación se refiere, y aquel era un periodo de vacas flacas. Así que era imposible establecer un laboratorio en ee.uu., porque la cristalografía estaba considerada como algo exótico y caro, exigía un completo equipamiento y gran capacidad informática; todo ello era muy caro. Por lo que decidí preguntarle a Steve Harrison, a quien conocía personalmente, si sabía de alguna vacante en Europa. Él me respondió: «Pues un investigador del Biozentrum de Basilea ha cristalizado el recubrimiento proteico del adenovirus y creo que busca un cristalógrafo». Escribí al Biozentrum (a Richard Franklin) preguntando si tenían alguna vacante que pudiera ocupar. Poco después recibí su respuesta; una oferta de trabajo. Y me trasladé a Suiza. Fue una época realmente interesante. De hecho, visitando estas instalaciones de cic biogune no puedo evitar realizar comparaciones con lo que era el Biozentrum de aquellos días, y es que entonces el Biozentrum era un lugar relativamente nuevo; fue inaugurado unos cuatro años antes de que yo llegase. Algo parecido a lo que ocurre aquí. El sistema universitario suizo estableció el instituto de Basilea como un instituto independiente dirigido a atraer a investigadores de todo el mundo y crear un centro de excelencia. Quedaba fuera de los habituales requerimientos burocráticos provenientes tanto de la estructura universitaria como de la administración pública. Era apasionante vivir allí, y contaba con una potente financiación y un completo equipamiento, características que también se dan aquí. Vaya, ha sido una larga respuesta a su pregunta. Usted nació en el Reino Unido y se trasladó a ee.uu. ¿Por qué no regresó al Reino Unido? En aquella época el Reino Unido era la cuna de la cristalografía. Cada vez que he cambiado de trabajo, incluso recientemente, casi al final de mi carrera, he buscando vacantes en Inglaterra, pero nunca había algo que fuese interesante o estuviese disponible. Además, también pienso que cuando creces en un lugar desarrollas anticuerpos contra ese sitio. Y aunque vivir en casa resulta cómodo, también es confortable vivir fuera del país natal, porque careces de esa clase de barreras. grandes. En otras palabras, definiendo la estructura de una pieza es posible desarrollar un modelo que describa todo el conjunto. Que en definitiva, es lo que ha funcionado. Sí, y resulta curioso porque actualmente el Reino Unido guía la actividad científica en Europa. El Reino Unido es el único país que puede hacer sombra a ee.uu., quizás también Alemania. Así que cualquier investigador desea desplazarse al Reino Unido o bien a ee. uu. Recientemente se ha desvelado la estructura de adenovirus por cristalografía de rayos-x y me decía usted que existe también una reconstrucción de adenovirus por cryo-microscopía electrónica a una resolución de 3.6 Å.... ¿Cómo le hace sentir después de haber dedicado toda su carrera al estudio del adenovirus? Durante mi estancia en el Biozentrum, nuestros recursos eran muy superiores a los que disponía ee.uu., y para alguien joven, que procedía del sistema europeo, licenciado y postdoctorado, todo aquello era perfecto. Era un gran lugar para emprender un proyecto. Y fue allí, en Suiza, donde comenzó a trabajar con adenovirus; virus en los que ha centrado prácticamente todas sus investigaciones. Así es. “Visitando estas instalaciones de cic biogune no puedo evitar realizar comparaciones con lo que era el Biozentrum de Basilea” Es muy interesante, porque llevando tres años jubilado, creo que tengo cierta perspectiva. Creo que de haber conocido dichas noticias durante mis años de investigador... en fin, quiero pensar que habría sabido ser generoso, pero seguramente hubiera sentido envidia o irritación... No sé cómo me lo habría tomado entonces, pero me complace mucho haber conocido la noticia. Creo que la cristalografía supuso un avance semejante en su día, pero lo que más me fascina es el microscopio electrónico; un gran avance por todo lo que pone a nuestro alcance. De hecho, las dos estructuras de adenovirus se han producido este mismo año 2010. Es una conjunción positiva. Como bien sabe, fuimos pioneros en combinar microscopia electrónica y cristalografía, que actualmente son las técnicas preponderantes. Hoy en día, solo falta la imagen de un virus obtenida a través de resonancia magnética nuclear.... Dr. Burnett, el adenovirus se ha revelado como una herramienta enormemente práctica. Usted –junto con Dennis Bamford y Dave Stuart– originó una especie de revolución en cuanto a cómo clasificamos los virus. Sí. Transformó muchos conceptos; los virus se convirtieron en tema de interés público. Los científicos han clasificado los virus según su morfología general, su tipo de genoma y demás, al menos hasta 2002. Entonces, usted, Dave Stuart y Dennis Bamford, propusieron que tal vez los virus deban clasificarse en base a un criterio diferente: la semejanza estructural entre las proteínas víricas esenciales que forman los virus, por ejemplo las referentes a la cápsida. Esto implica la idea de lineajes virales. ¿Significa esto que los virus que infectan las bacterias y aquellos que infectan a los humanos podrían seguir estrategias similares en la morfogénesis? Es una idea revolucionaria... → ¿Qué los hace tan fascinantes? Se sabía muy poco acerca de los virus. Si nos fijamos en el recubrimiento proteico de un virus, y algo que sale de lo común en adenovirus es que cuando el virus infecta la célula se produce una gran cantidad excedente de proteínas estructurales. Un investigador puede obtener esas proteínas y cristalizarlas, y después definir su estructura. Hallar la estructura completa de un virus era algo impensable en aquellos años, porque la cryo-microscopía electrónica todavía no había echado a andar. Era demasiado para la cristalografía, y el hecho de que el virus disponga de largas fibras lo complicaba todo aún más, ya que dificultan la cristalización. Había que tratar de resolver el problema poco a poco, primero debía aislarse el recubrimiento proteico (la proteina de la cápsida) y después tratar de avanzar hacia un mayor nivel de ensamblaje. Podría decirse que era un modelo con dos utilidades: de un lado obteníamos indicios acerca de la formación del virus y de cómo se producía el autoensamblaje; y por otro, podía darnos una vía, general en todo caso, para abordar estructuras macromoleculares más 9 Diálogos científicos - Roger Burnett Diálogos científicos - Roger Burnett ¿Qué deberíamos obtener centrando la investigación sobre los virus en sus estructuras? Más que suponer una revolución, unifica criterios. Anteriormente no había criterios. Se establecían clasificaciones mediante familias de virus, pero sin saber cómo se relacionaban. Así que, lo que se hizo fue definir, o desvelar, esas relaciones. Una vez que las relaciones entre virus han sido descubiertas, se simplifica la manera de verlos y permiten la investigación en nuevos campos. Si uno sabe que ciertos virus tienen algún tipo de relación y descubre algo referente a uno de ellos, puede que también lo halle en el virus relacionado. Con lo que surgen posibilidades, por ejemplo, terapéuticas. Sería posible hallar un compuesto antiviral que interfiriese en el ensamblaje de esa familia de virus, y uno podría aplicarlo a dicho virus. Así que es algo realmente útil. “La cristalografía supuso un avance semejante en su día, pero lo que más me fascina es el microscopio electrónico; un gran avance por todo lo que pone a nuestro alcance” Este punto de vista unificador es muy interesante. Los físicos siempre han buscado leyes unificadoras en la naturaleza. Puede que ése sea el motivo... En realidad, la idea parte de cuando investigábamos la estructura del recubrimiento proteico (hexon de adenovirus), incluso antes de obtener estructura molecular alguna, ya que observamos que en las muestras obtenidas en baja resolución la molécula era cuasi-hexagonal. Tuvimos que esforzarnos mucho y recurrir a la tinción negativa de imágenes de fragmentos de cápsida, para descubrir la organización del virus. Al mismo tiempo, Nick Wringley obtuvo mediante un microscopio electrónico bellas imágenes de grandes virus, como el virus iridiscente de tipula, que cuenta con múltiples copias proteicas, y pudimos observar que la estructura cuasi-hexagonal del hexon acogía un conjunto de empaquetamientos de aspecto hexagonal, y que la molécula no requería de condiciones ambientales diferentes para poder formar un virus de gran tamaño. Un virus tan grande como se quisiera solo requeriría cinco formas de empaquetamiento diferentes. Antes de que advirtiésemos que la esencia de los virus se ha10 lla en su dominio proteico, nos dimos cuenta de que las capas exteriores tenían gran capacidad para acoger formas complejas o formas de gran tamaño de cualquier tipo. De alguna manera, eran formas simples. Ha dicho simples... pero si examino el pdb (banco de datos sobre las proteínas) y comparo las estructuras víricas registradas con las estructuras proteicas o incluso con las estructuras de proteinas de membranas, veo que no hay gran número. Pocos investigadores se centran en la estructura de los virus, y me pregunto cuáles son las limitaciones, por qué no hay más grupos de investigación dedicados al análisis de virus desde la estructura. No lo sé. Puede que haya muchos investigadores interesados, y sé que hay mucho dinero disponible para correlacionar proteínas con enfermedades; y es que la estructura de una proteína que permite abordar cuestiones referentes a enfermedades, una mutación en una encima, por ejemplo, puede ser causa de enfermedad. Pero no creo que la influencia del virus sea tan clara, porque la mayor parte de lo que se puede tratar con un virus, esto es, con la estructura de un virus, no explica per se cuál es la relación entre ese virus y la enfermedad que causa. Puede que ésa sea una de las razones. Por supuesto, otra de las razones es el tamaño de los virus, que, hablando en términos históricos, ha impedido avanzar en su investigación. Por tanto, la metodología es una rémora para el estudio de la estructura de los virus. Pero no por mucho tiempo. Tenemos la radiación de sincrotrón y todas las ventajas que aporta... Sí, sin embargo es destacable que cada vez hay más estructuras víricas en la emdb (la base de datos para estructuras obtenidas mediante la cryo-microscopía electrónica). Estaba a punto de comentarlo. Sigo considerando que el microscopio electrónico es una herramienta mejor, en ciertos aspectos, para el estudio de la estructura vírica, la estructura completa del virus, que la cristalografía. De hecho esta nueva forma de trabajar con adenovirus, refleja claramente que la resolución (nominal) ofrecida por el microscopio electrónico es cada vez menor. Pero en este punto coinciden el microscopio electrónico y los rayos-x, ya que tienen prácticamente la misma resolución. ¿Piensa que los pliegues de las proteínas víricas son limitados o ilimitados? ¿Cree que conocemos todos los pliegues que forman las proteinas víricas? Probablemente no. Y es que tampoco conocemos gran variedad de estructuras víricas. ¿Piensa que hay un reducido número de virus y que se basa en los mismos principios de ensamblaje? Si damos por sentado que existen ciertas vías o líneas de conexión entre virus, parece que efectivamente no hay gran cantidad de linajes virales. Digamos que unos diez ó veinte. Además, parece que existen ciertos pliegues víricos o proteicos que son comunes a cada línea. Tengo la impresión de que las herramientas predictivas para evaluar el espacio topológico de las proteínas (no solo víricas) todavía no son lo suficientemente sólidas... Creo que cada vez queda más claro que el universo de los pliegues proteicos es más limitado de lo que se pensaba en mis tiempos de estudiante. Entonces todo el mundo pensaba que existía un número ilimitado de ellos, que cada proteína se plegaba de forma diferente. Pero es obvio que no es así. Actualmente se ejerce cierta presión sobre la ciencia básica para hacerla cada vez más traslacional, y puede que eso sea algo que concierne a los investigadores jóvenes. Pero, ¿cuál cree que es el impacto que la virología estructural tiene en el desarrollo de una vacuna y/o un fármaco? ¿Es cierto que la conexión entre ambas no es tan directa como se pensaba? Creo que es así, probablemente porque la estructura no tiene mucho que ver con el desarrollo de vacunas. No sé mucho acerca de ese tema, pero me parece que no es necesario tener grandes conocimientos sobre la estructura para poder desarrollar una vacuna. “La estructura del virus no explica per se qué enfermedad va a causar” dificados de proteínas del vih, con la idea de desarrollar una vacuna para el vih, pero repartiéndola con un gen, en vez de una proteína. Y para eso, usábamos adenovirus de chimpancé, de los que habíamos descubierto la estructura, y la idea era poder utilizar este adenovirus como vector de reparto en las primeras vacunaciones, porque la mayoría de las personas no han estado expuestas a virus de chimpancé, a no ser que sean cuidadores en un zoo; y después utilizaríamos nuestros conocimientos sobre la estructura de los hexones para diseñar los cambios en los loops y así crear otro virus que pudiera usarse para repartir la dosis de la segunda vacuna o la dosis de refuerzo. ¿Funcionó? Hoy en día las compañías farmacéuticas pueden hacer screening in-silico de miles y miles de compuestos con una diana específica. Aun así, todavía valoro el conocimiento básico de la estructura de un virus como estrategia para que, comprendiendo sus mecanismos biológicos, puedan desarrollarse aplicaciones biomédicas. Exactamente. Pero, los adenovirus se han utilizado en una dirección muy distinta que puede que usted no conozca. Me refiero al reparto de genes (gene delivery). De hecho, participé en un proyecto en el Instituto Wistar en el que se utilizaban adenovirus para repartir genes co- En principio, sí. Funcionó con ratones (risas). No ha funcionado en lo que se refiere al reparto de vacunas del vih, pero ésa es otra cuestión. Pero la idea de modificar la proteína funcionó, sí. Los virus patogénicos humanos y animales afectan diariamente a nuestra sociedad. Algunas de las enfermedades que preocupan a la Organización Mundial de la Salud son virus como el Ébola, la fiebre de Rift Valley y la gripe y algunos de ellos son virus emergentes zoonóticos. Pero yo creo que un proyecto sobre virus se convierte en interesante o financiable cuando llega a los países ricos. ¿Es solo mi impresión? ¿Qué le parece? Por ejemplo, el dengue se convirtió en un objetivo cuando llegó a ee. uu. Sí, creo que la gente de los países ricos es egoísta, suelen gastar el dinero para sus propios intereses. Se supone que las compañías farmacéuticas necesitan dinero para financiar sus investigaciones, por lo que es poco probable que investiguen enfermedades con las que no pueden recuperar el coste de las investigaciones. Pero existe un movimiento, como sabe, el de la Fundación Gates, que intenta solucionar este problema y financiar áreas que no cuentan con fuentes de financiación convencionales. Aunque no sé exactamente a qué se refiere con su pregunta, a si la gente es egoísta, si los países lo son… No, no. Soy consciente de que existen virus zoonóticos reemergentes y parece que no se están centrando en ellos… Puede ser que la fiebre de Rift Valley o el Ébola sean más conocidos, pero mientras se queden en África, Oriente Medio, Asia o incluso Australia o Nueva Zelanda, no nos preocupan demasiado. También está el problema práctico. Investigar virus de ese tipo, como bien sabe, es mucho más caro porque se necesitan instalaciones de contención, todo tipo de trámites para trabajar con virus, por lo que es mucho más complicado. Por tanto, para un investigador particular es muy difícil hacerlo, porque tienen que justificar las razones por las que es importante invertir tanto dinero en analizar una enfermedad que solo puede acarrear problemas al país que la investigue. → 11 Diálogos científicos - Roger Burnett Diálogos científicos - Roger Burnett ¿Por tanto, no tiene preferencias en cuanto a las líneas de investigación? No, me parece muy inoportuno tenerlas. Sería disparatado que yo dijese que en toda España tienen que trabajar en la estructura de los virus. Se retiró de la ciencia activa en 2007... Sí, a finales de 2006, de hecho. se están creando ahora, como la microscopía de fuerza atómica que da imágenes de baja resolución, pero será mucho más importante en el futuro. Aunque es difícil saber qué ocurrirá en el futuro. Pero, por ejemplo, ¿qué sistema o trayectoria sugeriría tratar? ¿En qué sentido? Ahora que su punto de vista es imparcial, ¿cuáles cree que son los retos que deberá afrontar la biología estructural en los próximos veinte años? Sin embargo, es fundamental estudiarlas. Algunos de estos virus pueden llegar a los países del sur del Mediterráneo, por ejemplo, a través de sus vectores (como mosquitos). Sí, por ejemplo en España, donde estamos, existen institutos como éste, y se hacen inversiones considerables en biología estructural, por lo que estoy seguro de que se hace frente a problemas que puede que no se hayan estudiado en otros países. No sé, enfermedades mediterráneas, etc. Abordemos el aspecto económico de los proyectos. Estamos afrontando una crisis mundial y España está pasando por una época bastante dura. La situación del País Vasco es algo mejor, pero en definitiva, se han hecho recortes en investigación. ¿Si fuera el encargado de asignar becas, qué línea de investigación apoyaría? Esa es una pregunta muy difícil, porque no creo que haya nadie tan inteligente como para repartir recursos, a no ser que se use un método que se ha demostrado que funciona, basado en dar recursos a los investigadores más imaginativos y a los mejores. ¿Pero cómo se definen los mejores investigadores y los más imaginativos? En mi opinión, esta es una cuestión de juicio y gustos. Lo que siempre me llamaba la atención cuando formaba parte de una mesa de revisión de becas era la sorprendente unanimidad para reconocer proyectos buenos y cosas interesantes, aunque se suele pensar que cada miembro tendrá sus preferencias a la hora de elegir lo que es bueno o lo que merece la pena apoyar. Me puede decir, por su12 puesto, que todos somos muy homogéneos o que no hemos sido entrenados para ser imaginativos. Y, por supuesto, hay algunas tendencias sobre lo que es interesante en cada momento. Pero, en general, creo que si han recibido una buena formación, la mayoría de los científicos son bastante imaginativos; creo que cuando ves algo interesante, se puede reconocer. Así que dar recursos a gente con buenos antecedentes es una manera de repartirlos. El problema es, por supuesto, que se debe financiar a jóvenes investigadores sin ninguna trayectoria. Y la tasa de éxito es menor. Es difícil decir en cada fase si alguien llegará a la siguiente. Recuerdo que cuando era estudiante de doctorado, miraba a mis compañeros y pensaba: «¿por qué molestarme en investigar, si ellos son tan inteligentes?»; pero no todos terminaron el doctorado. Luego pasas al siguiente nivel y te encuentras con postdoctorandos realmente increíbles, pero no todos terminarán el postdoctorado con éxito, ni publicarán artículos. Luego están los profesores adjuntos que comienzan su carrera y aunque algunos son muy inteligentes, no todos seguirán adelante y promoverán un proyecto. Así que creo que para tener una carrera de investigación, ser productivo, trabajar en el laboratorio y ser capaz de tratar con personas, etc., necesitas capacidades bastante amplias y puede que no se vean de antemano. Por tanto, lo dicho, creo que no importa lo mala que sea la situación económica, siempre se debe invertir en nuevos laboratorios para investigadores jóvenes, porque nunca se sabe cuál de ellos será brillante. Veamos las diferentes disciplinas una por una. Hablaremos de cristalografía, porque es una de las que mejor conozco; quiero decir que me sorprendí muchísimo cuando visité estas instalaciones de cristalografía, al comprobar que el equipo que teníamos cuando yo me retiré era como del siglo xix. La gente todavía realizaba cristalizaciones a mano y ahora existen robots y máquinas para hacerlo; está claro que todo se está automatizando, la habilidad de cristalizar en diversas condiciones con pequeñas cantidades de proteína; está claro que se ha mejorado muchísimo la habilidad de cristalizar cosas y descubrir estructuras. Todo eso está muy bien, porque así se pueden tratar más cosas. Aunque la cristalografía de proteínas está avanzando en una dirección en la que casi se ha convertido en una instalación de servicios. En otras palabras, es como si alguien dijera: «tengo una proteína interesante y quiero descubrir su estructura»; y entonces se la diese al laboratorio y éste descubriese la estructura. Por lo que la cristalografía de proteínas se convertiría en lo que hoy en día es la cristalografía de moléculas pequeñas; solo un servicio adjunto, como en la industria farmacéutica donde encuentran cientos de compuestos al día. Por lo tanto, la pregunta es: ¿qué ocurrirá con los que se formen en cristalografía de rayos-x, cómo será su existencia en el futuro? ¿Serán solo técnicos? ¿Cómo continuarán contribuyendo a la ciencia de un modo más científico e imaginativo? No sé la respuesta a esa pregunta, pero seguramente la microscopía de electrones y el rmn aún no han llegado a este punto de automatización. En cuanto al rmn, todavía exige mucha interpretación manual; pero desde luego la microscopía electrónica va por esa dirección. Todas estas técnicas están dirigidas a convertirse en técnicas consolidadas, por lo que la gente interesada en la estructura tendrá todas estas herramientas potentes al alcance de su mano. Puede que haya otras herramientas que “No importa lo mala que sea la situación económica, siempre se debe invertir en nuevos laboratorios para investigadores jóvenes, porque nunca se sabe cuál de ellos será brillante” Por ejemplo, ¿se debería estudiar la señalización de células, las estructuras virales, la regulación de cromatina? ¿Cuál le parece un tema candente? Por ejemplo, actualmente muchos laboratorios centran su atención en la proteínas de membrana y de canales iónicos… Sí, he dejado aparte las proteínas de membranas porque todavía es un ámbito difícil. Pero creo que, de alguna manera, los avances en torno a la estructura pueden llegar de cosas más grandes que, digamos, un complejo macromolecular, puede que de imaginar partes de células. O hay formas en las que se puede desarrollar un microscopio de rayos-x con una resolución extremadamente baja que puede obtener imágenes de orgánulos celulares. Por tanto, sería fantástico que alguien pudiera hacer eso, de la misma manera que alguien consiguió ver los recubrimientos proteicos de los virus con estructuras de rayos-x para obtener la arquitectura completa, si alguien pudiera usar el gran número de estructuras que conocemos al detalle, para intentar unir las grandes organizaciones de orgánulos en las células y esa es la nueva frontera, ¿no le parece? Ahora, volvamos a los retos de la biología estructural. Pensemos que va a emprender una nueva profesión: la profesión científica. ¿Qué sistema sería su objetivo? El suyo personal. Digamos que comienza otra vez en cic biogune. No lo sé. ¿Cambiaría su campo de interés? De hecho, creo que mi carrera profesional ha sido muy satisfactoria, porque mi objetivo era aprender más sobre biología e integrarlo con la física. Cuando era estudiante de postgrado, me interesaba muchísimo la informática; como físico, te gusta juguetear con cosas para poder usar, en definitiva, instrumentos. Aunque nunca conseguí mi objetivo de convertirme en doctor, terminé como profesor en una escuela de medicina; por lo que he tenido una vida muy rara y me siento muy afortunado, he seguido solo lo que me parecía interesante, lo que me parecía satisfactorio en términos científicos; también ha sido muy gratificante personalmente. Así que es difícil imaginar ser tan afortunado otra vez (risas). Recientemente Craig Venter ha publicado un artículo sobre las primeras células con un genoma sintético. ¿Qué opina del hecho de que seamos capaces de producir células sintéticas? Bueno, en cierto sentido, hemos estado produciendo células sintéticas durante mucho tiempo, porque se ha estado jugueteando con varios genes y el hecho de que él haya creado uno totalmente sintético… estoy seguro de que se basó en los que estaban funcionando, porque la probabilidad de conseguir uno correcto es muy pequeña, aunque sea sintético, probablemente se parecerá a algo que ya existe. No lo he mirado detalladamente, pero creo que estoy en lo cierto. ¿Es así? Sí. Ya ha pasado dos días y medio aquí y ha visto qué es cic biogune. ¿Cuál es su impresión sobre el instituto? ¿Cuál es su opinión sobre lo que ha visto, como miembro del Consejo Asesor Científico? ¿Y sobre la gente que ha conocido? Bueno, es obvio que es la gente la que hace el instituto, se puede tener un edificio precioso, pero sin la gente adecuada sería un desastre. El edificio, el marco físico, y las infraestructuras son magníficas. Es un sitio muy agradable para trabajar, porque como ya he dicho, me recuerda al Biozentrum cuando yo me incorporé en los setenta. Está muy bien equipado. Obviamente, por lo que puedo ver está bien dirigido, porque se deja a los científicos que hagan su trabajo; y lo que me ha impresionado mucho es que el grupo de investigadores es muy joven y la gente es muy entusiasta. Todos los que he conocido se divierten estando aquí, haciendo su trabajo. Así que creo que se conseguirán buenas cosas. Está claro que como cualquier organización, necesita cuidados y encontrar una forma en la que desarrollarse. Pero creo que le espera un buen futuro. 13 Divulgación - La cultura científica o la misteriosa identidad del señor Gauss La cultura científica o la misteriosa identidad del señor Gauss Raúl Ibáñez Torres, profesor de Geometría en la upv/ehu A pesar de que desde hace varios años se viene proclamando, por parte de algunas personas del ámbito de la cultura, pero fundamentalmente por quienes estamos trabajando en la divulgación de la ciencia, la falsedad de la existencia de dos culturas distintas, además de enfrentadas, la humanista (que es la que la sociedad en su conjunto denomina erróneamente cultura a secas) y la científica, sigue siendo necesario llevar este debate ante la opinión pública. La sociedad está reconociendo cada vez más el destacado papel de la ciencia, y de la tecnología que emana de ella, para su progreso y el del conocimiento, aunque desde una óptica cultural se la mira como algo anecdótico, sin excesivo interés y prescindible. Por cultura se entiende habitualmente la de letras, despreciando las aportaciones, el interés y trascendencia de la ciencia en la misma, y solo recientemente se ha empezado a utilizar el término cultura científica para admitir por fin que la ciencia en sí misma puede ser parte de la cultura, aunque dejando muy claro que no es la cultura con mayúsculas, es decir, la de las humanidades, y manteniéndola completamente alejada de ella, separada por un muro artificial. Si miramos al diccionario de la rae, en su vigésima segunda edición, nos encontramos con dos acepciones interesantes, en relación con este debate, de la palabra «cultura», ···· conjunto de conocimientos que permite a alguien desarrollar un juicio crítico. ···· conjunto de modos de vida y costumbres, conocimientos y grado de desarrollo artístico, científico, industrial, en una época, grupo social,… Raúl Ibáñez Torres es profesor titular de Geometría (upv/ehu). Su investigación se centra en la Geometría Simpléctica y en la Cultura Matemática. Ha participado en 23 proyectos de investigación, en 9 de ellos como investigador principal. Es director de Divulgamat, miembro del Raising the Public Awareness of Mathematics de la European Mathematical Society, ex-vicepresidente segundo de la Real Sociedad Matemática Española. Premio de Divulgación Científica José María Savirón 2010. 14 En esta segunda acepción, el propio diccionario ya reconoce la presencia relevante de la ciencia en la cultura, mientras que en relación a la primera, ¿cuáles son esos conocimientos que permiten desarrollar un juicio crítico? En mi opinión, la formación de las personas tiene dos pilares fundamentales, las matemáticas y el lenguaje, que junto con las demás enseñanzas, tanto científicas como humanistas, forman a los jóvenes de nuestra sociedad, convirtiéndoles en personas adultas, independientes y críticas. En ambos casos, no solamente es fundamental la aportación de los dos lados del conocimiento y la cultura, sino que en realidad estos están enmarañados. No podemos, y no debemos, separarlos. Al realizar de forma artificial dicha escisión, que bien podríamos calificar de quirúrgica, parte de nuestro saber y de nuestra cultura desaparecen, o se ven mutilados, en la operación. De igual forma, la división de la humanidad bajo las denominaciones de letras y de ciencias, no solamente es artificial, sino que es simplista, falaz y esconde un problema más complejo, del que hablaremos más adelante. Caricatura de Gauss por Enrique Morente Luque (Exposición «El Rostro Humano de las Matemáticas», RSME) Divulgación Xxxx xxxx xxx xxxxx Hipercubo Retrato de Ambroise Vollard. © Sucesión Pablo Picasso, VEGAP, Madrid, 2010 Yo soy de ciencias La existencia de dos mundos separados, el de ciencias y el de letras, hace que desde bien jóvenes tengamos que elegir en cuál de ellos habitar, y que miremos con recelo a los habitantes del otro. La propia sociedad nos ha enseñado que debemos considerar natural esta supuesta realidad. Por ejemplo, ya en la universidad, esta divergencia se manifiesta de una forma bastante clara, los de letras suelen opinar de los de ciencias, y con mayor vehemencia si es de los matemáticos de quienes se está hablando, que son empollones, aburridos, cabezas cuadradas, faltos de imaginación, o incluso unos incultos, mientras que estos piensan de los primeros que no estudian nada, están siempre de fiesta, sus carreras son ligeras, utilizan su imaginación para escaquearse y juegan con el lenguaje para parecer cultos. La separación entre ambos colectivos se mantiene desde las dos partes, mirándose con suspicacia o simplemente intentando ignorar la existencia de los otros. Sin embargo, en mi opinión, que seguramente, y con razón, pueda ser calificada de subjetiva y sujeta al mismo defecto que se está intentando combatir, la situación no es simétrica y desde el mundo humanista hay una mayor militancia en contra del científico. Con bastante frecuencia los habitantes de éste se encuentran con la expresión «yo soy de letras», que suele ser utilizada a modo de comodín o escudo contra ellos. Una situación en la que es habitual escuchar esta expresión es cuando dos personas, una de letras y otra de ciencias, se conocen (ya sea un periodista que tiene que entrevistar a un científico, un artista y un físico que coinciden en un acto público, o los padres/madres de dos amigas de la escuela), y suele ser utilizada por la primera como defensa a la supuesta agresión de la persona de ciencias, con el fin de cortar todo intento que pueda existir por parte de ésta de hablar de su trabajo o de temas científicos, para que sepa que se considera de mal gusto que hable de su ocupación, que no interesa lo que pueda contar o simplemente que no se moleste ya que no le van a entender, ni van a intentarlo. Sin embargo, no suele ocurrir que un científico se defienda con la expresión «yo soy de ciencias» para que su interlocutor no mencione sus preocupaciones laborales o temas como el arte, la música, el cine, la historia o el periodismo. Serán materias de las que podrá dialogar con toda naturalidad e interés. Aunque por desgracia aún tenemos mucho que avanzar para que en una conversación se puedan tratar con normalidad temas relacionados con la ciencia, es curioso observar la sorpresa que en ocasiones se llevan los de letras, cuando descubren que su interlocutor, de ciencias, no solamente es capaz de charlar de esos temas de cultura general, sino que en muchas ocasiones son unos apasionados o incluso expertos en alguno de ellos. La expresión «yo soy de letras», o si el tema está relacionado en algún sentido con las matemáticas, manifestaciones del tipo «los números no son lo mío» o «a mí con las cuatro operaciones me vale y me sobra», suelen utilizarse también para justificar un error relacionado con la ciencia (por ejemplo, un error en un cálculo numérico, un porcentaje mal utilizado, o confundir un quark con una galaxia o un tipo de estrella), o incluso para anticiparse al posible error, como un método de defensa. Aunque esta expresión se usa con normalidad, y sin ningún pudor, no se entendería el empleo –de hecho ningún matemático o científico lo haría- de la frase «yo soy de ciencias» para justificar faltas de ortografía cometidas, un informe mal redactado o un error al establecer la época de un hecho histórico relevante. Más generalmente, la expresión «yo soy de letras» suele servir para transmitir, pero sobre todo justificar, con cierto orgullo, la falta de cultura científica. Se considera normal, incluso para los que somos de ciencias, → 15 Divulgación - La cultura científica o la misteriosa identidad del señor Gauss conocer ciertos hechos históricos, las características de algunos movimientos artísticos, o quiénes eran personajes como Wolfgang A. Mozart, William Shakespeare, Winston Churchill, Charles Chaplin o Pablo Picasso, sin embargo, no hace falta saber quiénes eran Carl F. Gauss, Isaac Newton, Marie Curie, James D. Watson y Francis Crick, o Dame Jane Goodall, cuándo y cómo se unificaron y universalizaron los sistemas de medidas o cuándo ocurrieron algunos hechos científicos relevantes. Mientras que a un científico, o a cualquier persona, se le tachará de inculta si no sabe contestar a la primera serie de cuestiones, alguien del mundo de las humanidades que no sepa contestar a ninguna de las de la segunda serie, simplemente tendrá que utilizar el comodín «¡es que yo soy de letras!». ¿Por qué se mantiene esa separación absurda entre personas de ciencias y de letras, entre la cultura científica y la cultura (de las humanidades)? La mayoría de los muros que se levantan en nuestro planeta son fruto de la ignorancia o el desconocimiento de la otra realidad, así como del miedo. Y este caso no es una excepción. Consecuencias de la brecha entre las dos culturas Pudiera pensarse que la división de la población en personas de ciencias y de letras, es algo similar a ser del Madrid o del Barcelona en fútbol, ser de Kas Naranja o de Kas Limón como en el anuncio publicitario o ser una persona que tiene perro o tiene gato, es decir, una elección personal, inofensiva, que seguramente definirá parte del carácter del individuo pero sin graves consecuencias. Sin embargo, no es así. Esa separación, y más generalmente la brecha entre las culturas científica y humanista (en realidad, la consideración de la cultura de letras como la única, y el menosprecio y olvido de la ciencia) sí tienen secuelas en nuestra sociedad, tanto en lo personal, como en lo social. En mi opinión, que seguramente sea tildada de exagerada por algunos de los lectores de este artículo, un efecto negativo que esta situación puede tener en lo personal es la falta de un desarrollo completo en la formación de algunas personas (por supuesto que la cuestión de qué es un desarrollo personal completo es muy interesante, así como clave para definir la educación que deben recibir los jóvenes, aunque no es el tema de este artículo). ¿Por qué? Este desprecio de la cultura científica hace que como sociedad no valoremos la importancia de la ciencia, y de las matemáticas, en la educación, y que los jóvenes (que lo han heredado de sus familias y su entorno social) las miren con desinterés, más aún con temor, como es el caso de las matemáticas escolares. En consecuencia, el desconocimiento o la mala formación en temas científicos, y muy especialmente en matemáticas, hace que hombres y mujeres no estén bien preparados para muchos temas de su vida, tanto personal como profesional, en los que un mínimo conocimiento científico es indispensable. Algunos ejemplos. En 2008 pudimos leer el titular «Cinco países europeos recomiendan a sus sanitarios estudiar cálculo», y en la noticia se explicaba que «hasta un 45% de los fallos hospitalarios tienen que ver con un cálculo erróneo de los medicamentos suministrados por médicos y enfermeras». Somos muchos los que a diario leemos el periódico para estar informados, y se supone que la formación recibida en nuestra educación es suficiente para poder entender sus artículos. Una gran cantidad de los mismos pueden tener contenido relacionado con la ciencia, pero además, mucha de la información que se suministra se realiza en un formato matemático (estadísticas, probabilidades, medidas, proporciones, gráficos, datos numéricos,…), luego este saber es imprescindible, tanto para el periodista que escribe el texto de la noticia, como para el lector. 16 Por ejemplo, el hombre, o la mujer, del tiempo anuncia: «La probabilidad de que llueva el sábado es del 50% y la de que llueva el domingo también es del 50%, por lo tanto, la probabilidad de que llueva el fin de semana es del 100%». Aunque esto pueda parecer un chiste matemático, errores similares a este (por cierto, la probabilidad de que llueva el fin de semana sería del 75%) se encuentran en la prensa (véase Un paseo por los medios de comunicación de la mano de unas sencillas matemáticas, R. Ibáñez, Revista sigma 32, 2008; o la web malaprensa.com). Por otra parte, cuando leemos un informe médico, económico o de otra índole, ya sea de nuestra vida privada o de nuestro trabajo, en una empresa o en la administración, debemos de entenderlo bien para poder extraer el conocimiento útil del mismo y tomar las decisiones correctas, y ahí el conocimiento científico también es primordial. Si hablamos de nuestra sociedad, el desprecio de la ciencia está llevando a una falta de conocimiento de nosotros mismos y de nuestra cultura (incluyendo la humanista). Un ejemplo ilustrativo puede ser el siguiente. A finales del siglo xix, y principios del xx, la cuarta dimensión (que venía de las matemáticas) fue un tema que interesó y cautivó a científicos, artistas, filósofos, escritores, personas religiosas, y público en general. En particular, tuvo una influencia importante en el cubismo, así como en Divulgación - La cultura científica o la misteriosa identidad del señor Gauss otros movimientos artísticos del siglo xx. Sin embargo, hasta los años 70, en los estudios y publicaciones de Historia del Arte sobre el cubismo no aparecían referencias a las dimensiones superiores, lo cual seguramente era consecuencia de la falta de formación matemática e interés científico de los historiadores del arte, a pesar de que los propios artistas hablaban de la cuarta dimensión en sus escritos (cartas, conferencias, artículos o libros). Por suerte, la situación cambió en los años 70 y hoy es un hecho conocido y ampliamente documentado (véase por ejemplo La cuarta dimensión. ¿Es nuestro universo la sombra de otro?, R. Ibáñez, rba, 2010). En general, una cultura y un conocimiento científicos pobres (y en particular, la incomprensión de una herramienta fundamental como son las matemáticas), hace que quienes tienen capacidad de decisión (ayuntamientos, gobiernos de autonomías o de la nación, empresas, fundaciones, etcétera) aprueben leyes y actuaciones fundamentales para nuestra sociedad teniendo una visión sesgada de la misma, lo cual tiene consecuencias negativas para nuestro presente y nuestro futuro (economía, desarrollo del país, educación, investigación científica y tecnológica, promoción de la cultura, organización de actividades culturales,…). La divulgación de la ciencia La solución al problema de la brecha entre ciencias y letras, y de sus nefastos efectos en la sociedad, es la divulgación de la ciencia. Esta no solamente traerá una mayor cultura científica y acabará con la confrontación, sino que provocará un cambio de actitud de la población hacia las matemáticas y la ciencia, la desaparición del temor a ellas, un mayor interés por las mismas, una mejora de su imagen social, que las personas sean científica y matemáticamente más activas, pero también estimularán el desarrollo de la actividad en ciencia y tecnología, de la cultura científica y de sus relaciones con otras partes de la cultura. Teniendo en cuenta que los jóvenes de hoy se convertirán en las personas que dirigirán el mundo en el futuro, la divulgación científica debe de empezar en la escuela, pero no debe de quedarse ahí, sino que debe de extenderse a través de todo el sistema educativo, y a la sociedad en su conjunto. Cuestiones como la importancia de la divulgación de la ciencia en nuestra sociedad, cómo y quiénes deben realizar esa labor, a través de qué medios, qué temas divulgar y cuál debe de ser el nivel científico de los mismos, a quién debe dirigirse, entre otras, son sumamente interesantes y merecerían un comentario más extenso que dejaremos para otra ocasión, puesto que queremos terminar analizando brevemente el papel de la universidad en la cultura científica. La cultura científica en la universidad Si centramos nuestra atención en los retos de futuro que tiene la universidad es probable que algunos únicamente piensen en el diseño y la gestión de la educación superior de nuestros jóvenes -los conocimientos y la sociedad cambian por lo que hay que adaptar la enseñanza universitaria a los nuevos tiempos- y también de la investigación -en la que la universidad debe de liderar la adquisición de nuevos conocimientos, el desarrollo de nuevas tecnologías o la creación cultural. Sin embargo, a estos dos retos, que han existido desde el inicio de la universidad (y que, de hecho, la definían hasta ahora), se les ha añadido un nuevo pero importante reto, la divulgación de la ciencia, aunque tendríamos que hablar realmente de la difusión de la cultura en su totalidad. Hasta hace no mucho tiempo, la divulgación científica tenía un papel marginal dentro de nuestra sociedad, mucho más la matemática en la que hubo que esperar al año 2000 –Año Mundial de las Matemáticas- para que llegara su despertar, e incluso hoy en día nos encontramos con medios como la televisión en los que siguen siendo reacios a incluir ciencia en su programación, o simplemente a ofrecer noticias relevantes del ámbito científico. Además, la difusión de la cultura científica se estaba desarrollando fuera del ámbito universitario, por periodistas que habían girado su carrera hacia la ciencia o personas con formación científica que, a través de museos o revistas, trabajaron al margen de la universidad. Dentro del profesorado universitario se consideraba más un hobby personal que una labor valiosa que debían desarrollar y dentro de la institución tampoco había un gran interés en ella. Incluso no se veía con buenos ojos que algunos profesores se dedicaran a malgastar su tiempo, y, en el fondo, el de la universidad, en este tipo de labores. Pero la situación ha cambiado, si no radicalmente sí de manera destacada. Se ha desarrollado un trabajo significativo en la transmisión de la cultura científica, tanto desde los museos, las editoriales y revistas, como desde la propia universidad, en la cual el profesorado ha empezado a darse cuenta de la importancia de esta labor, y de la conveniencia de que ellos, y ellas, estén involucrados, directa o indirectamente, en la misma. Se han organizado actuaciones de una gran calidad, con destacada presencia del público general, e incluso interés por parte de los medios de comunicación, que han servido de aval para el futuro. e +1=0 iπ La universidad ha entendido perfectamente la importancia que tiene la divulgación, así como que le corresponde a ella intentar liderar en gran medida el enorme trabajo que tenemos por delante, tanto en el desarrollo de la propia tarea de difusión, como en la gestión de la misma. Pero cuidado, reconocer el valor de la divulgación científica está bien, apoyar al profesorado en el desarrollo de la misma también, pero es necesario que haya un reconocimiento real, desde la universidad y también desde la administración, del trabajo que desarrollamos, no considerándolo un trabajo de segunda o de una cualificación inferior. La universidad tiene la obligación moral y social de divulgar la cultura científica, y la no científica también, que en gran medida surge de entre sus paredes. La sociedad demanda cada vez más un mayor conocimiento de una institución de la que depende la educación superior, la investigación y el desarrollo cultural, quiere saber en qué se gasta el dinero que se invierte en ella y por qué es importante seguir invirtiendo, quiere saber qué educación se está ofreciendo a nuestros jóvenes, qué investigación desarrollan sus miembros y la relevancia de ésta para la sociedad, pero también la sociedad ha entendido, o está empezando a entender, que la ciencia forma parte de la cultura de la humanidad, y que el desarrollo personal y social no puede dar la espalda a la ciencia, y confía en la universidad como difusora de la cultura científica. Además, la propia imagen social de la institución depende también de esta actividad. Estamos ante un reto ilusionante para el futuro como es el diseño y construcción de esa nueva parte del edificio universitario que es la divulgación, la difusión de la cultura humana. 17 Divulgación - Reflexiones y profecías Divulgación Xxxx xxxx xxx xxxxx Reflexiones y profecías Eduardo Angulo, profesor de Biología Celular de la upv/ehu Fue en 1981. El aceite de colza tóxico mataba por media España, y el entonces Ministro de Sanidad y Catedrático de Física, Jesús Sancho Rof, declaró que el síndrome era «una neumonía provocada por el Mycoplasma pneumoniae», y añadió con énfasis y afán pedagógico, mal aconsejado y bastante temerario, que el micoplasma no era peligroso ya que, en su opinión, «es un bichito tan pequeño que si se cae de la mesa se mata». Una sociedad como la nuestra, rodeada, inmersa, en la ciencia y la tecnología no se merece el nivel de educación científica que tienen sus ciudadanos y, lo que es peor, sus dirigentes. Como afirma la Premio Nobel Christiane Nüsslein-Volhard, es inquietante que el discurso público de cualquier tipo a menudo premie la ignorancia científica. Es evidente que, si la mayoría de los ciudadanos tienen un nivel bajo de educación cien- Eduardo Angulo es doctor en Ciencias Biológicas y profesor titular de Biología Celular de la upv/ehu. Docencia desde 1978 en la Licenciatura de Biología. Investiga la relación entre células y tejidos con el medio ambiente, con más de un centenar de artículos publicados en revistas nacionales e internacionales. Autor de Julio Verne y la Cocina, La vuelta al mundo en 80 recetas (2005), Monstruos, Una visión científica de la Criptozoología (2007), y El animal que cocina, Gastronomía para homínidos (2009). Ha colaborado en el libro colectivo Misterios a la luz de la Ciencia (2008). Desde 2007 lleva los blogs La Biología Estupenda y Cine, Literatura y Medio Ambiente. Director del Colegio Mayor Miguel de Unamuno, de la upv/ehu. 18 tífica, las decisiones que se tomen basadas en la ciencia y la tecnología, que son casi todas, pueden resultar desde casualmente adecuadas hasta absolutamente inverosímiles. Y así ocurre, por ejemplo, con la inclusión o no del creacionismo en la educación, la polémica sobre el aborto, las centrales nucleares y su seguridad, los organismos transgénicos y sus peligros, el cambio climático, la exploración del espacio y tantos otros asuntos a debatir y decidir democráticamente. Son decisiones que nos conciernen a todos. Hoy no se puede, no se debe, ser un analfabeto en ciencia y tecnología. Un ignorante es manipulable, no tiene ni criterio ni conocimientos, ni siquiera los más básicos, y, como todo ignorante, es atrevido y actúa según sus creencias, y con fe suficiente, esas creencias son inamovibles y difíciles de cambiar. Por tanto, el dilema está claro: o deciden los ciudadanos en su ignorancia plagada de convicciones pétreas, o deciden los ciudadanos después de recibir una educación científica y tecnológica adecuada que promueva el interés por la ciencia y se renueve a través de una buena divulgación. Debemos comprender y difundir con energía la aportación esencial de la ciencia a la construcción de la sociedad democrática. Juan Ignacio Pérez, antiguo Rector de la Universidad del País Vasco (upv/ehu), lo subraya con acierto al destacar que no existe sociedad democrática sin ciencia y que no puede existir una ciencia de futuro en una sociedad no democrática. Ciencia y democracia son, a pesar de algunos, las dos caras del dios Jano, aunque, por una vez, ambas miran en la misma dirección. En conjunto, ciencia y tecnología nos rodean por todas partes e influyen, más bien más que menos, en nuestra vida diaria o en nuestras decisiones más importantes. Es necesario transmitir el conocimiento en ciencia y tecnología para que podamos comprender nuestro mundo y planificar el futuro. La divulgación científica es esencial en una sociedad democrática. Lo dicho me lleva a reflexiones sobre la divulgación científica que, quizá ya expuestas muchas veces por personas mejor preparadas, me provocan una cierta inquietud y un deseo de presentarlas de nuevo en esta ocasión. Antes de continuar, necesito aclarar que considero que comunicación científica y divulgación científica no son lo mismo. La comunicación científica proviene de instituciones y personas que difunden líneas y resultados de investigación. Dan a conocer la ciencia y sus resultados a la sociedad. Es necesaria socialmente: legitima y justifica la investigación científica y la dedicación y el gasto que supone. Tiene apoyos pues son las propias instituciones y empresas quienes la promueven para dar a conocer lo que hacen. Sin embargo, hay que destacar que muchas noticias que provienen de la comunicación científica, quedan en simples notas en la prensa en las que ni siquiera se cita la fuente. Se ahorra sitio y se pierde credibilidad al no citar la institución o la publicación de procedencia. La divulgación científica, en general, más que instituciones, la hacen personas. Contiene todas las características que hemos dado a la comunicación científica pero, además, es educativa y es pedagógica. Exige un esfuerzo, a veces importante, al receptor, y por ello, también implica su compromiso previo con la ciencia y la tecnología. No es habitual que compre un libro o vea un documental de divulgación científica quien no se interese por la ciencia. Aunque el compromiso con la ciencia puede ser pasivo e inconsciente, tal como ocurre con los documentales sobre la naturaleza: el receptor se asombra, se sorprende, se interesa, pero también aprende. Cada vez se destaca más, en la divulgación, este aspecto lúdico y cualquier excusa divertida ayuda a enseñar ciencia. Quizá sea banalizar la ciencia pero, es indudable que es eficaz. Además, si la divulgación demuestra emoción por lo que expone es más eficaz: la emoción atrae y ayuda al aprendizaje y la mejor emoción es la que implica cercanía y cotidianeidad. Siempre, claro está, que no ahogue la certeza y objetividad de la ciencia. Ambas, comunicación y divulgación, deben mostrar la ciencia y sus valores, metodología, conocimientos, beneficios, costes y peligros. Por ello, la divulgación no es bien vista por grupos políticos y sociales que prefieren un ciudadano ignorante y, por tanto, más fácilmente manipulable. Jesús Ávila escribió que se debe establecer una relación de confianza mutua entre la sociedad, representada por sus dirigentes, y los científicos. Esta es una relación entre dos élites, los políticos y los científicos funcionando como expertos, algo muy de actualidad. La relación debe ser entre los científicos y los ciudadanos, en una fase previa en el sistema educativo, que debe proporcionar conocimientos de ciencia y tecnología; y en una segunda fase, de actualización y divulgación que ponga al día esos conocimientos. Pongamos un ejemplo: el vertido de la British Petroleum en el Golfo de México. Allí existía esa perforación porque los científicos, actuando como expertos, habían asegurado a los políticos, que aprobaron las leyes y reglamentos necesarios, que esa perforación a gran profundidad era segura. Los científicos, cuando no actúan como expertos para los políticos, saben que esa perforación no es segura y más si en la zona hay hidruro de metano. Si los científicos actúan como expertos y no existe un cuerpo civil de la administración lo suficientemente establecido, el científico acabará siendo el experto voz de su amo del político, pues de éste dependen los fondos y su futuro. Si los datos científicos hubiesen llegado sin filtrar a los ciudadanos y estos tuvieran una formación básica en ciencia y tecnología, esa prospección nunca se hubiese aprobado. Una consecuencia: ahora los ciudadanos no se fían de los científicos debido al pecado original de éstos de actuar como expertos para los políticos. Ejemplos: los móviles, las antenas para móviles y el cáncer; las nuevas centrales nucleares y su seguridad; los cultivos transgénicos; las vacunas; y así podría seguir con más asuntos. La única relación interesante a largo plazo entre políticos y científicos es aquella, y me repito, que signifique divulgar la ciencia entre los ciudadanos y que sean éstos los que tomen las decisiones. Ingenuo y utópico, quizá. Otro reto de la divulgación científica, y de la educación en general, es desarrollar el sentido crítico en los ciudadanos. No solo debe, con la voluntad pedagógica que he mencionado, enseñar, sino que, además, debe desarrollar una intensa sensibilidad crítica ante las variadas y múltiples informaciones que le llegan. Y debe aprender a ser crítico incluso con la propia ciencia; es más, sobre todo debe serlo con la ciencia. Y revertir la tendencia, observable en cualquier actividad, de un pensamiento general cada vez menos crítico y más acomodado o, peor, indiferente. Hay dos aspectos de cómo llega la ciencia a la sociedad que me preocupan especialmente. En primer lugar, y ya lo he mencionado de pasada al hablar de comunicación científica, las noticias se dan sin citar las fuentes o citándolas de manera insuficiente, y sin el menor atisbo de crítica. Sé que la información no es opinión, a ser posible, pero no se pueden ofrecer, sin más, curas inmediatas del cáncer, el problema de la energía resuelto por la fusión fría, o datos de contaminación donde se confunde detección y control; es necesario un mínimo de sentido crítico. Y en segundo lugar, hay una preocupante tendencia, que vende muy bien, de convertir la divulgación científica en un apartado más de los métodos de autoayuda: las mentes flexibles, alcanzar la felicidad, cómo encontrar pareja, la atracción sexual, y quién sabe cuántos temas más, mezclan ciencia y autoayuda de manera peligrosa. Los escritos de autoayuda, para que sean eficaces, exigen que el lector crea en lo que allí encuentra y no hay nada menos parecido a la ciencia que la fe. Con la fe, todo está hecho y no queda nada para el debate, la discusión y el futuro. Y en la ciencia, por el contrario, que todo explica pero nada justifica, no hay temas cerrados, todo está sujeto a revisión. Es Eduardo Punset quien afirma, con razón, que el pensamiento científico es frágil, es transitorio hasta que alguien demuestre lo contrario. Para divulgar la ciencia hay medios tradicionales, de reconocida eficacia y difusión, y, en estos tiempos de la web 2.0, nuevas posibilidades a explorar. Entre esos medios en red, uno de los más populares es el blog que, me parece, está empezando a desbancar la mayor rapidez e inmediatez de las redes sociales. El blog es ágil, sencillo de usar, mucha gente lo visita y explora, a menudo por simple curiosidad, y también hay quien busca, como cualquiera de nosotros, a través de Google resolviendo alguna duda, problema o curiosidad. Pero, como pasa siempre en estos asuntos de la red, también hay una cierta inconsistencia y falta de compromiso: los visitantes dejan de hacerlo, los que escriben, los blogueros, dejan de hacerlo, cambian de dirección, de tema, etcétera. Es un mundo algo gaseoso, va y viene. Hay que ser constante y cabezón para no rendirse y seguir adelante. → 19 Divulgación Científica - Reflexiones y profecías Llega a la gente, sí; a cuánta gente llega, ni idea; da a conocer la ciencia, sí; educa, sí. Sin embargo, como en toda divulgación, y ya lo he mencionado, no conozco su eficacia real. Quizá sea uno de los problemas de la red: faltan datos, por muchas estadísticas de visitas que se tengan, hay que estudiar tiempo de permanencia, cuánto se ha recorrido el blog, cuánto tiempo ante cada pantalla,… Sin embargo, el blog produce una muy interesante retroalimentación hacia el divulgador a través de los comentarios de cada entrada. Y, además, y es una característica de la red, destaca la inmediatez de la respuesta. Esta retroalimentación inmediata puede ser un buen indicador de eficacia, siempre con la precaución de que no solo cuente el número de comentarios. En la divulgación pasa como en la docencia, que simplemente con más medios no se mejora sin más la enseñanza. En todo caso, se facilita y, a veces, también se perjudica. Todos sabemos que un buen profesor lo es sin y con más medios, y que un mal profesor también lo es sin y con más medios. Toda esta inmediatez, que digo es tan interesante, no significa hacer divulgación descuidada o superficial. Como exige José Manuel Sánchez Ron a la divulgación escrita que tenga transparencia expositiva e imaginación literaria, debemos plantear los mismos requisitos a la divulgación a través de internet y, en definitiva, de cualquier medio. Y, por otra parte, los medios informáticos, en este momento de la historia, son imprevisibles. Lo que yo escribo ahora, unos dos meses antes de que ustedes lo lean, estará obsoleto dentro de, como mucho, un año. Los portátiles son cada vez más pequeños, los móviles son cada vez más grandes, los lectores de libros mejoran sus prestaciones a gran velocidad y, encima, Apple se empeña en unir varias de estas funciones en un artilugio sin nombre más rápido, potente y pequeño. 20 Divulgación - Reflexiones y profecías Incluso podemos profetizar, teniendo siempre en cuenta que las profecías más acertadas se refieren siempre al pasado. Por ejemplo, salimos a la calle, llueve, es un día ventoso, en el móvil buscamos la previsión del tiempo, una borrasca atlántica nos manda frentes uno tras otro, la borrasca proviene de un ciclón del Caribe, en un aparte, el móvil nos explica cómo se forma un ciclón en el Caribe y cómo se transforma en una borrasca cuando atraviesa el Atlántico, etc. Además, unos gráficos del número y potencia de los ciclones formados en las últimas décadas, nos relacionan nuestra mojadura matutina con el cambio climático. Y entonces suena el móvil, alguien nos llama, y por fin el chisme cumple con su primitiva, y casi olvidada, función: comunicarnos con nuestros prójimos. Y todo esto, ¿a dónde me lleva? Pues a preocuparme de la eficacia de lo que hago. Me pregunto si esto me lleva a alguna parte o si me sigue manteniendo en la proverbial torre de marfil que se nos achaca siempre a los científicos. Sé que conocer la eficacia en la divulgación científica no es asunto fácil. También hay divulgación ininteligible. Luis Alfonso Gámez comentó una vez que un científico para ser buen divulgador debe dejar de pensar como científico; no sé si tanto como pensar pero desde luego que debe dejar de expresarse como tal pues solo le entenderían sus colegas. Como dijo Arthur C. Clarke, cualquier tecnología lo suficientemente avanzada es indistinguible de la magia. Pero Richard Feynman, otro Premio Nobel, en frase a menudo atribuida a Einstein, también afirmó que «si no eres capaz de explicar tu trabajo a tu abuela es que, en realidad, no lo entiendes». Por lo tanto, aunque sea magia, debemos ser capaces de explicarla para que la entienda todo el mundo. También es cierto, y hay que tomarlo como principio de precaución, lo que escribió Javier Sampedro, cuando afirmaba con razón, que para escribir con claridad, primero hay que pensar con claridad. Y suponiendo que nos sabemos explicar, y no voy a ir más allá, ¿llegamos a la gente, a los ciudadanos, a esa ciudadanía a la que me refería al principio? Mi primera conclusión es, a la vez, esperanzadora y deprimente. Creo que solo divulgamos para quien quiere aprender; para quien, previamente, quiere ser divulgado; para quien tiene un compromiso previo con la ciencia y la tecnología. Y cómo obtener ese compromiso es algo que también dejo en el aire. En resumen, he dejado abiertos tres puntos que a mí me interesan pero que, en absoluto, cierran cualquier otro comentario sobre lo que acabo de decir. Esos tres puntos se podrían resumir en conocer si la divulgación científica es lo mismo para todos, en si lo que hacemos como divulgación es eficaz y en, si es necesario un compromiso previo del receptor de la divulgación, cómo conseguirlo. Para acabar, considero que la ciencia dejará de ser divulgada cuando forme parte de la educación de los ciudadanos, cuando sea popular. En ese momento, la divulgación, en su aspecto educativo, y en su aspecto lúdico, pasará a formar parte de la vida diaria. Quizá tenemos miedo al llamado almanaquismo, es decir, a la divulgación anecdótica de la ciencia, sin interés y basada en curiosidades expuestas sin orden. Pero, de esta manera, dejamos de lado la explicación científica de los hechos simples y sencillos de la vida diaria y nos centramos en los grandes temas: el cerebro, la inteligencia, la evolución, vida, Universo, Tierra,… Ni un extremo ni su contrario, pero me haría feliz que, cada día, en vez de consultar el horóscopo, la mayoría de los lectores buscaran la columna de ciencia en una especie de calendario zaragozano científico que incluyesen los medios escritos. 21 Investigación hoy Xxxx xxxx xxx xxxxx El cáncer en la nueva era genómica Carcinoma en piel humana. Micrografía: Annie Cavanagh Carlos López-Otín, Instituto Universitario de Oncología, Universidad de Oviedo. 22 El cáncer es una enfermedad que parece haberse instalado de manera permanente en todas las sociedades humanas y cuya capacidad para hacernos sentir vulnerables también parece aumentar cada día. Así, de acuerdo con estimaciones recientes realizadas por expertos de la Organización Mundial de la Salud, se cree que en el año 2020 se diagnosticarán más de 16 millones de nuevos casos de cáncer y habrá alrededor de 10 millones de víctimas mortales causadas por esta enfermedad. Sin embargo, pese a estos números abrumadores que casi asemejan el cáncer a una epidemia moderna, no estamos ante una patología de reciente aparición en el escenario humano y solo es necesario que recordemos su origen para convencernos de ello. En efecto, tras la formación de las primeras células hace más de tres mil millones de años, la vida en nuestro planeta transcurrió en un ámbito exclusivamente unicelular. Milenio tras milenio, la vida unicelular, clónica e inmortal dominó la Tierra hasta que hace Carlos López-Otín. Catedrático de Bioquímica y Biología Molecular en la Universidad de Oviedo, donde compagina su labor docente con el desarrollo de líneas de investigación sobre cáncer, envejecimiento y análisis funcional de genomas. Codirige el proyecto español de los Genomas del cáncer, es miembro de la Real Academia de Ciencias y ha recibido diversas distinciones incluyendo el Premio Nacional de Investigación Santiago Ramón y Cajal. unos 800 millones de años, una de estas células primigenias compartió con éxito su vida con otras semejantes, e inició el complejo proceso de construcción de organismos multicelulares. Fue también en ese momento cuando comenzaron a gestarse las primeras vías moleculares que más tarde conducirían al cáncer. La lenta e imparable transición hacia la pluricelularidad fue un indudable logro evolutivo al que debemos nuestra propia vida. Sin embargo, el proceso de generación de seres pluricelulares dejó necesariamente algunas deficiencias moleculares que nos proporcionaron ventajas evolutivas, pero que simultáneamente nos abocaron a la posibilidad de desarrollar procesos tumorales. El cáncer surge cuando una sola de los billones de células que construyen nuestro cuerpo se transforma, pierde su sentido altruista y se multiplica sin control intentando destruir el organismo al que hasta entonces contribuyó a modelar. Entre las deficiencias mecanísticas intrínsecas a nuestra propia naturaleza pluricelular podemos señalar la falta de fidelidad en los mecanismos de replicación y reparación del dna, la existencia de una compleja red de señalización inter- e intracelular susceptible de sufrir múltiples alteraciones y el mantenimiento en nuestros órganos y tejidos de un cierto número de células –incluyendo las células madre adultas– con gran potencial proliferativo o invasivo. Estas células son absolutamente imprescindibles para afrontar procesos fisiológicos fundamentales como el desarrollo embrionario. Además, → 23 Investigacion hoy - El cáncer en la nueva era genómica participan activamente en el mantenimiento y defensa del organismo. La pérdida de los controles que permiten que la función de estas células se mantenga siempre en unos límites apropiados, conlleva la adquisición de las propiedades mitogénicas e invasivas características de las células transformadas que conforman los tumores malignos. Afortunadamente, nuestro progreso evolutivo también nos ha proporcionado una serie de mecanismos biológicos para tratar de minimizar el potencial tumoral derivado de estas deficiencias surgidas tras la adquisición de la pluricelularidad. Entre ellos podemos citar la capacidad replicativa finita de las células, la cuantiosa inversión en sistemas de reparación del daño genético, los programas de apoptosis o la eficacia de nuestro sistema inmune antitumoral. Pese a ello, es una realidad el hecho de que los organismos pluricelulares desarrollan tumores malignos, y en el caso de nuestra especie, con una frecuencia que ha venido aumentando en las últimas décadas. ¿Cuál es la causa de este aparente incremento en los casos de cáncer? Muy probablemente porque más allá de la evolución biológica, la evolución cultural y social ha conllevado el desarrollo de una gran capacidad de interferir con nuestra propia naturaleza biológica a través de cambios en la dieta, exposición a agentes cancerígenos, o simplemente, por el notable incremento en la esperanza de vida que hoy podemos observar en una parte significativa de las sociedades humanas actuales. En suma, el cáncer es un proceso patológico muy antiguo que surge como consecuencia inevitable de nuestra propia evolución. La inherente complejidad y diversidad de esta enfermedad hace que solo podamos aventurar ciertas hipótesis acerca de los mecanismos moleculares que generaron los primeros tumores. Sin embargo, parece claro que el cáncer nos ha acompañado desde el principio de nuestra historia como especie. Más aún, los paleopatólogos han encontrado indicios de tumores óseos malignos en vértebras de dinosaurios del periodo Mesozoico, avalando la idea de la antigüedad de los procesos tumorales. También desde el principio, la búsqueda de soluciones frente al problema del cáncer ha sido amplia y diversa. Así, la cirugía, y después la quimioterapia y la radioterapia, aportaron respuestas precisas y evitaron que las palabras cáncer y muerte fuesen términos inseparables dentro de la misma ecuación, de forma que hoy muchos tumores malignos pueden curarse. En efecto, las últimas estadísticas indican que más del 50% de los pacientes con cáncer sobreviven a la enfermedad. Sin embargo, todos tenemos la triste certeza de que la curación de otros tumores nos obliga necesariamente a la exploración de posibles soluciones adicionales. En este sentido, debemos recordar que hace poco más de tres décadas, un grupo de destacados científicos intuyó que la Biología Molecular, desarrollada vertiginosamente tras el descubrimiento de la estructura en doble hélice del dna por James Watson y Francis Crick, también podía aportar nuevas respuestas al problema del cáncer. En efecto, los avances en esta joven disciplina han contribuido a desvelar secretos importantes de los procesos tumorales y nos han mostrado que, esencialmente, el cáncer es el resultado de la acumulación de daño genético o epigenético en oncogenes, genes supresores y genes de mantenimiento de la integridad del dna. También hemos aprendido que este daño se hereda de nuestros progenitores en un pequeño porcentaje de casos (alrededor del 5%), pero que en la mayoría de las ocasiones se adquiere a lo largo de la vida por agresiones externas como las radiaciones solares, el tabaco, algunos virus, o simplemente por azar. Además, varias décadas de investigación molecular en biología tumoral nos han enseñado que, tras la impresionante 24 Investigacion hoy - El cáncer en la nueva era genómica Terapia de radiación variabilidad clínica y biológica de los tumores malignos, hay una serie de características bioquímicas adquiridas por las células transformadas y compartidas por la mayoría de los tumores. Entre ellas, y siguiendo la estela integradora de Douglas Hanahan y Robert Weinberg, podemos citar la adquisición de mecanismos autónomos de proliferación, la insensibilidad a las señales de inhibición del crecimiento celular, la generación de estrategias de resistencia a la apoptosis, la superación de la barrera de la mortalidad por reactivación de enzimas como la telomerasa, el desarrollo de programas de angiogénesis que aporten el oxígeno y los nutrientes requeridos para la progresión tumoral y finalmente, la adquisición de una capacidad letal de invadir otros territorios corporales y generar metástasis, la manifestación más extrema del caos biológico subyacente a la transformación maligna. Estudios muy recientes han mostrado que en gran medida, la capacidad metastásica tumoral está ya preinscrita en las alteraciones genómicas responsables de la formación del tumor primario, las cuales conducen a una compleja cascada de acontecimientos sucesivos que implican cambios en la interacción de las células tumorales con componentes específicos de la matriz extracelular, la destrucción local de esa matriz a través de enzimas proteolíticas y la migración activa de dichas células a sitios distintos y distantes del organismo. En efecto, una vez que las células tumorales alcanzan el torrente sanguíneo y se extienden por el cuerpo, la progresión tumoral se torna prácticamente irreversible, limitando extraordinariamente las posibilidades de vencer al cáncer. Por ello, no podemos olvidar que tras todo este volumen de información biológica básica sobre los mecanismos de progresión del cáncer, debe siempre subyacer un deseo profundo y comprometido de encontrar respuestas clínicas para tratar aquellos tumores para los que la Medicina todavía no ha encontrado soluciones adecuadas. En estos últimos años, el conocimiento molecular acumulado sobre los mecanismos de progresión tumoral ha permitido el desarrollo de nuevas terapias para el tratamiento del cáncer que se han dado en llamar raciona- les o dirigidas, para contraponerlas con las derivadas de la quimioterapia citotóxica tradicional que ha sido la base de la Oncología médica durante las últimas décadas. En la actualidad, hay un total de 22 productos aprobados por la fda para el tratamiento dirigido del cáncer. Entre ellos se encuentran numerosos inhibidores de pequeño tamaño molecular, incluyendo el Imatinib para el tratamiento de la leucemia mieloide crónica, y diversos anticuerpos monoclonales humanizados como el Trastuzumab para el tratamiento del cáncer de mama metastásico. Sin embargo, el elevado potencial mutagénico del cáncer conduce con intolerable frecuencia a las resistencias anti-quimioterápicas y a las recidivas tumorales que obligan una y otra vez al desarrollo de nuevos medicamentos que inclinen la balanza hacia el lado de la vida, en esa batalla permanente entre los fármacos y el cáncer. Sin duda, esta difícil situación conlleva la necesidad de implementar nuevas aproximaciones experimentales que proporcionen oportunidades terapéuticas mejores y más diversas. En este sentido, la resolución de la estructura tridimensional de las distintas proteínas asociadas al cáncer, el diseño de chips genéticos que permiten el análisis global de los cambios en la actividad génica durante la progresión de la enfermedad y la creación de animales transgénicos «humanizados» en los que se pueden examinar los mecanismos de desarrollo del cáncer y los efectos de nuevos fármacos antitumorales, constituyen aspectos que han dirigido muchos estudios recientes en el campo de la investigación oncológica. Además, el estudio detallado de procesos complejos como la adicción oncogénica y no-oncogénica o la letalidad sintética en células tumorales, la identificación de las alteraciones inmunológicas y metabólicas asociadas a la transformación maligna, el esclarecimiento de las complejas conexiones entre distintos sistemas reguladores co-optados por las células tumorales, y la definición precisa de la importancia de las células stem en la progresión tumoral representan algunos de los campos que pueden proporcionar nuevas claves acerca de las funciones biológicas que resultan alteradas en el cáncer. Es de esperar que el futuro progreso en todos estos ámbitos pueda conducir finalmente a la instauración de → pet/ct de cáncer de mama. Fuente: Hg6996 Chip genético 25 Investigacion hoy - El cáncer en la nueva era genómica nuevas estrategias terapéuticas antitumorales más eficaces que las disponibles en el momento presente. Sin embargo, la extraordinaria complejidad del cáncer nos obliga a ampliar nuestra mirada científica mucho más allá de todas las aproximaciones actuales. En este sentido, el nuevo proyecto de los genomas del cáncer, constituye en mi opinión un hito en la investigación oncológica. El proyecto pretende determinar la secuencia completa de nucleótidos de al menos 500 genomas tumorales de pacientes con cada uno de los tipos de cáncer más frecuentes, incluyendo enfermos con leucemia linfática crónica que es el proyecto que se va a realizar en España. En este proyecto participan científicos de numerosas instituciones públicas españolas, coordinados desde el Hospital Clínico de Barcelona por el Dr. E. Campo y desde nuestro propio grupo de investigación, ubicado en la Universidad de Oviedo. Los resultados de este proyecto a largo plazo, sumados a los de otros 10 proyectos equivalentes sobre diferentes tumores, que ya se están desarrollando en otros países, permitirán disponer de una información fundamental acerca del paisaje genético del cáncer. Paralelamente, se realizarán estudios epigenéticos y proteómicos que contribuirán a ofrecer una amplia información molecular acerca de cada tumor. En último término, esta aproximación global al estudio del cáncer podrá conducir al diseño racional de una nueva generación de medicamentos más selectivos y eficaces que los disponibles en la actualidad, y que formarán parte de lo que podemos denominar estrategias de terapia combinada frente al cáncer. Así, junto a las aproximaciones tradicionales basadas en la cirugía, radioterapia y quimioterapia, que deberán mantenerse y perfeccionarse, tendrán que introducirse tratamientos complementarios derivados del conocimiento genómico de cada tumor de cada paciente. No obstante, hay que insistir en la idea de que el desciframiento del ge- noma de los tumores malignos no va a representar la curación rápida y definitiva de todos los tipos de cáncer, sino la posibilidad de ofrecer a los oncólogos toda la información biológica y molecular posible acerca de cada tumor, que permita la instauración de tratamientos individualizados para cada paciente. Para lograr este objetivo fundamental deberán superarse todavía una serie de barreras científicas, tecnológicas y económicas que limitan las posibilidades actuales de estos proyectos. Así, este trabajo de secuenciación genómica solo representa una etapa inicial que habrá que completar con estudios funcionales que permitan definir cuáles son las mutaciones impulsoras o conductoras de la transformación maligna y cuáles son meras acompañantes del proceso. En cuanto a los avances tecnológicos, no podemos sino reconocer que en un espacio brevísimo de tiempo la metodología genómica ha progresado de manera extraordinaria. Hoy, en el Centro Nacional de Análisis Genómico recientemente inaugurado en Barcelona, se puede determinar la secuencia completa de un genoma humano en apenas tres días, aunque la labor de análisis de esa información es todavía muy compleja y requiere la participación de expertos de los que solo hay unos pocos en España. El coste económico del proceso de secuenciación genómica también se ha reducido de manera espectacular, lo cual acerca notablemente a la realidad la opción de descifrar genomas individuales en un futuro próximo con alta eficiencia y de manera relativamente asequible. Por último, y pese a que estos proyectos genómicos están todavía en fases muy preliminares, cabe señalar que éxitos recientes como el hallazgo en tumores cerebrales de mutaciones frecuentes en los genes idh que hasta ahora no se habían encontrado alterados en el cáncer, constituyen un ejemplo importante de las nuevas posibilidades que ofrece la Medicina Genómica. Probablemente, esta disciplina abrirá una ventana al descubrimiento de nuevos genes, nuevos procesos, nuevos mecanismos y nuevas interacciones que a su vez conducirán a nuevos tratamientos que tal vez no consigan curar definitivamente, pero si al menos controlar, aquellos tumores para los que en la actualidad no hay soluciones eficaces. En definitiva, una amplia, sorprendente y estimulante colección de estudios recientes ha comenzado a mostrar que tras la extraordinaria variabilidad clínica y biológica de los tumores malignos, subyace una lógica molecular común que puede ser comprendida o interpretada mediante la definición de una serie de mecanismos bioquímicos comunes a dichos tumores. La investigación detallada de estos mecanismos, el estudio global de los genomas del cáncer, la estrecha colaboración de la investigación básica, clínica y epidemiológica en Oncología y la implantación de exigentes medidas de prevención y concienciación social sobre esta patología serán fundamentales para afrontar los numerosos retos todavía pendientes en torno a una enfermedad que nos recuerda con perseverancia la fragilidad humana. Bibliografía Greaves, M. Cancer stem cells: back to Darwin Semin. Cancer Biol. 20: 65-70 (2010) López-Otín C. and Hunter T. The regulatory crosstalk between kinases and proteases in cancer. Nature Rev Cancer 10: 278-292 (2010) Nguyen DX, Bos PD and Massagué J. Metastasis: from dissemination to organ- specific colonization. Nature Rev Cancer 9: 274-284 (2010) Stratton et al. The cancer genome. Nature 458: 719-724 (2009) The International Cancer Genome Consortium. International network of cancer genome Cell line del melanoma maligno colo-829 26 projects. Nature 464: 993-998 (2010) Xxxx xxxx xxx xxxxx Investigacion hoy - diseño terapéutico basado en el conocimiento Investigación hoy conceptual que se produjo en aquel entonces fue la búsqueda de inhibidores específicos de dicha proteína de fusión entre grandes librerías de moléculas. En 1998, una vez identificada y evaluada su actividad antitumoral en modelos experimentales, se inició su desarrollo en humanos. Los resultados de los ensayos clínicos fueron prometedores y en algunos casos hubo respuestas tumorales abrumadoras. Ello motivó que, en 2001, las autoridades reguladoras norteamericanas (i.e., Food and Drug Administration (fda)), aprobaran el imatinib para el tratamiento de la lmc. La importancia de la introducción de las terapias moleculares dirigidas no sólo radica en la disponibilidad de nuevo armamento en la lucha contra el cáncer. Es probable que la gran aportación del fenómeno imatinib es el cambio conceptual en la forma de abordar la investigación clínica oncológica. El nuevo modelo se asienta sobre dos pilares fundamentales: 1) el conocimiento de la patogenia molecular del cáncer como base racional para el desarrollo de nuevas terapias, y 2) el reconocimiento de la importancia de las singularidades moleculares propias de cada tumor. En otras palabras, se asume que la heterogeneidad interindividual del cáncer dista de ser trivial y debe ser tenida muy en cuenta a la hora de diseñar herramientas diagnósticas, pronósticas y terapéuticas. Nuevas perspectivas en investigación clínica oncológica: diseño terapéutico basado en el conocimiento Dr. Josep Llovet, Dr. Augusto Villanueva, idibaps, Hospital Clinic, Barcelona El cáncer es la segunda causa más frecuente de mortalidad en países desarrollados, ligeramente por detrás de las muertes producidas por enfermedades cardiovasculares. Según datos de los Centers for Disease Control and Prevention estadounidenses, el 23% del total de fallecimientos anuales en ee.uu. están directamente relacionados con cáncer. A pesar de ello, la mayoría de los tumores malignos han experimentado un marcado descenso en sus tasas de mortalidad durante las últimas décadas1. Sólo hay tres excepciones a esta tendencia: el melanoma, el cáncer de esófago y el de hígado. Esta tendencia es consecuencia de mejoras a diferentes niveles: implementación de programas de cribado y prevención primaria, mejoras en el diagnóstico precoz y estadiaje, optimización de la técnica quirúrgica y tratamientos adyuvantes, desarrollo de unidades de atención oncológica integral, etc. A ello se suma la introducción, a principios de la presente década, de una nueva familia de fármacos (i.e., terapia molecular dirigida) con actividad antitumoral contrastada. Dr. Josep María Llovet es profesor de Investigación (icrea) y dirige el Laboratori de Recerca Translacional d’Oncología Hepàtica (idibaps, Hospital Clínic, Barcelona). Es professor of Medicine y director del Liver Cancer Program en el Mount Sinai School of Medicine de Nueva York, y coordinador del consorcio heptromic. Dr. Augusto Villanueva es especialista en Aparato Digestivo y trabaja como investigador post-doctoral ciberehd en el idibaps (Hospital Clínic, Barcelona). Entre 2005-2008 trabajó como research fellow en el Liver Cancer Program (Mount Sinai School of Medicine, Nueva York). Es Scientific Manager de heptromic. 28 La experiencia pionera en la nueva terapia molecular dirigida fue el descubrimiento del imatinib (Gleevec®) y su aplicación en un tipo de cáncer hematológico, la leucemia mieloide crónica (lmc2). El desarrollo del imatinib comenzó a finales de los años noventa siguiendo un modelo diferente al paradigma tradicional que dominaba la identificación de nuevos fármacos. En aquel momento, existía un conocimiento razonable sobre las bases moleculares de la lmc. En la mayoría de casos, esta enfermedad se origina tras translocación y unión aberrante de los cromosomas 9 y 22, generando lo que se ha denominado como cromosoma Philadelphia. Esta unión origina una proteína de fusión anómala, la bcr-abl, que posee gran capacidad para inducir proliferación celular incontrolada. El cambio Bases moleculares para el desarrollo de terapias dirigidas con aplicación clínica La investigación oncológica está cambiando de forma vertiginosa. Se pueden enumerar muchos factores que han impactado de manera decisiva en este cambio, pero cabe destacar cuatro: 1) el gran avance tecnológico producido en los últimos 15 años tras la introducción de tecnologías de exploración génica de alta resolución (e.g., microarrays de expresión, secuenciación de segunda generación, etc.); 2) el incremento notable en la disponibilidad de muestras biológicas para estudios moleculares (e.g., bancos de tejido); 3) el desarrollo de la bioinformática, biología computacional y las bases de datos de libre acceso como herramientas básicas en investigación genómica; y 4) el reconocimiento de la efectividad antitumoral del modelo de diseño de fármacos basado en el conocimiento (i.e., rational drug design3). Si consideramos una perspectiva temporal, los cambios introducidos en los últimos 20 años en nuestra capacidad de interrogar el genoma del cáncer son cuantitativamente superiores a los obtenidos durante toda la historia precedente. De hecho, el desarrollo tecnológico ha creado una situación desconocida hasta la fecha en investigación biomédica. A pesar de resultar paradójico, el volumen de información genómica que podemos generar, sobre todo el proveniente de técnicas de secuenciación masiva, supera con creces nuestra capacidad para procesarlo, analizarlo, interpretarlo e incluso almacenarlo de forma apropiada. Prueba de ello es que desde que se publicaron los primeros estudios de secuenciación de genoma completo4, los resultados siguen refiriéndose a descripciones de las alteraciones genéticas en muestras únicas. Actualmente, es impracticable realizar este tipo de estudios en cientos de individuos, algo que sí es viable con otras tecnologías como los arrays de expresión5. Existe otro factor que dificulta la realización de estos estudios y es su elevado coste. El precio estimado de la secuenciación de un genoma completo ronda los 50.000-100.000$, haciéndolo prácticamente inasumible para grupos de investigación en solitario. Por este motivo, se han desarrollado iniciativas internacionales encaminadas a distribuir el coste en estudios de esta magnitud. Dos de las más conocidas son el Cancer Genome Atlas (www.tcga. cancer.gov, liderada desde ee.uu.) y el International Cancer Genome Consoritum (www.icgc.org, con participación multinacional y gubernamental). Ambos comparten objetivo, caracterizar de forma precisa las alteraciones presentes en el genoma del cáncer tras analizar un número muy elevado de muestras humanas (~500 muestras por tumor) procedentes de neoplasias de diferente estirpe. Es muy probable que la relevancia científica de estos resultados sea equiparable al que tuvo en su momento la publicación de la secuencia completa del genoma humano. Desde que en 1976 los ganadores del premio Nobel Michael Bishop y Harold Varmus caracterizaron el primer oncogén humano (i.e., src), se ha avanzado mucho en el conocimiento de las lesiones del dna que condicionan el desarrollo tumoral. Entre los múltiples mecanismos responsables de la disfunción genómica en cáncer destacan las mutaciones en oncogenes (e.g., kras en cáncer de páncreas, egfr en cáncer de pulmón) o en genes supresores de tumores (e.g., P53 en carcinoma hepatocelular), las translocaciones cromosómicas (e.g., cromosoma Philadelphia), el incremento en el número de copias de dna (e.g., her2/neu en cáncer de mama), las alteraciones en la regulación de la expresión génica (e.g., hipermetilación del promotor de mgmt en gliomas, apc en cáncer colorectal), etc. La consecuencia de todo ello es la activación aberrante de diferentes vías de señalización celular. Estas vías son sistemas bioquímicos de comunicación intercelular. Estructuralmente, suelen constar de moléculas estimuladoras (i.e., ligandos) que se unen de manera específica a un receptor de la membrana celular y que inducen activación secuencial de mediadores dentro del citoplasma. El resultado final es la translocación nuclear de un efector que modifica la expresión de un grupo de genes relacionados con una función celular concreta (e.g., proliferación, diferenciación, apoptosis, migración, metabolismo, etc.). El conocimiento de qué vías están alteradas es básica en el diseño de terapias dirigidas ya que la mayoría de estas nuevas moléculas se dirigen contra algunos de sus componentes. Por ejemplo, el cetuximab, aprobado por la fda en el tratamiento del cáncer colo-rectal avanzado, es un anticuerpo monoclonal que bloquea el receptor de la vía del factor de crecimiento epidérmico (egf); o el trastuzumab, aprobado en cáncer de mama, bloquea la vía de señalización de her2/ neu. Sin embargo, no todas las alteraciones en las vías de señalización son modificables farmacológicamente. Prueba de ello son las dos alteraciones genéticas más extensamente estudiadas en cáncer, pérdida funcional de P53 y activación de ras o Wnt, para las que no existen compuestos en fases clínicas avanzadas capaces de restaurar su normal funcionamiento. El comportamiento de las vías de señalización no es estanco, es decir, existen evidencias robustas que orientan hacia una notable interdependencia entre diferentes vías. Como consecuencia, se genera un denso entramado de circuitos moleculares que operan como sistemas biológicos complejos. El resultado de este entramado es la emergencia de nuevas propiedades, no explicables a partir de la actividad aditiva de los elementos individuales. El hecho de bloquear la actividad de una vía de señalización impactará en el correcto funcionamiento de otras que dependen de ella. Quizás esto sea una de las explicaciones de por qué algunos fármacos altamente efectivos en modelos experimentales no hayan tenido un éxito proporcional en humanos. Esta concepción multidimensional de las vías de señalización ha favorecido el desarrollo de una disciplina que utiliza un enfoque global para analizar de forma integral el funcionamiento de estos sistemas biológicos (i.e., Biología de Sistemas). Dentro de estas complejas redes de comunicación, existen unos puntos o nodos donde convergen gran parte de las señales y que actúan como factores limitantes en la transmisión de la misma. Es previsible que la correcta modulación de estos nodos tenga un impacto notable en oncología. → 29 Investigacion hoy - diseño terapéutico basado en el conocimiento Desarrollo farmacéutico basado en el conocimiento: Adicción oncogénica y medicina personalizada La adicción oncogénica es un concepto que ha adquirido particular relevancia en los últimos años. Se define como un estado de dependencia de las células cancerígenas de la activación de determinados oncogenes o la pérdida funcional de genes supresores tumorales. Dicha dependencia es bidireccional, es decir, su presencia es suficiente para que una célula adquiera o mantenga el fenotipo maligno y su supresión consigue revertirlo (e.g., regresión tumoral en modelos experimentales de osteosarcoma tras eliminación de su adicción al oncogén myc). Estudios realizados en muestras de cáncer humano han identificado múltiples alteraciones genéticas. Se sabe que la importancia relativa de cada una de ellas es distinta, existiendo cierta ordenación jerárquica. Algunas alteraciones son indispensables para el mantenimiento del cáncer (‘driver events’), mientras que otras son meros acompañantes resultado de errores aleatorios debidos al estado hiper-proliferativo característico de las células tumorales (‘passenger events’). Los drivers son la base de la adicción oncogénica y, a priori, son las dianas ideales para las terapias dirigidas. ¿Cómo se pueden distinguir drivers y passengers? La pregunta no tiene fácil respuesta y no hay un amplio consenso internacional que establezca unos criterios bien delimitados. Existen algunos datos indirectos que pueden sugerir la presencia de adicción oncogénica en un determinado tumor (e.g., alteración recurrente en diferentes muestras, mutación que active de forma constitutiva una quinasa, etc.). Sin duda, la prueba pre-clínica más consistente la proporcionan los animales de experimentación, siendo éste otro de los campos que ha experimentado una elevada sofisticación en los últimos años. El diseño de animales modificados genéticamente (amg) facilita la modelización de múltiples lesiones genéticas en un mismo individuo, habitualmente ratón. Además, existen tecnologías que permiten la expresión de dichas alteraciones únicamente en determinados tipos celulares (i.e., amg tejido-específicos) y en algunos casos con modulación cronológica selectiva (i.e., amg condicionados). Es previsible que los amg sean también piezas claves para validar nuevos fármacos en fases preclínicas. 30 Investigacion hoy - ESS-Bilbao En humanos, existen algunos ejemplos de adicción oncogénica: imatinib en lmc con presencia de la proteína de fusión bcr-abl, transtuzumab (i.e., anticuerpo monoclonal contra her2/neu) en mujeres con cáncer de mama y amplificaciones de her2/neu, gefitinib (i.e., inhibidor de la actividad del receptor del egf) en pacientes con cáncer de pulmón y mutaciones de dicho receptor, etc. En todos ellos, la respuesta antitumoral es significativamente mejor en aquellos pacientes cuyos tumores presentan la adicción oncogénica diana para cada fármaco. Recientemente se ha producido una situación paradigmática sobre el impacto de identificar estos fenómenos en los diferentes tipos tumorales. En 2007 se comunicaron los resultados de un gran ensayo clínico en fase 3 que demostraba un incremento significativo en la supervivencia de pacientes con cáncer colo-rectal que sobre-expresaban el receptor del egf tratados con cetuximab. Posteriormente se sub-analizaron aquellos pacientes dentro de este estudio que presentaban mutaciones de kras. Estas mutaciones tienen capacidad para activar la vía de proliferación de ras/mapk independientemente del estado de expresión del receptor de egf. Los resultados fueron clarificadores: aquellos pacientes con kras mutado no presentaban respuesta al tratamiento con cetuximab. A nivel práctico, este estudio resume perfectamente la filosofía detrás de la medicina personalizada. Dicho concepto engloba el estudio de pacientes como individuos biológicos, permitiendo la adecuación de las intervenciones terapéuticas según las singularidades genómicas en cada individuo, con el fin último de maximizar la respuesta terapéutica. La aplicación de modelos personalizados en investigación clínica no se restringen a desarrollo farmacéutico, sino que se ha visto que pueden ser de gran utilidad para optimizar la predicción pronóstica en pacientes con cáncer6. El gasto sanitario asociado al manejo de pacientes oncológicos ha crecido exponencialmente en las últimas décadas. Gran parte de este gasto se debe a las nuevas terapias moleculares, cuyo precio supera con creces el de la quimioterapia tradicional. A modo de ejemplo, un tratamiento de seis meses para el cáncer colo-rectal con cinco-fluorouracilo/leucovorin cuesta $350 mientras que con cetuximab el precio ronda los $52.0007. Estudios preliminares sugieren que el ratio coste-eficacia del uso de ce- → → 31 PUBLICIDAD Investigacion hoy - diseño terapéutico basado en el conocimiento que recibían la droga. Este indicador proporcionó la base racional para llevar a cabo el ensayo en fase 3 controlado con placebo, que inequívocamente demostró la capacidad del sorafenib para incrementar la supervivencia de estos pacientes8. El efecto antitumoral se conseguía a través del bloqueo de vías de señalización imprescindibles para la progresión y diseminación tumoral. A pesar de que esta droga es considerada poco selectiva, su actividad muti-diana junto a su baja toxicidad han condicionado un efecto antitumoral notable asociado a efectos adversos asumibles y manejables. Obviamente, este avance debe acompañarse en el futuro con la evaluación de terapias moleculares contra vías de adicción más selectivas. Asimismo, el hecho de ser el primer estudio positivo con un tratamiento sistémico ha propiciado que los estudios fase 3 posteriores mimeticen los conceptos básicos de su diseño (restricción a pacientes sin insuficiencia hepática grave, estratificación por factores pronósticos, etc.). Todos estos criterios se han resumido en un documento de consenso y unas recomendaciones para el diseño de ensayos clínicos en pacientes con cáncer hepático9. tuximab se incrementa significativamente en pacientes con cáncer colorectal seleccionados de acuerdo al estado mutacional de kras. Además de justificación científica, parece que existen razones económicas para seleccionar pacientes a la hora de aplicar terapias moleculares. Cambios de paradigma y nuevos retos Hay una desproporción desfavorable entre el número de fármacos que son evaluados en fase 3 (la previa a su aprobación por agencias reguladoras) y los que finalmente demuestran beneficios significativos en la supervivencia. Desgraciadamente, los modelos experimentales preclínicos siguen sin predecir adecuadamente el comportamiento antitumoral de un fármaco en humanos. La consecuencia es que una mínima parte del número de compuestos antitumorales que se empiezan a evaluar (~1%) llegarán al mercado tras demostrar eficacia clínica contrastada. Es muy importante seleccionar apropiadamente los criterios para interrumpir la evaluación clínica de un fármaco en fases tempranas. Asimismo, es de vital importancia escoger las herramientas adecuadas para capturar efectividad antitumoral en el seno de ensayos clínicos. El desarrollo del sorafenib en el carcinoma hepatocelular (chc), la forma más frecuente de cáncer hepático primario, es un claro ejemplo de ello. Hasta 2007, ningún fármaco sistémico había demostrado incrementar la supervivencia de los pacientes con chc en estadío avanzado. Múltiples compuestos habían sido evaluados en estos pacientes: quimioterapia tradicional, interferón, tamoxifeno, etc., sin que ninguno demostrase clara eficacia. En 2006 se publican los resultados de un estudio en fase 2 con sorafenib, una nueva terapia molecular dirigida con actividad antiproliferativa (inhibición de la vía de ras/mapk) y antiangiogénica (inhibición de vegfr y pdgfr). Dichos resultados contenían una señal de actividad antineoplásica teniendo en cuenta la mediana de supervivencia de los pacientes 32 Conclusiones Las terapias moleculares han abierto una nueva era en la oncología. El diseño farmacológico tradicional da paso a uno basado en el conocimiento a priori de los determinantes genéticos que originan, mantienen y hacen progresar al cáncer. A corto plazo, el reto consiste en caracterizar estas alteraciones y discernir cuáles son las principales a la hora de conferir el fenotipo maligno. Una vez identificadas, sin duda serán las dianas ideales para bloqueo farmacológico selectivo. El nuevo modelo se asienta sobre una premisa de heterogeneidad tumoral intrínseca. En otras palabras, las vías de señalización alteradas en un paciente pueden no ser las mismas que en otro, a pesar de que ambos presenten tumores de la misma estirpe histológica. Es aún temprano para evaluar si esta aproximación al tratamiento oncológico será exitosa, pues sin duda todavía estamos en fase embrionaria. Sin embargo, creemos firmemente que el futuro de la investigación oncogenómica y su aplicación clínica pasan por perfeccionar estos abordajes basados en medicina personalizada. Su evaluación en el contexto de ensayos clínicos bien diseñados será fundamental para asegurar su traslado a la práctica clínica diaria. BIBLIOGRAFÍA 1.Jemal A, Siegel R, Ward E, Hao Y, Xu J, Thun MJ. Cancer statistics, 2009. CA Cancer J Clin 2009;59:225-49. Instituto Tomás Pascual, comprometidos con la sociedad y la ciencia El Instituto Tomás Pascual cumplirá cuatro años de vida el próximo mes de febrero. Se trata de una institución sin ánimo de lucro, comprometida al máximo con la sociedad científica moderna. Entre nuestros objetivos está detectar las diferentes inquietudes entre todos los colectivos de la sociedad española para crear foros de debate, jornadas, seminarios, mesas redondas y conferencias. A pesar de los apenas cuatro años de vida de nuestro Instituto, ya disponemos de más de una treintena de publicaciones y más de 20 colaboraciones con centros de investigación de acreditada reputación y excelencia. Queremos convertirnos en un referente entre los principales foros científicos de nuestro país por ello a través de nuestra web www.institutotomaspascual. es dejamos constancia de las actividades realizadas y trabajamos activamente en la divulgación de estos conocimientos, poniéndolos a disposición del público tanto en formato electrónico como en formato tradicional tipo libro, de forma completamente gratuita. Los avances científicos han influido, y siguen influyendo, en la evolución de la sociedad actual. Hoy día vivimos con un exceso de información, y particularmente de información científica que puede convertirse en un problema si es interpretada mal o fuera de contexto. Por lo tanto, existe una necesidad clara de crear nuevos foros independientes de conocimiento que canalicen bien la información y los avances científicos, adaptando y ajustando en cada momento los contenidos y la manera de divulgarlos a una audiencia receptora específica. Puesto que los intereses de los diferentes públicos van cambiando y dado que el acceso a la información es cada vez mayor, es obligado separar la paja del grano, y saber trasmitirla en un lenguaje adaptado al público que lo escucha, sea científico o no, tenga un nivel cultural mayor o menor. El objetivo es que la sociedad entienda el por qué de la investigación y cuáles son sus aplicaciones, ya sea en ciencia básica o aplicada. De esta manera, por fin, el hombre moderno será capaz de ubicarse en el espacio y el tiempo en el que vivimos. En el Instituto Tomás Pascual, distribuimos las actividades entre diversos colectivos, con la intención de crear una corriente crítica de información entre el sector científico, y el público en general, de modo que se logre un diálogo permanente y creativo entre ambos sectores que favorezca el desarrollo y la divulgación de nuevos conocimientos. Aunque el Instituto Tomás Pascual se centró en su origen en temas relacionados con nutrición y salud en general, los hábitos de vida saludables, la alimentación o la tecnología de los alimentos, sin renunciar a estos objetivos primarios actualmente deseamos abrirnos a otras nuevas áreas científicas de interés como la nutrigenómica, la proteómica o la conducta humana entre otras. Nos encontramos en un continuo estado de alerta ante nuevos descubrimientos. Para esta desafiante tarea de situarnos en la frontera de la ciencia y su divulgación, buscamos y establecemos colaboraciones estables y estrechas, como puede ser la creación de Cátedras o convenios de colaboración con centros de excelencia como es el caso del cic biogune. Ricardo Martí Fluxá, Presidente 2.Sawyers CL. Shifting paradigms: the seeds of oncogene addiction. Nat Med 2009;15:1158-61. 3.Mandal S, Moudgil M, Mandal SK. Rational drug design. Eur J Pharmacol 2009;625:90-100. 4.Meyerson M, Gabriel S, Getz G. Advances in understanding cancer genomes through secondgeneration sequencing. Nat Rev Genet 2010;11:685-96. 5.Hoshida Y, Villanueva A, Kobayashi M, et al. Gene expression in fixed tissues and outcome in hepatocellular carcinoma. N Engl J Med 2008;359:1995-2004. 6.Villanueva A, Hoshida Y, Toffanin S, et al. New strategies in hepatocellular carcinoma: genomic prognostic markers. Clin Cancer Res 2010;16:4688-94. 7.Meropol NJ, Schulman KA. Cost of cancer care: issues and implications. J Clin Oncol 2007;25:180-6. 8.Llovet JM, Ricci S, Mazzaferro V, et al. Sorafenib in advanced hepatocellular carcinoma. N Engl J Med 2008;359:378-90. 9.Llovet JM, Di Bisceglie AM, Bruix J, et al. Design and endpoints of clinical trials in hepatocellular carcinoma. J Natl Cancer Inst 2008;100:698-711. La divulgación científica responsable es un pilar fundamental de la ciencia moderna, puesto que el mensaje ha de tener el atractivo e interés necesario para que el público por sí solo continúe solicitando más información científica para poder profundizar en su conocimiento. Es un reto apasionante encontrar científicos en cada disciplina, capaces de transmitir con palabras sencillas y ejemplos cotidianos lo que para ellos es fácil de entender, y de esta manera así conseguir la necesaria conexión entre el mundo académico-científico y la sociedad, que permitan derribar el mito de que la ciencia es sólo para los científicos. Acto de Inauguración del Instituto Tomás Pascual Sanz en la Real Academia Nacional de Medicina, en febrero de 2007 Friday 17th, December 2010 HALF DAY SEMINAR Venue: Atrio cic biogune Free attendance Parque Tecnológico de Bizkaia Ed. 800 · 48160 DERIO Bizkaia, País Vasco (Spain) “From the lab to the market: Patents as vehicles of knowledge’s transfer” Organization 09:30-09:45 Seminar Opening José M Mato (cic biogune) 09:45-10:30 General view of the Patent System Manuel Illescas (Gónzalez-Bueno & Illescas -GBI-) 10:30-11:15 Intellectual Property and Technology Transfer from a Basic Research Chemical Laboratory: Some Personal Experiences Manuel Martín-Lomas (cic biomagune) 11:15-11:45 Coffee break 11:45-12:30 The information services of the SPTO: a tool for business support Esther Arias (Oficina Española Patentes y Marcas) 12:30-13:15 Intelectual Property and Smart Capital Angel Santos (CRB Inverbio SGECR) 13:15-14:00 Latest case law of the EPO in Biotechnology: Interpretation and application of the European Patent Convention to the recent technological developments Francisco Fernández-Brañas (European Patent Office) 14:00-14:15 Seminar Closing * All the speaches will be given in English language (no translation into other languages available) en Euskadi Detalle del edificio de CIC bioGUNE. Foto: Asier Larraza Collaborators 34 Entorno cic quiere ser una ventana abierta en la revista cic Network para mostrar los avances y novedades más significativas que se desarrollan en el ámbito de la comunidad científico-tecnológica de Euskadi. 36 Mesa de Ideas sobre la medición en ciencia, con Aurkene Alzua (cic tourgune), Enrique Zuazua (bcam) y Eudald Carbonell (Atapuerca). Modera: Iñaki Letona. 46 El Equipo de ESS-Bilbao presenta el «Centro de aceleradores y fuentes de neutrones a baja energía para el sur de Europa». 52 Alex Bittner, de cic nanogune, escribe sobre el proyecto «Magnifyco» que está desarrollando este centro de investigación. 56 Investigadores de cic microgune describen las «Tecnologías lab-on-a-chip para observar e identificar moléculas individuales». 62 Igor Campillo nos habla de la reciente celebración de Passion for Knowledge en Donostia, con motivo del x. Aniversario del Donostia International Physics Center. Entorno CIC - Mesa de ideas Mesa de ideas Xxxx xxxx xxx xxxxx La ciencia a medida Mesa de ideas con Eudald Carbonell, Aurkene Alzua y Enrique Zuazua. Modera: Iñaki Letona. La medición está asociada a la determinación o valoración. Ésta, normalmente, debe expresarse por un número con arreglo a convenciones o a normas admitidas, y por tanto, las mediciones configuran valores en unos casos y expresiones numéricas determinadas en otros, sujetas a la acción de medir. De hecho, lo que medimos, lo que se mide, está referido, en su mayor parte, a magnitudes. Precisan cálculos, principalmente matemáticos, que a veces, se efectúan a través de instrumentos de índole variable y con resul- Eudald Carbonell es co-director del yacimiento de Atapuerca, profesor de la Universidad Rovira i Virgili. Aurkene Alzua es directora general del Centro de Investigación Cooperativa en Turismo, cic tourgune. Enrique Zuazua director del Basque Center for Applied Mathematics (bcam). Iñaki Letona ex director general de Gaiker (30-06-2010), actualmente adscrito al Gabinete de Presidencia de Gaiker. 36 tados o datos variables de mayor o menor rigor, que se asocian a variables ligadas a la propia medición o datación. Se emplean, las empleamos, en trabajos que posibilitan, en la mayoría de los casos, resultados científicos, que a su vez, terminan en aplicaciones técnicas concretas de muy alto valor. La medición no está asociada únicamente a lo científico-tecnológico, lo está también al ámbito de las ciencias sociales y a otras disciplinas menos conocidas, en el campo y dominio científico. Un ejemplo a su vez, lo podríamos encontrar en la paleontología o en la antropología. Por ello, y con el fin pretendido, hemos reunido alrededor de esta mesa a una científica en turismo y nuevas tecnologías (Aurkene Alzua, directora general de cic tourgune), a un matemático (Enrique Zuazua, director de bcam) y a un paleontólogo (Eudald Carbonell, co-director de Atapuerca); las mediciones son el leit motiv de sus trabajos. Iñaki Letona: Hablemos de la necesidad de medir, ¿por y para qué? Enrique Zuazua: El momento que vivimos socialmente se caracteriza por la abundancia de datos. Si dentro de mil años se observa la evolución del planeta y de la especie humana, y lo que ha supuesto el siglo xx y la primera parte del xxi en su desarrollo, se llegará a la conclusión de que este período se ha caracterizado por la explosión del número y complejidad de datos que el ser humano genera y maneja. Interpretar y manejar todos esos datos supone un gran nuevo reto y oportunidad para el ser humano. Aurkene Alzua: Por su puesto, pero yo le añadiría que nos faltan aún datos para muchos de los retos científicos que nos proponemos. Hay una eclosión de datos, y ahí están la informática y las tecnologías que nos permiten seguir generando nueva información, formas novedosas de medición, que a su vez nos permiten generar nuevas preguntas para las que necesitaríamos nuevos tipos de datos que no son tan evidentes. Ese es nuestro reto. Por qué y para qué medir, comentabas. Yo añadiría: ¿podemos avanzar en el conocimiento sin medir? Creo que no. Y matizaría una cuestión. Cada procedimiento que usamos para medir está imbricado con nuestra visión del mundo, encorsetados en unos paradigmas conceptuales, y nos cuesta muchísimo salir de ellos y generar nuevas técnicas de medición para alcanzar una nueva comprensión de la realidad. Es nuestro caso, el de las ciencias sociales, queda pendiente la superación de las técnicas tradicionales y la incorporación de los nuevos diseños y el desarrollo tecnológico como instrumentos para abordar cuestiones científicas; si no superamos los métodos tradicionales, como sí se ha hecho en paleontología, no generaremos nuevo conocimiento. En el turismo como disciplina científica que aborda la movilidad humana nos está costando. Eudald Carbonell: En mi caso yo puedo hablar de la importancia de las mediciones redundantes, de la interacción de las distintas disciplinas para datar y medir lo hallado. Nosotros existimos como disciplina científica gracias al parámetro tiempo. Podemos establecer analogías entre lo que ocurre y lo que ocurrió, pero se debe medir, se trata del desarrollo de la especie y de nuestra conciencia, como humanos. El tiempo está ligado a los sentidos. Cuando se monitoriza algo se hace con los ojos o creando la óptica que los sustituye, el sonido, lo mismo con los aparatos que lo registran. Lo que hacemos al monitorizar es generar la conciencia que registran nuestros sentidos. La arqueología, a gran escala, es medir el tiempo, como también el espacio donde se encuentra el registro arqueológico. Nosotros no exhumamos ningún fósil que no haya sido medido y registrado en las tres dimensiones. Si no midiéramos, no existiríamos como agentes de conocimiento. Iñaki Letona: He sido testigo de vuestros registros, al levantar «ese» trocito de hueso o de vestigio importante. Reconstruis el lugar (coordenadas) y lo datáis informáticamente. Continuando con las preguntas, muchas de las variables que vemos y leemos, ¿hasta qué punto son interpretables por la comunidad no científica? Enrique Zuazua: Hay diferentes maneras de interpretar los datos. Un piloto de Fórmula 1, utiliza la turbulencia, la inestabilidad, la no linealidad..., para ganar ventaja. Los pilotos han entendido estos complejos fenómenos dinámicos y se han convertido en maestros de los mismos, a través de la experimentación. El otro día me encontré con un grupo de surfistas que desea impulsar una empresa para el desarrollo de generadores de olas. Me llamó muchísimo la atención hasta qué punto entendían la mecánica de fluidos sin haber estudiado a fondo sus ecuaciones. Viven la ola, la han vivido durante muchos años y han entendido su naturaleza. En efecto, si te pasas ocho horas al día en el agua de los 14 a los 34 años, entiendes la mecánica de los fluidos de otra manera. Son muchos los ejemplos. Los pastores nos hablan del tiempo, por ejemplo. Pero es cierto que la mayoría observamos los datos, pasamos a su lado, sin entenderlos. En efecto, con frecuencia, la plasticidad del cerebro que permite absorber los datos como las esponjas, ha de ser normalmente cultivada a través de los libros y un lento camino de formación y praxis. Todos los datos son intrínsecamente interpretables. Otra cosa es que podamos interpretarlos hoy. En el ámbito de las ciencias sociales se observa que cosas hasta hace poco incomprensibles, hoy forman parte de teorías bien sustentadas. El reto de entender es lo que hace que vivamos en el planeta. Si renunciáramos a hacerlo, la mayoría nos bajaríamos en marcha. Aurkene Alzua: Es una pregunta difícil esa de si los datos son interpretables por la comunidad no científica. Existen dos puertas para acceder a ese conocimiento. Una es la de la especialización y muchas veces en los medios de comunicación encontramos datos de una especificidad muy concreta que queda lejos de nuestras capacidades, requerimos de la ayuda del comunicador para entender o interpretarlos. Necesitamos esa ayuda. Pero independientemente de eso, es cierto que vivimos en un mundo de datos y todos estamos cada vez más acostumbrados a manejarlos e interpretarlos, a extraer significado del mismo. Yo creo, en el caso de la movilidad humana en turismo –personas que se mueven fuera de su entorno cotidiano–, hemos seguido un sistema restrictivo de medición y me pregunto si los datos generan conocimiento suficiente y en qué proporción representan la realidad. ¿Qué porcentaje o prisma de la realidad creemos entender o cuál es la distorsión derivada de las muestras observadas? Esa es la pregunta. Se ha trabajado poco la observación objetiva de manera empírica, hacer seguimiento del rastro del comportamiento humano, generar datos a través de sistemas de localización avanzados, observar esa conducta en un espacio temporal → 37 Entorno CIC - Mesa de ideas y poder inferir significado de ellos. Eso es más difícil. Ninguno de los datos de los que hemos hablado hasta ahora hacía referencia al mundo afectivo, por ejemplo. Se puede medir. ¿O no? ¿Cómo inferimos ese mundo afectivo sin ser intrusivos? Nosotros tenemos un gran reto: cómo medir la conducta humana de movilidad en el eje espacio temporal y además inferir algún tipo de emoción o de ciclo afectivo en esa itinerancia sin ser intrusivos, sin que esa persona deje de comportarse como iba a hacerlo. ¿Cómo penetro en ese mundo? Enrique Zuazua: Quizá lo podrías plantear al revés. ¿Del conjunto de personas que se mueven fuera de su entorno original, cuántas no lo hacen por una cuestión afectiva? Aurkene Alzua: Pero esa es otra pregunta. No es lo mismo vivir fuera de tu hábitat natural que salir de tu entorno cotidiano. Eudald Carbonell: Aunque de lo general a lo particular. Los conocimientos los afrontas recogiendo técnicas de otras disciplinas que te interesan y que te son útiles. Pero pienso que si no generas un cuerpo teórico que dé consistencia a las bases analíticas, difícilmente puedes establecer un trabajo sistémico sobre lo que haces. Si me planteara este problema formalmente, primero me preguntaría qué pasa con la dinámica de flujos; también a nivel de constantes demográficas; y cómo se integra la diversidad, porque cuando te mueves estás integrando. Yo intentaría partir de lo general y después establecer lo particular y en la redundancia asegurar el proceso. Quizás no sería un método científico del todo, pero sí uno riguroso. Si partes al revés, de lo que no conoces ni sabes lo que quieres hacer, es muy difícil dar respuestas y la Ciencia en su base tiene una tautología; lo importante no es la respuesta, sino la pregunta. Enrique Zuazua: Estás describiendo la mecánica de trabajo de la dinámica de fluidos, de la meteorología, la dinámica de gases y partículas que chocan, rebotan, se agrupan o disgregan. Aurkene Alzua: Es que yo creo que ese es nuestro trabajo. Se habla cada vez de una sociedad más líquida, de la sociología más allá. Enrique Zuazua: Ahí están los modelos de los fluidos, que cada vez trabajamos más. Internet y el flujo de información que se da en la red es un buen ejemplo. Es tan complejo el grafo que constituye la red, el ir y venir de mensajes, los que rebotan y los que pasan, que es imposible analizarlo todo. Por eso se desarrollan teorías sobre los límites fluidos, que indican las leyes macroscópicas que gobiernan el flujo de infor38 Entorno CIC - Mesa de ideas mación en la red. Luego está el detalle, en el que vivimos la mayoría, con nuestro navegador y nuestros emails, pero que en el fondo no es tan relevante de describir. Aurkene Alzua: Según si te metes en lo micro o si quieres abordar las estructuras subyacentes. Pero esa es la tendencia. Iñaki Letona: Estáis hablando de datos, mediciones, redes, y de socializar ese conocimiento en última instancia. ¿Eso no tiene que ver mucho con la divulgación, vamos, con dar a conocer? “El reto de entender es lo que hace que vivamos en el planeta. Si renunciáramos a hacerlo, la mayoría nos bajaríamos en marcha” Enrique Zuazua Eudald Carbonell: Esto es intrínseco del ser humano racional. Cuando abrimos la boca ya estamos midiendo. Desde que te levantas por la mañana somos numéricos, mides la hora, sobre todo en esta sociedad; si me tomo café, pido uno. Cuántos kilómetros me quedan, a qué hora llamaré o me llamarán. No hay nada que no midamos. No conozco en el cuerpo nada que no sea medido. Cuando tienes un bolígrafo en la mesa y quieres cogerlo, tienes que medir la distancia que hay entre tu mano y él para hacerlo. Somos ingenios diseñados para entender. Nuestro esqueleto está medido, hay una memoria en nuestro sistema que hace que por ensayo y error tengamos todas esas mediciones ya hechas. La ciencia natural, que se ha utilizado toda la vida, se ha utilizado para la agricultura, para el tiempo, para los ciclos de los animales. Los mamíferos, que no los primates, medimos todo. Ahora, somos conscientes de las medidas para las que tenemos métodos científicos. Aurkene Alzua: Eso es muy importante. La expresión de la medición nos ayuda a ser conscientes de ese gran mundo desconocido del que somos parte. La matemática, por ejemplo, nos ayuda a dar expresión y ser conscientes de ese entorno. Sin ella, no podríamos generar conocimiento. Iñaki Letona: ¿No se utiliza a la opinión pública con los datos que nosotros tenemos y usamos? ¿No os da la sensación de que la manipulamos? Enrique Zuazua: El otro día abrí el periódico y decía: «Obama ha llamado esta noche a Zapatero». No entendí por qué. Pero al cabo de cinco horas lo comprendí. «Recorte del 5%». Era una preparación. Es otra de las características de esta sociedad, esa capacidad de los media de incidir en la opinión pública. Iñaki Letona: Evidentemente esto tiene que ver con nuestra permeabilidad hacia los datos que nos dan. Aurkene Alzua: En ciencias sociales en general, académicos, técnicos, todos recogemos datos parametrizados en un contexto teórico. Será una intención política utilizarlos para otros fines. No creo que nosotros lo hagamos. Enrique Zuazua: Pero ahí entra un aspecto matemático que es el de las correlaciones, no siempre del todo obvias. Vivimos en un mundo en el que hay variables que son independientes unas de otras, como lo era el dinero que teníamos en la hucha de niños. Eso era un hecho seguro. Si en tu hucha tenías cien, ahí estaban. Entonces no éramos conscientes de que el dinero fluye y que lo que pasa en Hungría afecta a España, y a Euskadi, y al final te afecta a ti. Como cuando cierra una compañía aérea dejando a la gente con las maletas en el aeropuerto. El tema de las correlaciones es cada vez más complejo. El grafo del planeta es muy conexo; todos podemos contar cuántos pasos nos separan de alguien en concreto. Si le has dado la mano al Lehendakari, que seguro que se la ha dado al Rey, por ejemplo, solo un paso más te separa de Obama. Vivimos en una sociedad tan interconectada, que correlaciones muy poco visibles están afectando a la viabilidad de los negocios. La innovación se está basando no ya en nuevos productos o escenarios, sino en explotar esas correlaciones que otros no habían visto. Eudald Carbonell: Esto es interesante y complicado. Lo complicado hay que gestionarlo, lo complejo no podemos. Gracias al conocimiento somos capaces de vivir en lo complejo gestionando lo complicado, eso es posible, lo contrario no, como ya he dicho. Vamos a colapsar en este siglo, nuestra especie pasa por una crisis sistémica; se manifiesta primero en el sector financiero; luego en una crisis social, ideológica y psicológica... Es la primera vez en la historia de la evolución humana, que sepamos, que colapsaremos monitorizados. Esto se hundirá y lo estaremos viendo en nuestras pantallas. Estamos al horizonte de los acontecimientos de un agujero negro que pone en peligro nuestra propia evolución y algunas especies humanas somos conscientes porque tenemos información. Con sondas en los mares que controlan la humedad y la conectividad de las aguas; en los continentes, con estaciones que controlan día a día cada variable; con estructuras económicas que nos dicen que nuestro sistema capitalista está acabándose, que se está autodestruyendo porque no es capaz de generar estructuras suficientes para conservar su potencia. Y precisamente la ventaja de los números es que colapsaremos monitorizados y es una gran ventaja porque sabremos lo que está ocurriendo. La conciencia de especie nacerá como consecuencia de esta parametrización y monitorización de la realidad, y eso para mí es el gran cambio que estamos viviendo. Todo es medible, no se puede vivir sin medir, y ahora vamos a comprobarlo. La capacidad de medir nos dará la conciencia de especie. Pero esto no evitará que colapsemos. Enrique Zuazua: ¿Esa conciencia no existe ya? En Grecia existía el sabio nómada Protágoras de Abdera, al que le preguntaban de todo cuando iba de pueblo en pueblo; y solía decir que a la hora de medir el mundo el modelo era el propio hombre y por eso, por ejemplo, contamos de cinco en cinco (por los cinco dedos de la mano). Eudald Carbonell: Si hubiera conciencia de especie no colapsaríamos en este siglo. La conciencia de especie, en mi opinión, es cómo colectivamente pensamos como especie, no como hombres o como humanos. En el caso del ser humano la conciencia de especie es una serie de adquisiciones biológicas y culturales que permiten establecer relaciones entre no- sotros. Es cuando no piensas en clases sociales ni personas, sino en cómo formas parte de un organismo que no existe en todo el planeta. La conciencia de especie empieza a emerger con la crisis de los misiles, en los años 60 es la primera vez que somos conscientes de que podemos destruir el planeta. Esa conciencia empieza a nacer ahí, pero pienso que no será total hasta que seamos capaces de crear un espécimen humano, cuando nos deshumanicemos. Aparecerá por lo tanto cuando seamos “ Tenemos un gran reto: cómo medir la conducta humana de movilidad en el eje espacio temporal y además inferir algún tipo de emoción o de ciclo afectivo en esa itinerancia sin ser intrusivos” Aurkene Alzua capaces de construir, no después de destruir. Lo que estamos haciendo ahora -intentar generar vida autónoma, la ingeniería genética y poder construir una secuencia artificialmente- es crear una especie distinta por relación técnica. Por eso pienso que esta crisis monitorizada es el principio de esa conciencia de especie. En el siglo xxi habrá un colapso para metabolizar todo esto, y este colapso nos dará la capacidad de, mediante modelos matemáticos y sistemas, fundar algo que los humanos podamos dirigir y controlar. Cambiar orden por organización. Aurkene Alzua: Es una reflexión muy interesante pero, ¿no te parece que eso implica más que la medición? Porque tú estás hablando de medición y parametrización, lo que yo entiendo por medición y modelización, como algo parecido. Para modelizar necesitamos parametrizar, y lo cierto es que sí estamos dando algunos pasos hacia adelante. Un poco, en la reflexión de esta mesa redonda, he hecho una lista de asuntos en la medición que son retos pero que suponen un cambio importante en la manera en que ya no solo medimos, sino que gestionamos la medición. Son dos cosas diferentes. Y no estoy hablando de interpretación, sino estoy hablando de la gestión de la medición, de la generación de sistemas de apoyo para la gestión de la medición. Estamos un poco lejos de lo que se comenta, a mi parecer, porque todavía tenemos retos considerables. Se trata tanto de la generación de los datos, de poder generar datos de naturaleza muy diferente, y de nuevos modelos para poder gestionarlos… Antes hablaba de datos que son fugaces, que sólo se pueden gestionar en un momento dado de una manera determinada, de datos que tienen un determinado ciclo vital, son efímeros, pero nos permiten alcanzar otra serie de hitos y respuestas. Pero también estamos caminando hacia la gestión de los recursos, y los recursos son datos y metadatos; y son datos distribuidos sobre todo espacialmente y también temporalmente y que generan, nuevas formas de trabajar con mayor comprensión de la realidad. La estructura de las bases de datos son ya diferentes, antes has dado un ejemplo buenísimo, sobre cómo empezamos a trabajar con estructuras de bases de datos totalmente diferentes a las que, tradicionalmente, hemos utilizado en ciencias sociales. Cómo hacemos frente con datos distribuidos, heterogéneos, estructuras completamente irregulares, con recursos más que con datos. Las oportunidades que nos brindan las nuevas tecnologías, de abordar una observación de formas novedosa, nuevos datos, hace que podamos cuestionarnos en términos que nunca previamente hubiéramos sido capaces de diseñar o imaginar. Al principio se comentaba que por una parte es cierto que tenemos muchos datos pero nos encontramos también con grandes carencias a la hora de poder dar → 39 Entorno CIC - Mesa de ideas respuesta a ciertas preguntas porque éstos no responden debidamente a cuestiones complejas, con lo cual necesitamos nueva tecnología, nuevos diseños, que a su vez nos dan apoyo en este camino hacia lo que él comentaba: la modelización de esos datos en nuevos paradigmas o en nuevas cuestiones. Enrique Zuazua: Lo que pasa es que yo no sé si es tanto falta de datos, porque el modelo que ha descrito Eudald creo que es el modelo de la mecánica de los fluidos, de los gases, que es en el fondo la única que entendemos. Es como jugar al billar. Hay bolitas, tú le das a una, que a su vez le da a otra, la otra rebota… y al final produce carambolas totalmente inesperadas. Creo que en el ámbito que tú mencionas está la necesidad de axiomatizar, o sea, cuáles son las propiedades relevantes, qué sustituye al color, la temperatura, la velocidad; y eso es lo que creo que está por determinar. Y no sé si es tanto una cuestión de datos como más bien de todo lo contrario, que alguien se siente como decía Eudald antes y que haga el trabajo de Kant; y establezca lo que realmente determina el comportamiento social, los diez principales ingredientes y sus interacciones que puedan ser descritas en un pequeño mapa. No sé si eso está hecho. Me da la impresión de que para eso falta mucho. Y cuando esto se haga, los datos empezarán a encajar. Eudald Carbonell: Yo creo que antes que modelización, lo cual también es verdad, estoy de acuerdo en que es una parte técnica y mecánica y hace falta una teoría de la evolución social. Enrique Zuazua: La axiomatización. Eudald Carbonell: La teoría de la evolución, que funciona tremendamente bien, y nadie ha sido capaz de encontrar una brecha que ataque a la descendencia con modificación. Esta teoría está cerca de la realidad. No es una teoría en el sentido de un artefacto explicativo, sino que explica la propia realidad, con lo cual ya tampoco es una teoría, sino una metateoría. Es un metasistema porque normalmente los criterios normales en falsación científica dicen que una teoría que no puede ser falsada no es científica. Nadie ha podido establecer, ni desde la paleontología, ni la genética, ni la arqueología, ni la prehistoria, argumentos sólidos para rebatirla. Haría falta añadir a la teoría de la evolución biológica una teoría de la evolución social y ésta es mi gran aspiración, construir una teoría unificada de la evolución, explicar cómo somos capaces a través de las leyes de la biología y de sus interacciones culturales de establecer cuáles son las propiedades que 40 Entorno CIC - Mesa de ideas la socialización humana ha introducido en el proceso de adaptación biológica. Nosotros somos sociales por naturaleza, la emergencia de un descubrimiento y su socialización es un proceso que solo se da a nivel acumulativo y exponencial en los humanos, no se da en ninguna especie conocida. Hemos analizado desde seres unicelulares a pluricelulares, es decir, nuestra estructura social se ha retroalimentado gracias a la tecnología. La tecnología ha resocializado a los primates humanos. Tenemos algunos rudi- “¿Hasta qué punto son interpretables por la comunidad no científica muchas de las variables que vemos y leemos?” Iñaki Letona mentos para intentar establecer leyes si somos capaces de establecerlas y que complementen la teoría biológica de la evolución, así estaremos en condiciones de llegar a nuestro objetivo. Iñaki Letona: En esas mesas de sabios o de personas que intercambiáis datos y conocimiento, donde os reunís muchísimas disciplinas; por ejemplo, en los encuentros en las Islas Galápagos, se ha estado hablando efectivamente de que vamos hacia a una hecatombe… Eudald Carbonell: … a un colapso. Iñaki Letona: A esto, principalmente, quiero referirme. En esos debates o encuentros, de las diversas disciplinas o multidisciplinas en las que convergéis en ese tipo de pensamientos o de conclusiones ¿habéis llegado a poder evidenciar el que se pueda dar ese colapso o a plantearnos si no está ya en marcha y es irreversible? Existe una cierta irreversibilidad o al menos eso tengo entendido. ¿Hay datos? En este sentido, pueden estar equivocados? Es decir, de todas estas dataciones, de estos conocimientos, de estas hipótesis, tesis…. que se están poniendo encima de la mesa ¿hasta qué punto el error, tan importante en la medición, en este caso, es una esperanza? Enrique Zuazua: Eso depende de la plasticidad social. Si no fuera por ella no habría esperanza. Es como en el cristal del coche: si tiene un pequeño poro… No sabes cuánto va a durar: igual dura cinco años o toda la vida. Salvo que haya otro elemento o agente que dote al cristal de capacidad de cambiar de fase, eso es un defecto que inexorablemente le va a conducir al colapso, a la catástrofe, a la singularidad. La cuestión es si la sociedad tiene la suficiente plasticidad como para absorber esas burbujas que le han surgido y que aún están ahí. Iñaki Letona: Pero, ¿no se estarán confundiendo (interpretándolos erróneamente) con toda esa cantidad de datos que se manejan? ¿No nos estaremos confundiendo también nosotros? Enrique Zuazua: Ni nos confundimos ni nos dejamos de confundir, hay burbujas que están explotando permanentemente. La inmobiliaria ha sido igual la más gorda, la que todos hemos vivido. Todo occidente hemos perdido un 20% de nuestro patrimonio, pero la cuestión es si globalmente el planeta y los humanos tenemos suficiente plasticidad como especie como para transmutar a otra fase donde esa burbuja pueda ser digerida. Es como los gases en la digestión… Iñaki Letona: Ligado a esto, los matemáticos trabajáis con datos, con variables de muy diverso tipo… ¿Hasta qué punto los matemáticos no sois una ciencia que ayuda y que confunde? Enrique Zuazua: Confundir no; si uno usa bien las matemáticas, nunca confunde. Las matemáticas son una ciencia básica y, además, una herramienta pero, obviamente, hay que utilizarlas bien. Las paradojas de la estadística son bien conocidas, uno puede coger cualquier conjunto de datos y deducir cualquier tipo de comportamiento absurdo. Por eso hay que utilizarla bien. Iñaki Letona: Te lo comento por lo siguiente. Yo he leído hace poco sobre los fractales, en concreto, La geometría fractal de la naturaleza y, sin embargo, he visto que llevando esta teoría a su aplicación, p.e. a la biología, dentro de la complejidad que tiene, algunos matemáticos, físicos, médicos o biólogos, principalmente, opinaban que las conclusiones a las que se llegaban a través de la aplicación de la geometría fractal podían ser un engaño o se llegaba a conclusiones erróneas. Enrique Zuazua: La teoría fractal lo único que indica es que hay determinadas estructuras geométricas que pueden ser reproducidas y que lo puedes hacer, por ejemplo, en los azulejos. La naturaleza acierta, en cierta medida reproduce estos fractales y acaba generando fronteras suaves allá donde parece que hay rugosidad, armonía donde hay desorden, etc. Pero no veo cómo la teoría de los fractales, que está basada en leyes autorreproductivas de funciones, que a veces convergen y otras divergen, puede confundir si uno las utiliza bien. Evidentemente la naturaleza es mucho más rica que cualquier construcción matemática y precisamente por eso seguimos haciendo ciencia. Pero no creo que se pueda achacar nada a la teoría fractal, que no es más que una clase de conjuntos que se fueron encontrando desde que se inició esa reflexión sobre incompletitud, la complejidad, los conjuntos de Cantor,… Los conjuntos fractales no son más que reflejos de una constatación. Basta mirar el relieve de un objeto en cualquier ámbito de la naturaleza, para darse cuenta que no es solamente ceros y unos repartidos de manera regular. Pero no sé cómo se puede decir que la teoría fractal tiene algo de incierto o de confuso salvo que sea aquella confusión a la que pueda conducir el mal uso de la misma. Iñaki Letona: Cambiando de tema, me gustaría conocer cuáles son las variables o datos que estáis trabajando, por ejemplo en vuestro caso, en cic tourgune. Aurkene Alzua: Estamos trabajando en ámbitos muy diferentes, pero te doy dos ejemplos. Uno, lo micro, poder medir, representar numéricamente; primero, los flujos de las personas que están fuera de su hábitat cotidiano en un entorno no habitual, no es mi casa o mi oficina. Por ejemplo, cualquier ecosistema o cualquier espacio determinado pueden tener un doble papel. Para ti Bilbao puede ser cotidiano y para mí no. Tenemos que saber quién es el visitante, quién está fuera de su entorno cotidiano, que es una gran dificultad. Es importantísimo poder identificar esa partícula en ese espacio y entender y medir los ciclos afectivos de esas personas para empezar a poder inferir algún tipo de conocimiento entre patrones de flujos con evoluciones afectivas en un momento dado. ¿A qué se debe? Se sabe muy poco sobre cómo se «consume» el lugar, o el espacio temporal que hacemos las personas en un desplazamiento, como ejemplo de turismo. Es una cuestión muy difícil de medir y eso es lo que estamos haciendo en lo micro, en la medición, que tiene que ver mucho con todas las nuevas “La arqueología, a gran escala, es medir el tiempo, como también el espacio donde se encuentra el registro arqueológico. Si no midiéramos, no existiríamos como agentes de conocimiento” Eudald Carbonell tecnologías que nos ayudan a seguir el rastro de una persona; el móvil, el dispositivo móvil es una herramienta de trabajo para nosotros. Y en lo macro, estamos buscando estructuras simples de comportamiento humano, más allá de lo coyuntural que viene dado por las realidades culturales y sociales en cada caso… Esos son los dos grandes retos y ahí nos estamos encontrando con muchísimos problemas de los que he estado hablando antes, de la interoperabilidad, de la naturaleza de los datos, de la gestión de todos los datos, de la construcción de variables, etc. Iñaki Letona: Eudald, vais a empezar una nueva campaña. La trigésimo segunda campaña, tengo entendido, campaña con otras mediciones… Aunque parece que siempre se repiten las mismas cosas, continuareis midiendo y descubriendo … Eudald Carbonell: Sí, empezamos la Campaña en Atapuerca el día 15 de junio cada año. Pienso que en nuestro sistema científico la redundancia es la que nos ha permitido establecer criterios que tienen cierta viabilidad evolutiva. Nosotros hemos tomado una serie de caminos y uno de los fundamentales y básicos es la medición del tiempo. Pongo un ejemplo para ilustraros. Cuando llegamos a Atapuerca con el profesor Emiliano Aguirre hace más de treinta años, encontramos una mandíbula de 300.000 años. No había ningún dato radiométrico, solo la morfología de la mandíbula, pero sin aplicación de series isotópicas. Hemos profundizado en lo que es el origen del tiempo y de los homínidos en Atapuerca. Y de cuando empezamos con registros de una cronología desde 300.000, ahora estamos en 1.300.000. El reconocer una serie estadística evolutiva que asocie herramientas y homínidos y contexto faunístico, nos permite trazar una secuencia en arbusto, o la genética, que nos acerca a la comprensión de los fenómenos de adaptación y adquisición de los homínidos en este tiempo. Con lo cual, medir, paleomagnetismo, núclidos cosmogénicos, toda la física, y la física química que es la que nos permite la gran escala temporal para tener elementos parados en el tiempo, para establecer analogías y poder observar los cambios en estos procesos. Y después, por supuesto, un segundo nivel, son los análisis de laboratorio que son la medición, espécimen por espécimen, tanto a nivel botánico como a nivel paleontológico que nos expliquen la ontogenia de los objetos, es decir, cómo estos objetos en esta escala general juegan un papel de variabilidad y cómo somos capaces de reducir esta variabilidad en un proceso filogenético, es lo que estamos trabajando ahora. Precisamente, a mí esta experiencia empírica y mis formas de conocer, me han dado la pauta para intentar abordar con un equipo de prospectiva, de prognosis, sobre los humanos, instrumentar elementos para la teoría de la evolución social. → 41 Entorno CIC - Mesa de ideas Enrique Zuazua: Los matemáticos tenemos tendencia, como todos los seres humanos, a intentar llevar las cosas a nuestro terreno, y nuestro terreno es el de los parámetros adimensionales. Entonces los matemáticos buscamos paradigmas como el que comentaba Aurkene, de lo micro frente a lo macro. Antes hablaba de encontrar modelos fluidos en el ámbito de las redes, y no es tan de sorprender lo que antes comentaba Aurkene en el ámbito del comportamiento de las personas cuando están fuera de su propio hábitat; uno empieza a pensar en modelos, en axiomas, en dinámica, en evolución y, posiblemente, se dará cuenta de que no es tan distinto a lo que antes hablábamos de las bolas de billar, de los fluidos, de las redes, de Internet, etc. A los matemáticos nos gusta llevar las cosas a ese terreno. Cuando lo que tenemos es un grafo, tenemos conexiones entre sus elementos y nodos e intentamos determinar qué es lo que hace que algunos puntos de ese grafo sean más importantes que otros. Por ejemplo, el algoritmo de Google, es un algoritmo simplemente matemático. ¿Por qué cuando uno pone en Google, por ejemplo, Bilbao, te sale seguramente la página web del Ayuntamiento de Bilbao y no te sale la página web de mi vecino que también se apellida Bilbao? Es la ordenación inducida por primer autovector de la matriz de conectividad del grafo que, según el teorema de Perron, en el caso de una matriz simétrica definida positiva, tiene todas las entradas positivas y como son positivas las puedes ordenar. Es en eso donde los matemáticos experimentamos el placer, el trabajar con ese tipo de temas. Dicho esto, como en bcam somos un centro de matemática aplicada, todos los días tenemos que abordar temas más concretos, pero repito, siempre intentamos llevarlo al terreno de lo adimensional, de los axiomas y los modelos en temas, por ejemplo, como la medición del viento. Tú antes lo comentabas, los datos, la estadística, eso es algo tremendamente complejo. En el ámbito de la energía, en la energía eólica, por ejemplo, uno de los temas claves es la medición del viento, cómo se mide, cómo se extraen tendencias, consecuencias, etc. Tenemos ámbitos de trabajo variados como son las redes de telecomunicaciones, las energías, los fluidos, la biología matemática, la teoría de la elasticidad de los materiales, donde tenemos siempre que contrastar lo que hacemos con los datos numéricos y experimentales. Pero ahí tenemos un gran aliado que es el ordenador. Al final, los matemáticos hacemos modelos teó42 Entorno CIC - Mesa de ideas ricos que después trasladamos a algoritmos y que testamos en el ordenador. Muy rara vez hoy en día las matemáticas se cruzan con las tablas de datos directamente. En la actualidad, hay un intermediario, que es el ordenador, o sea, teoría matemática, ensayo en el ordenador y contraste con los datos. Y, a partir de ahí, como explicaba Eudald, esa mejora constante de los modelos, que evidentemente siempre son necesariamente demasiado simplificados. Esa mejora se produce a través del procedimiento de la asimilación de datos, que es lo que se ha hecho en meteorología de manera sistemática para ir mejorando los modelos, es decir, aprovechar el defecto del modelo que tenemos hoy para mejorarlo. ¿Por qué? Porque si somos capaces de evaluar qué defecto tiene el modelo ya sabemos en qué dirección lo tenemos que mejorar. Precisamente, con esa idea a mí me suele gustar poner un ejemplo para explicar lo que de alguna manera inspira a la teoría de la asimilación de datos, la optimización, el diseño matemático, etc.: Estamos de noche en el monte, no vemos nada, pero queremos bajar a casa, ¿qué haríamos? Palpar el terreno y avanzar hacia abajo. Pero eso ya sabemos que lo tenemos que volver a verificar de vez en cuando porque la pendiente del terreno puede volver a cambiar. Y eso es lo que en matemáticas se llama los métodos gradientes de descenso y es lo que en la práctica, con el intermediario del ordenador, nos está permitiendo acercar los modelos matemáticos a realidades cada vez más complejas. Y, por eso, el tiempo lo podemos predecir para siete días y no para dos como hace veinte años. Ahora, estamos todavía lejos de los millones de años… Aurkene Alzua: Sin las matemáticas y las capacidades computacionales no podríamos avanzar. La mitad del trabajo o más que hacemos en nuestro centro tiene que ver con ello para la transformación de los datos porque, en nuestro caso, trabajamos en esta construcción de variables y de modelos complejos, no podríamos generar ningún puente hacia pequeños fragmentos de información, base de algunas premisas teóricas. Vosotros también trabajaréis y el apoyo de las matemáticas es fundamental. Eudald Carbonell: Yo hice mi tesis sobre El sistema lógico analítico aplicado a los conjuntos líticos pleistocenos del Mediterráneo occidental El Montgri (Girona). Me di cuenta que las clasificaciones que había eran arbitrarias, los objetos en vez de clasificarlos con una serie de variables conocidas se hacían por analogía. Por ejemplo, “¿No se utiliza a la opinión pública con los datos que nosotros tenemos y usamos? ” Iñaki Letona “Los matemáticos tenemos tendencia, como todos los seres humanos, a intentar llevar las cosas a nuestro terreno, el de los parámetros adimensionales” “La Ciencia en su base tiene una tautología; lo importante no es la respuesta, sino la pregunta” “La expresión de la medición nos ayuda a ser conscientes de ese gran mundo desconocido del que somos parte” Eudald Carbonell Aurkene Alzua Enrique Zuazua por la forma, una pieza tallada tenía forma de tortuga… núcleo de tortuga, esto es muy pedestre. Esta pieza tiene que ponerse en espaciotiempo, apliqué la teoría de la información y apliqué, porque me pareció que era lo más correcto, la termo-dinámica del conocimiento de la morfología de los objetos. Apliqué el principio de entropía, una piedra que es un canto redondo, cuando le vas dando golpes hasta hacer un hacha, ¿qué ha pasado? Ha habido una pérdida de peso, de volumen y la aparición de formas intermedias hasta llegar a una forma final. Pues lo que hice fue, de los ochenta o noventa caracteres que utilizaban para clasificar una piedra lo reduje a seis. ¿Cómo lo hice? Muy sencillo, con estadística inferencial. Con análisis de correspondencia y análisis de componente principal, algoritmos muy sencillos, los que me permitieron ver que el peso de los ejes, con seis variables o siete de clasificación del objeto, obtenía entre el 60 y 90 % de información. Lo que hice fue suprimir las fichas de ordenador que había de la época que tenías que tomar decenas de datos. Reduje el número de variables para realización del análisis tecnológico-analítico. La teoría de la información y la termo-dinámica me dieron la llave para hacer el proceso y efectivamente, reduje a seis o siete. Este sistema de clasificación se ha aplicado en todo el mundo que es el éxito para establecer variables de la evolución de las piedras. Iñaki Letona: Insisto, con el aspecto del posible «error». ¿No os asusta el miedo al error? El error es intrínseco en la medición. Un error de datación, un error de aplicación en una variable, un error al tomar determinado tipo de σ (sigma)… Enrique Zuazua: Aquí los científicos lo que tenemos que hacer no es acertar sino errar mejor. Eudald Carbonell: Te puedo ilustrar lo que estás diciendo: se trata de una cuestión de paradigma científico. Cuando nosotros descubrimos el Homo Antecessor, trabajábamos en una secuencia estatigráfica de la cual teníamos muy poca información. Hay secuencias que las tenemos datadas porque llevamos mucho tiempo trabajando en ellas y cuando llegamos a un nivel conocemos la biocenosis en cronología. Cuando hacíamos lo del Antecessor no sabíamos, encontramos los restos, se hacen las dataciones paleomagnéticas en este caso y dices, miren ustedes, la impresión paleomagnética está por encima de este nivel, es decir, lo que han encontrado tiene más de 850.000 años. Automáticamente, quien hace eso es el doctor Parés, un colega que trabajaba en Michigan (Estados Unidos), y le digo, ¿estás seguro?, ¿has hecho varias dataciones? Si no has hecho redundancia y lo que publicas es falso, posiblemente nunca más publiques nada, porque los colegas no entenderán que es un error, se entenderá que has hecho un protocolo mal. Por ejemplo, Harris, que trabajó en África, tuvo una confusión geoló- gica, porque no tenía un buen geólogo, y publicó unas industrias que tenían 8.000 años como si tuvieran dos millones y medio. Nunca más ha publicado nada. Esto realmente es un error muy grave, ¿por qué? Porque se ha hecho mal, el error no viene de que ha fallado una máquina, es porque se ha hecho mal. Todos cometemos errores, tenemos que evitarlos. Aurkene Alzua: En el proceso metodológico ha habido un error en su caso. Yo creo que existen diferentes tipos de errores, pero lo cierto es que si le llamamos error al poder superar un paradigma y al poder enfrentarte a un nuevo método con un nuevo instrumento, que quizás es un camino erróneo, pero no hay otra manera para poder avanzar en el conocimiento... Yo no tengo ningún miedo al error. Lo que sí tengo es miedo a la falta de metodología científica, de procesos bien controlados, del trabajo sistémico y del rigor. Cuando carecemos de esas habilidades o de esos procedimientos, entonces, se acabó. Enrique Zuazua: Lo que sí es cierto es que en matemáticas antes el trabajo era muy individual, de modo que el margen de error estaba controlado a la mínima. Evidentemente, sí podía haber un error, pero cada uno, de alguna manera, trabajaba en los ámbitos en los que se sentía técnicamente capaz y, por tanto, llegaba hasta donde llegaba. La cosa empieza a ser más compleja ahora donde el tipo de problemática a la que nos enfrentamos, muchas veces en centros como el nuestro, donde tienes que hacer frente a retos más ambiciosos, más complejos, más multidisciplinares, te obliga a involucrar a diferentes personas. Entonces, el coordinador del equipo de investigación no tiene más remedio que ceder parcelas de responsabilidad, de verificación, a colaboradores. Y es ahí donde uno, efectivamente, aumenta el riesgo. Nosotros cuando trabajamos en el ámbito aplicado industrial, como está claro que lo que desarrollamos son algoritmos para modelos más o menos adimensionales, después tiene que haber un post-proceso, una adaptación, un trabajo de ingeniería, de verificación antes de ser aplicados. Ahora, dentro del ámbito estrictamente matemático sí que es verdad que en el momento de poner varias disciplinas juntas se pierde un poco esa capacidad de verificación. Eudald Carbonell: Vuelvo al ejemplo de la última mandíbula que descubrimos. Lo que se hizo para asegurar que haya integración de datos es reunir todo el equipo de especialistas delante del yacimiento, físicamente, en el nivel donde se encontró el fósil, que explicarán el contexto y toda la información analítica que proporciona el mismo. Los geocronólogos que presentan las series corregidas estadísticamente, los botánicos que presentan las muestras palinogramas, los arqueólogos que presentan sus datos y los últimos trabajos que se han hecho sobre el pe- → 43 Entorno CIC - Mesa de ideas riodo que estamos trabajando. Y, en torno a eso, se certifica el artículo que después se publica. El resultado es un artículo consistente. Aurkene Alzua: Es cierto que en sistemas distribuidos los errores crecen. No sé si es su caso o el nuestro. Pero lo cierto es que no solo no trabajamos solos, sino que hay muchos equipos parecidos al nuestro que trabajan en el mundo en cuestiones similares, con lo cual también tenemos capacidad de contrastar lo que estamos haciendo. Y creo que eso es muy importante. Cosas parecidas a las que hacemos aquí, se están haciendo en Filadelfia, en la Universidad de Temple o en Viena. Tengo colegas que están haciendo cuestiones similares y puedo ver cuán divergente o dispar es mi trabajo con respecto al suyo. Y yo creo que eso es también interesante, en el fondo tampoco estamos trabajando de manera tan aislada. Iñaki Letona: ¿Puede existir la física sin las matemáticas? ¿Tendrían sentido las matemáticas sin la física? ¿Encuentran las matemáticas la medición en la física? ¿Son primas hermanas? Enrique Zuazua: Matemática y física son lo mismo. Newton escribió los Principia Mathematica, y estableció los principios de la física y todo lo que hoy eso arrastra en los ámbitos de las ciencias sociales, de la antropología. También en esos ámbitos intentamos aplicar los principia de Newton en realidad. Entonces, las matemáticas y la física son hermanas gemelas y, a partir de ahí, establecer fronteras es muy difícil. De hecho existe esa disciplina que se denomina Física Matemática. Hoy se reseñaba el fallecimiento de Vladimir Arnold, como 44 gran físico y matemático, de la teoría de los sistemas dinámicos, los billares no lineales, etc. Arnold dio una charla muy bonita hace veintitantos años en Nueva York pues le habían dado el Premio del Tiempo –un joyero suizo judío que había hecho dinero y que había dotado el Premio del Tiempo–, por hacer una relectura de los principia de Newton. Él enfatizaba la dificultad de establecer las fronteras. Lo que sí es cierto es que hay una parte de esa física matemática que cada vez se ocupa de teorías más abstractas y más identificadas con las matemáticas; y otra parte de la física, que es ya más experimental, que trabaja con los láseres en los laboratorios de óptica y que se identifica más con la física de hoy. Pero siempre hay una interfase extremadamente difusa y común. Y estoy convencido que en el futuro va a seguir siendo así. Es como la informática. Me acuerdo del error histórico de los matemáticos al desinteresarse por la nuevas facultades de informática. Diez años después vieron cómo muchos alumnos se iban a la facultad de informática. Pero ahora, dentro de las matemáticas, uno de los grandes temas es el de la complejidad algorítmica, que ahora tiene sentido a través de los ordenadores y que consiste en intentar entender si los ordenadores van a ser capaces de crear realidades virtuales, que no van a corresponder con las que realmente nosotros conocemos e identificamos como físicas. Al final, las matemáticas quedarán como un punto muy pequeño en el mapa de las ciencias, pero en el centro, irrigando un poco todo el sistema científico. Cada vez más, cuando oyes hablar a nuestros colegas desde las ciencias sociales, la antropología, la paleontología, te das cuenta que el nivel de las matemáticas va creciendo también en esas disciplinas, como si el grifo estuviera abierto. Aurkene Alzua: Yo ahondaría un poco más en lo que dices, estoy totalmente de acuerdo. En mi opinión ha sido un error hacer que las ciencias naturales y la matemática trabajarán a espaldas de las ciencias sociales y las humanidades. Yo creo que no vamos a ningún sitio así. De hecho, la realidad nos está diciendo que esa convergencia es la que está generando importantes innovaciones en el campo científico y nos está ayudando a comprender mejor los fenómenos de nuestro entorno, sean de carácter natural o sociales. Creo que seguiremos requiriendo de trabajar más en representaciones numéricas. Nosotros buscamos dar una representación numérica a un fenómeno específico y poder representar también lingüísticamente lenguajes lógicos, gramáticas lógicas, que es la base prácticamente de todo lo demás. Yo creo que la matemática se ha beneficiado de la filosofía, por ejemplo, del pensamiento abstracto. Y yo creo que estaba y estará en la base de todo lo que hacemos. La finalidad está en llegar a mayores grados de comprensión mediante la representación formal del conocimiento. Enrique Zuazua: Einstein dijo algo sí como: ¿cómo puede ser que la matemática, una construcción artificial de la mente humana, sea capaz de describir la realidad con tanta fidelidad? Xxxx xxxx xxx xxxxx Entorno CIC - Proyectos de investigación Proyectos de investigación en el diseño y explotación de una instalación local, que desarrollen capacidades para traccionar a un entorno industrial con actividad incipiente en el suministro de equipamiento con destino a grandes instalaciones de experimentación avanzada. Consecuencia directa del acuerdo a que se hace referencia en el anterior párrafo ha sido la nucleación de un equipo de proyecto que durante el pasado año ha llevado a cabo un diseño de la instalación a construir por ess-Bilbao y sus posibles aplicaciones, manteniendo al mismo tiempo la colaboración en las labores de rediseño que encara en el momento presente el proyecto ess3. ess-bilbao En su primer año de andadura en esta nueva fase, ess-Bilbao ha completado el diseño básico del acelerador lineal de iones ligeros y de la fuente de generación de neutrones a baja energía. De estos, la sección del acelerador que se opera a temperatura ambiente está actualmente en construcción. La máquina ha sido diseñada para cumplir con las especificaciones del proyecto ess, tal y como fueron descritas por la comunidad de expertos1 y que no han sufrido revisión. El nuevo centro de Bilbao servirá como base para soporte en el sur de Europa de diversas actividades en ciencia y tecnología de aceleradores en el contexto de ess así como de las diferentes colaboraciones actualmente en curso. Además se han previsto un buen número de aplicaciones para los haces de iones ligeros y los neutrones rápidos producidos en la instalación mediante reacciones de captura de protones a baja energía. ESS-Bilbao: E. Abad, I. Arredondo, I. Badillo, D. Belver, F.J. Bermejo, I. Bustinduy, D. Cano, O.D. Cortázar, D. de Cos, S. Djekic, S. Domingo, P. Echevarría, M. Eguiraun, V. Etxebarria, D. Fernández, F.J. Fernandez, J. Feuchtwanger, N. Garmendia, G. Harper, J. Jugo, H. Hassanzadegan, G. Larrea, F. Legarda, M. Magan, R. Martínez, A. Megia, L. Muguira, G. Mujika, J.L. Muñóz, A. Ortega, J. Ortega, M. Perlado, J. Portilla, I. Rueda, R. San Martín, F. Sordo, V. Toyos, A. Vizcaino 46 90 mA 300 MeV 75 kW 50 Hz 1.5 ms 352.2 MHz 9 MV/m Tabla 1. Principales parámetros del acelerador de protones de ess Bilbao Ess-Bilbao: Centro de aceleradores y fuente de neutrones a baja energía para el sur de Europa Motivación Hace ya algo más de un año, una reunión de representantes de países con intereses diversos en el uso de haces de neutrones para investigación en Ciencias de la Materia Condensada, votaba abrumadoramente a favor de la ubicación en el sur de Suecia (Lund) del futuro proyecto Max. corriente protones Max. energía final Max. potencia de haz Max. tasa repetición Longitud de pulso Frecuencia de paquetes Max. gradiente cavidades de Fuente Europea de Neutrones por Espalación. La decisión daba al traste con las esperanzas de localizar en Bizkaia la única gran instalación europea presente en todo el territorio estatal. No es este lugar para discutir las razones de tal resultado, que comprenden tanto la escasa actividad española en la provisión de instrumentos científicos2 como la claramente mejorable gestión de algunos aspectos de la candidatura. Lo que aquí es sin embargo relevante concierne a la reacción de los responsables ministeriales quienes al suscribir un acuerdo bilateral en el marco del proyecto ess han habilitado la apertura de una ventana de oportunidad que debiera permitir reducir nuestro fuerte déficit tecnológico en instrumentación científica avanzada. Tal actuación debiera permitir establecer en nuestro país un núcleo de expertos en tecnología de aceleradores de potencia y sus aplicaciones con experiencia directa Descripción del Proyecto en Ejecución Las tareas que ess-Bilbao (essb) acomete en el presente conciernen al diseño de detalle y construcción de un acelerador lineal (linac) para iones ligeros (protones, iones H o D negativos) capaz de alcanzar energías finales y emplear intensidades de corriente que permitan su explotación en un abanico amplio de especialidades que engloban desde aspectos básicos en ciencias de materiales, electrónica, radiobiología y oncología radioterápica experimental o física fundamental, hasta desarrollos de tecnología de componentes y subsistemas eléctricos y electrónicos, mecánicos, de radiofrecuencia de alta potencia, de control etc. El linac ha sido concebido como una máquina multipropósito, única en su género al sur de Europa, cuyo objeto es el desarrollo en nuestro país de una base de expertos en tecnología de aceleradores. Ello se ha realizado cumpliendo además el diseño de la máquina con las especificaciones requeridas para poder eventualmente emplear la tecnología desarrollada en el inyector de la European Spallation Source (ess), una vez que este último proyecto comience a despegar. El proyecto essb trata pues de desarrollar localmente capacidades significativas necesarias para soportar la participación del país en un buen número de proyectos de aceleradores en todo el mundo en los que el estado participa a través de suscripciones dinerarias (cern, esrf) o mediante acuerdos de desarrollo de tecnológía (fair, isis, ifmif/eveda). Este artículo presenta el estado actual de los proyectos en curso en essb dirigidos a construir la primera sección del acelerador que opera a temperatura ambiente, así como un criomódulo de test para dos resonadores superconductores de tipo radial (spoke resonators), que demuestre la viabilidad de esta tecnología superconductora bajo haz en la segunda sección del linac. Además se resumen algunas de las aplicaciones previstas tanto para los haces de iones ligeros como para los neutrones que se producirán. Las previsiones actuales se centran en un acelerador de protones/H-, aunque está en estudio la posibilidad de usar un inyector común para protones y deuterones de baja energía. Diseño del LINAC de protones/iones ligeros Los parámetros básicos del acelerador de Bilbao se muestran en la Tabla 1. Todas las estructuras de aceleración planeadas o en desarrollo se han diseñado para satisfacer las exigentes demandas de ess1, de modo que la tecnología desarrollada pudiera eventualmente ser usada en la parte de baja energía del linac de ess. La única decisión pendiente sobre los componentes a temperatura ambiente de la máquina se refiere a la posibilidad de incluir una segunda línea para acelerar deuterones a baja energía, además de la línea ordinaria de aceleración de protones. La ventaja de los deuterones con respecto a los protones es la alta producción neutrónica al impactar en blancos a energías moderadas, así como la muy remarcable dependencia angular del espectro de los neutrones rápidos generados, que puede ser útil Angulo 0º 15º 40º en muchos campos, como por ejemplo en aplicaciones de física nuclear. 13 del acelerador 13 se describe a13contiEl estado actual de los componentes 0 < E < 10 MeV 3.30 10 3.17 10 2.48 10 nuación somera. 3.91 10 12 4.25 10 12 3.14 10 12 10 <deEforma < 20 MeV En la 20 Fig.<1,Ese<muestra de forma esquemática la estructura del acelerador 2.35 10 12 2.15 10 12 1.06 10 12 30 MeV de essb, cuya fase inicial la constituyen las fuentes de partículas cargadas 12 11 1.64 10 7.17 10 1.58 10 11 30 < E < 40 MeV (iones) a acelerar, seguido por una sección de estructuras de aceleración 13 4.08 1013y una sección 3.87 10 que 2.90 1013 por Total a temperatura ambiente que operan está formada elementos que contienen cavidades superconductoras. Por razones de viabilidad así como con el fin de permitir la explotación de la instalación en un tiempo razonablemente corto, hemos programado la construcción de la infraestructura en dos fases bien determinadas como: ···· Fase 1. Involucra la construcción de la máquina con capacidad de aceleración del haz hasta unos 50 MeV. Tal fase contempla la construcción y entrada en funcionamiento de las estructuras que operan a temperatura ambiente así como un primer criomódulo de prueba que contiene dos resonadores superconductores. Se prevé en esta fase extraer haces de protones a varias energías con vistas a su aplicación directa en varias líneas experimentales así como la construcción de un blanco de generación neutrónico basado en reacciones de producción directa (p,n) sobre un material ligero. ···· Fase 2. Contempla esta segunda fase la extensión del acelerador mediante elementos basados en tecnología superconductora hasta alcanzar una energía final de 300 MeV. Se prevé en esta fase remplazar el blanco de baja energía por una fuente de generación neutrónica mediante reacciones de espalación sobre un blanco rotatorio de metal pesado. Describimos a continuación de forma conceptual las estructuras involucradas en la construcción de la primera fase. Estructuras del acelerador Fuente de Iones El primer componente de un acelerador lo constituye una fuente de iones. En el caso de un acelerador de electrones, tal fuente es usualmente un cañón de electrones como por ejemplo un cátodo metálico sometido a alta temperatura. En un acelerador de protones, la fuente parte de hidrógeno molecular comercial, al que se somete a procesos de disociación molecular, añadiendo en casos un electrón adicional al ion H o extrayendo H cargados positivamente en otros. La primera fuente de iones de essb ha sido construida e instalada, realizándose en la actualidad pruebas de los diversos subsistemas y entrará en explotación próximamente. Comprende una fuente H- tipo trampa de Penning basado en el diseño de isis-fets4, capaz de suministrar un → 47 Entorno CIC - Proyectos de investigación Entorno CIC - Proyectos de investigación haz de iones de 70 mA en pulsos de hasta 1.5 ms de duración y típicas tasas de repetición de 50 Hz. A continuación se ha instalado un conjunto completo de sistemas de diagnósticos de haz, que permiten medir la corriente de haz de iones, su energía así como el perfil del haz. A principios de primavera de 2010 comenzó la producción estable de protones. Las Figs. 2 y 3 muestran los pulsos de plasma de hidrógeno en el osciloscopio y la luminiscencia característica de dicho plasma. En paralelo con el desarrollo de la fuente de iones H -, se ha comenzado la construcción de una nueva fuente pulsada de protones/deuterones basada en el principio de resonancia electrón-ciclotrón (ecr). En este caso, la formación de plasma se produce mediante la aplicación de microondas. Los plasmas se confinan durante tiempos del orden de 10 ms mediante la aplicación de campos magnéticos cuya magnitud aproximada viene dada (en Teslas) aproximadamente por B= f / 28, donde f es la frecuencia de microondas. En este caso se ha elegido operar en modo pulsado usando un klystron de banda S de una frecuencia f = 2.7 GHz, capaz de suministrar hasta 1.2 kW de potencia de rf. Eje de haz Eje de haz 6 11 6 11 11 Solera 11 6 11 11 6 11 11 6 10 11 10 9 9 11 5 11 5 11 8 5 7 4 3 2 48 1 11 8 7 lebt La siguiente estructura tiene como objetivo transportar el haz desde la fuente de iones y ajustarlo dentro de la ventana de aceptación del primer elemento que produce aceleración mediante campos de radiofrecuencia referido como cuadrupolo de radiofrecuencia (rfq). El transporte de haz de essb se basa en un diseño de cuatro solenoides y sus correspondientes fuentes de alimentación. Tal ejercicio se ve facilitado por la experiencia previa del equipo de essb ganada en el suministro a la Fuente de Neutrones por Espalación isis, sita en el Rutherford Appleton Laboratory (gb) como parte de la colaboración Front End Test Stand (fets)4. Este diseño del lebt, más largo de lo usual en estos sistemas, se ha elegido para mejorar su versatilidad de modo que pueda emplearse tanto para haces de H+, H- como D+, lo cual requiere controlar los cuatro grados de libertad del trasporte del haz. rfq Para llegar a obtener los estrictos requerimientos de las fuentes de espalación del rango de los MW1, el rfq es un elemento clave. El diseño de esta estructura para el acelerador de essb ha sido completado recientemente en el marco de colaboraciones internacionales entre ral, Imperial College, ASTeC, Warwick University y Universidad del País Vasco (upv/ehu). El diseño contiene una mínima cantidad de braseado, de modo que el mantenimiento y las reparaciones se facilitan en gran medida, al mismo tiempo que se garantiza un funcionamiento robusto cumpliendo especificaciones 1-Fuente H2-Fuente H+ 3-LEBT 4-RFQ 5-DTL 6-Criomódulos 7-Extracción Continua a 3 MeV 8-Extracción Continua a 10 MeV 9-Extracción Continua a 40 MeV 10-Extracción Pulsada a 40 MeV 11-Klystrons como para eventualmente poder servir como inyector para la ess. Esta estructura de aceleración, de una longitud de unos 4 m requiere una potencia de rf del orden de 1 MW que es suministrada por un transmisor de rf, alguno de cuyos detalles explicamos en un apartado más abajo. dtl La última estructura no superconductora del acelerador de Bilbao, para acelerar protones por encima de 3 MeV, es un linac de tubos de deriva (dtl) tipo Alvarez de tres tanques, que deberá llevar el haz hasta los 40 MeV. El diseño en el que nos apoyamos es una adaptación del desarrollado para el proyecto Linac4. El primer tanque, de longitud 4.6m lleva al haz hasta los 13 MeV, y el segundo y tercero, con longitudes 5.12 m y 4.87 m, arrojan energías de salida de 27.3 MeV y 40.5 MeV, respectivamente. Los tres tanques incluyen internamente 45, 30 y 22 tubos de deriva, respectivamente. Un reciente acuerdo con el cern para contribuir al proyecto Linac4 mediante la participación en la construcción en su máquina nos ayudará a adaptar su diseño a nuestro propósito. Todos los tubos de de- Figura 2. Pulsos de plasma en la fuente de iones H riva y los cuadrupolos de imanes permanentes, tanto para Linac4 como 1 para nuestro acelerador, se desarrollarán en el área de Bilbao. Cada tanque del dtl está alimentado por un klystron. Las simulaciones de 2 dinámica de haz realizadas con diferentes corrientes y simuladores predicen un haz bien adaptado con emitancias dentro de especificaciones, aunque puede ser necesario insertar un chopper a la salida del rfq, para poder manejar distintas corrientes de haz aún usando imanes permanentes. La principal ventaja de usar cuadrupolos de imanes permanentes es que reducen drásticamente el coste del sistema de enfocado, simplifican 3 el montaje de los tubos de deriva y aumentan la impedancia de shunt permitiendo tubos de deriva de menores diámetros. Se ha elegido un 1-Klystron gradiente de aceleración relativamente alto en el dtl (3.3 MV/m en el 2-Circulador primer tanque y 3.5 MV/m en los tanques 2 y 3) para reducir su longitud. 3-Carga 4-Guía de Ondas Sección Superconductora 5-Cavidad La sección superconductora del linac de Bilbao acelerará los protones de 40 MeV hasta 300 MeV, y se basará en resonadores de tipo radial (spoke resonators), que ya han sido diseñados5 y se encuentran en fase de proto- Figura 3. Luminiscencia del plasma de hidrógeno en la fuente de iones Htipación. Se ha construido un modelo en aluminio (cold model) de dicho diseño (Figura 4) y se han medido sus campos acelerantes y su respuesta de rf, contrastándolos con la predicción de los programas de diseño y simulación. Se están preparando actualmente pruebas a temperatura ambiente de sintonizadores y acopladores para estos resonadores. También en el futuro próximo se desarrollará un criomódulo de prueba con una célula de aceleración básica consistente en dos resonadores en 5niobio y 4 un elemento focalizador superférrico. Se ha puesto en marcha recientemente una colaboración con acs (France) con el objetivo de producir el primer prototipo de dicho criomódulo, lo cual podría permitirnos probar cavidades radiales en condiciones de haz por primera vez. Transmisores de Radiofrecuencia (rf) a Altas Potencias La potencia de radiofrecuencias requerida para la aceleración a la frecuencia base de 352,2 MHz se genera mediante tubos de vacío conocidos como klystrons cuyo desarrollo está ligado a la tecnología de radar. En resumen, tales dispositivos responden en nuestro caso de régimen pulsado a un pulso de corriente eléctrica el cual acelera un haz intenso de electrones emitidos por un cátodo metálico dentro del tubo mediante una serie de cavidades resonantes alimentadas por un campo de radiofrecuancias Figura 4. Modelo en aluminio de un resonador radial doble 49 Entorno CIC - Proyectos de investigación Entorno CIC - Proyectos de investigación auxiliar, hasta un cierto valor a partir del cual tal haz de electrones se desacelera emitiendo en este proceso un pulso de rf intenso al exterior, que se dirige hacia los resonadores en cuestión mediante un sistema de guías de onda, siendo además capaz de atenuar las ondas reflejadas y atenuarlas mediante una carga absorbente de rf con el fin de no dañar el klystron. El sistema en su conjunto contiene una serie de elementos, según se describe en la cadena que se adjunta y en la Figura 5, Transformador -> Convertidor/Modulador -> Klystron -> Circulador -> Guías de Onda / Carga-> Estructura Resonante de las cuales elementos tales como el Convertidor/Modulador, responsable de la generación de pulsos de corriente para el guiado del klystron comprenden estructuras de alta fiabilidad construidas mediante componentes de electrónica de potencia de última generación. En este aspecto, essb ha impulsado el desarrollo por parte de empresas de nuestro entorno y en colaboración con la Fuente de Neutrones por Espalación sns del Laboratorio Nacional de Oak Ridge de un prototipo de Convertidor/Modulador de muy altas prestaciones adecuado para operación en fuentes de alto rendimiento como sns. críticos y de alta especificación, como por ejemplo precisión micrométrica en guiado, enfocado y emitancia de haz, incremento en energía (orden de GeV) y corriente de partículas (orden de décimas de Amperio) o sincronización en el rango de los ns de los campos acelerantes de radiofrecuencia de cientos de MHz y varios MW de potencia, entre muchas otras características para cuya resolución se requiere la presencia de forma obligada en la máquina de múltiples lazos de realimentación para empujar a sus límites la tecnología disponible. Las actividades en curso en essb comprenden el desarrollo de sistemas de control para todos los numerosos subsistemas de la máquina, que involucran miles de señales para monitorizar y controlar, así como el diseño y construcción de diversos nuevos sensores para medida de la posición, distribución temporal y forma del haz, así como sistemas de llenado y sintonía en rf de cavidades resonadoras, para gobernar y acompasar con alta precisión los campos acelerantes al paso de las partículas. Todo ello se está integrando dentro del estándar abierto epics (Experimental Physics and Industrial Control System) dentro de una red colaborativa internacional de grandes instalaciones científicas en la que essb participa activamente. Sistemas de Diagnóstico y Control La operación adecuada de un acelerador requiere de la concurrencia de un sistema jerárquico de sensores y actuadores que permiten detectar con precisión las características del haz y corregir en caso necesario los parámetros relevantes, lo cual incluye usualmente procesos altamente Aplicaciones previstas para haces de protones y neutrones El centro essb espera poder suministrar en pocos años haces de protones y neutrones útiles para la comunidad de usuarios locales, que ha ido mostrando un interés creciente en el uso de haces de partículas en diversos campos de las ciencias físicas y biomédicas. 1 2 3 1-Klystron 2-Circulador 3-Carga 4-Guía de Ondas 5-Cavidad 5 50 Las aplicaciones protónicas previsibles para los tres puertos diseñados a 3 MeV, 20 MeV y 40 MeV están dirigidos a aplicaciones dentro de: ···· Litografía mediante haces de protones ···· Análisis por haz de iones (pige, erda, pixe…) ···· Tecnología Ion Track ···· tof-sims de alta energía ···· Terapia experimental por radiación en células vivas y tejidos ···· Radiobiología, particularmente en el campo de mutagénesis controlada por radiación. Las aplicaciones neutrónicas previsibles se enfocan hacia: ···· Desarrollo de Reflectores/Moderadores, ···· Uso de neutrones térmicos y fríos para, ···· Desarrollo de detectores de neutrones apropiados para fuentes de espalación, ···· Estaciones de instrumentos, ···· Desarrollo de selectores de velocidad de neutrones y otros equipos de óptica neutrónica. ···· Puertos de neutrones rápidos también para aplicaciones, ···· De tiempo de vuelo para medida de secciones eficaces de núcleos de interés en Astrofísica nuclear y otras áreas de ciencia básica nuclear, ···· De metrología para calibrar detectores de neutrones rápidos, ···· Experimentos de propagación neutrónica en medios inertes como plomo o grafito, ···· Estudio de la cinética de sistemas subcríticos. Angulo 0 < E < 10 MeV 10 < E < 20 MeV 20 < E < 30 MeV 30 < E < 40 MeV Total 0º 3.30 10 13 3.91 10 12 2.35 10 12 1.64 10 12 4.08 1013 90 mA 300 MeV 75 kW 50 Hz 1.5 ms 352.2 MHz 9 MV/m 15º 3.17 10 13 4.25 10 12 2.15 10 12 7.17 10 11 3.87 10 13 40º 2.48 1013 3.14 10 12 1.06 10 12 1.58 10 11 2.90 1013 Tabla 2. Producción neutrónica (n mA-1 sr-1) a diferentes ángulos (protones de 40 MeV en blanco de Be) Como conclusión general en lo referido a las aplicaciones, es muy remarcable el hecho de que simplemente la sección a temperatura ambiente del acelerador previsto, que está en construcción y se espera esté listo en pocos años, debería ser suficiente para comenzar a hacer ciencia seria en la nueva instalación de Bilbao, y dar servicio a un gran número de usuarios. En cuanto a la producción neutrónica esperable, los cálculos y previsiones realizadas permiten concluir que podrán desarrollarse una gran variedad de aplicaciones y dar servicio a una creciente comunidad de usuarios. Referencias [1]Conclusions Report of the ESS-Bilbao Initiative Workshop (2009) http://www.essbilbao.com/ portals/0/ficheros/noticias2/imagenes/conclusions.pdf [2]Informe Cotec 2010, Tecnología e Innovación en España. Fundación Cotec para la Innovación Tecnológica, ISBN: 978-84-92933-00-6, p. 59. 4 Figura 5. Transmisión de RF desde el klystron a la cavidad acelerante Max. corriente protones Max. energía final Max. potencia de haz Max. tasa repetición Longitud de pulso Frecuencia de paquetes Max. gradiente cavidades Dinámica del haz de protones a lo largo del linac De la lista anterior, las típicas aplicaciones de haces protónicos se centrarán principalmente en su uso para ciencia de materiales (litografía, microprocesado de materiales ultraduros, irradiación de semiconductores, etc. ), así como algunas aplicaciones seleccionadas en el ámbito de las biociencias. Por otra parte, actualmente está en desarrollo conceptual un blanco de baja energía (40 MeV) para reacciones (p,n) en materiales sólidos ligeros (9Be, 7Li). Dicho blanco es capaz de suministrar flujos neutrónicos significativos, de acuerdo con algunos cálculos preliminares cuyos resultados se muestran en la Tabla 2. Más que orientados a experimentos en Ciencias de la Materia Condensada, sus principales aplicaciones están dentro del campo de la instrumentación neutrónica general. Además, el desarrollo de dicho blanco ayudará a salvar también el creciente gap detectado por la comunidad de Física Nuclear que trabaja en temas muy diversos que van desde la medida de secciones eficaces neutrónicas hasta aplicaciones en Física de Astropartículas6. [3]El esfuerzo de rediseño seguido en la actualidad por ESS-AB (ESS-Scandinavia) es fundamentalmente indistinguible del propuesto por el Consorcio ESS-Bilbao antes de la toma de decisión sobre la localización de la instalación. Ver, http://www.essbilbao.com/portals/0/ ficheros/noticias2/imagenes/ESS%20Bilbao%20Proposal%20for%20the%20Design%20Review.pdf. Tal propuesta contrasta con el documento oficial de revisión de diseño al comité de expertos de esfri producido en 2008, en el cual tanto la candidatura sueca como la húngara apostaban por el diseño de 2003, considerablemente obsoleto. [4] Letchford AP et al. (2010) Status of the ral Front End Test Stand http://accelconf.web.cern.ch/AccelConf/IPAC10/papers/mopec075.pdf [5]Bustinduy, I, Lucas, J, Bermejo, FJ, and Etxebarria V (2009) Multiparticle beam dynamics simulations for the Bilbao superconducting proton accelerator http://accelconf.web.cern.ch/AccelConf/SRF2009/papers/thppo099.pdf [6] Etxebarria, V, Bustinduy, I, Bermejo, FJ, and Cano-Ott D (2010) Baseline design of the ESSBilbao accelerator: a machine compliant with ESS Specifications Proceedings of ICANS XIX, 19th meeting on Collaboration of Advanced Neutron Sources. 51 Entorno CIC - Proyectos de investigación Proyectos de investigación Xxxx xxxx xxx xxxxx Magnifyco Alex Bittner, líder del Grupo de Autoensamblado de cic nanogune e Investigador Ikerbasque magnifyco es uno de los curiosos acrónimos utilizados para designar un proyecto colaborativo que se desarrolla en el marco de la Unión Europea. El acrónimo hace referencia a «MAGnetic NanocontaIners For combined hYperthermia and COntrolled drug release», esto es, nanocontenedores magnéticos para combinar hipertermia y liberación controlada de fármacos. El proyecto incluye once socios de empresas, institutos y universidades de Italia, España, Francia, Alemania y Holanda. Su objetivo es «el ensamblado y la fabricación de una nueva generación de nanoestructuras multifuncionales que permitan un tratamiento combinado mediante hipertermia y liberación controlada de fármacos, con una orientación específica a células ováricas cancerosas». Creo que esta complicada frase requiere ser desgranada punto por punto. En primer lugar, mientras las nanoestructuras están bien asentadas en el ámbito de la investigación y están siendo usadas en un número cada vez mayor de aplicaciones, el concepto de nanoherramientas multifuncionales es relativamente nuevo y despierta un gran interés. Estas herramientas desarrollan, al mismo tiempo, diferentes tareas utilizando un único nanodispositivo, usualmente una nanopartícula. Esta aproximación es muy novedosa dado que la síntesis de este tipo de objetos puede ser muy compleja: normalmente el material en cuestión, digamos una aleación Alexander Bittner es doctor en química y trabaja desde 2008 como líder del Grupo de Autoensamblado de cic nanogune y como investigador Ikerbasque. Con anterioridad ha trabajado en Alemania, Inglaterra, Suiza y Francia. Sus principales áreas de interés se centran en la ciencia de la nanoescala, interfaces y electroquímica. 52 magnética, otorga la funcionalidad, y ha de forzarse a formar pequeñas partículas. Añadir una segunda funcionalidad, la capacidad de unirse a las células por ejemplo, requerirá de una síntesis completamente diferente, que no debe interferir ni con la estructura ni con la primera funcionalidad. Sin embargo, algunas de las funcionalidades de interés, como la mencionada unión a las células, se basan en interacciones bioquímicas muy sensibles, mediadas por grupos químicos que pueden dañarse con facilidad. No es de extrañar por ello que estructuras bifuncionales y especialmente trifuncionales sean excepcionalmente raras. En segundo lugar, el término hipertermia hace referencia a sobrecalentar las células cancerosas, más sensibles a la temperatura que las células sanas. Esto ofrece un ingenioso método para combatir diferentes formas de cáncer, pero con la dificultad de que el sobrecalentamiento debe aplicarse únicamente en la posición del tumor y de que la temperatura del tejido debe ser controlada con gran precisión. Para conseguirlo pueden colocarse nanopartículas magnéticas en el tumor y producir un calentamiento local por medio de un campo magnético oscilante. El proceso de orientación y relajación de los momentos magnéticos producirá calor en la vecindad inmediata de la nanopartícula. En tercer lugar, la liberación o distribución de fármacos en la nanoescala es el sueño de la medicina del futuro, de la que en un futuro cercano probablemente podamos ver las primeras aplicaciones. Este proceso se fundamenta en el hecho de que, aunque hay disponibles un gran número de potentes fármacos, no pueden utilizarse de forma generalizada debido a los efectos no deseables que producen sobre las células sanas. Con el fin de dirigir un fármaco determinado contra una célula cancerosa, infectada o dañada, que mide unas cuantas micras, debemos ser capaces de controlar el proceso en la escala del nanómetro. Esta es la razón por la que las nanopartículas juegan un papel tan fundamental en la nanomedicina del futuro: las nanopartículas huecas no solo pueden transportar fármacos en su interior, pueden además encontrar (reconocer) las células enfermas, atravesar la pared celular o ser ingeridas (endocitosis). Todo este proceso depende en gran medida de la forma de la partícula y de su funcionalidad química. En cuarto y último lugar, no se pueden combatir ciertas formas de cáncer de ovario mediante tratamientos convencionales (que funcionan bien para otras clases de cáncer): nuevos tumores aparecen a menudo tras la remisión inicial. En esta fase sería deseable utilizar fármacos muy potentes, pero los efectos secundarios pueden hacer imposible dicho tratamiento. Por ello buscamos una liberación muy localizada de los mismos, combinada con una terapia física como la hipertermia. Resumiendo: los nanocontenedores a desarrollar deben ser capaces de reconocer las células cancerosas, tratar la zona mediante hipertermia magnética y, como consecuencia del estímulo térmico o magnético, liberar un fármaco muy tóxico de alta selectividad con las células ováricas cancerosas. Y todo al mismo tiempo. El desarrollo de estos contenedores continuará con estudios en animales, requisito previo a su uso en humanos. Nos centraremos a continuación en cómo funcionan dichos nanocontenedores. ¿Cómo pueden integrarse todas estas funciones? Es obvio que requerimos nanocontenedores muy especiales para hacer posible la multifuncionalidad. Aunque magnifyco abarca diferentes clases de materiales contenedores, desde sólidos inorgánicos porosos a pequeños objetos biológicos semejantes a células, todos ellos incluirán tres componentes fundamentales: Material magnético: permitirá su detección mediante imágenes de resonancia magnética (irm), el tratamiento del cáncer mediante hipertermia y proporcionará además un estímulo para la liberación del fármaco. Trabajamos predominantemente con métodos químicos húmedos para producir y ordenar las partículas magnéticas, requiriendo además un análisis y caracterización física muy detallados. cic nanogune está especialmente bien equipado para realizar estas tareas. Cápsula biocompatible: mientras el contenedor guarda el fármaco y evita su degradación, su contacto con la sangre y las células no ha de provocar reacciones adversas del sistema inmunitario. Con este fin estamos investigando también recubrimientos orgánicos biocompatibles. Estos recubrimientos deberían adicionalmente facilitar la liberación del fármaco ante la aplicación de un estímulo externo como el calor. El estímulo podría tener también un origen interno como el pH ácido de las células tumorales. a) Síntesis de partículas magnéticas; b) contenedores; c) partículas magnéticas ligadas a contenedores cargados de fármacos; d) enlace a células cancerosas (receptores de folato alpha); e) hipertermia magnética; f) ensayos Enlace de contenedor cargado (tipo canal) vía anticuerpos – receptores de folato alpha; b) endocitosis; c) un campo magnético variable induce la apertura del contenedor, la liberación del fármaco y la hipertermia; d), e), f) Mismo proceso para otro tipo de contenedor (vesícula o partícula blanda) Imagen de microscopía de barrido de fuerza atómica de un virus del mosaico del tabaco 53 Entorno CIC - Proyectos de investigación Entorno CIC - Proyectos de investigación Socios de Magnifyco: National Nanotechnology Laboratory, Lecce; Dompé pha.r.ma, L’Aquila; Nanovector, Milán; Italian Institute of Technology, Génova; National Tumor Institute, Milán; cnrs, Groupe Physique du Vivant, París; MagForce, Berlín; cic nanogune, San Sebastián; Universidad Complutense, Madrid; Universidad de Santiago de Compostela; Molecular nano Fabrication at University of Twente, Enschede Hojas de tabaco sanas Hojas de tabaco infectadas por el virus del mosaico del tabaco (tmv) Nanopartículas de zeolita. Cada bloque de silicato contiene canales lineales extremadamente finos Fragmentos de anticuerpos: son adheridos a la superficie de los nanocontenedores para que alcancen de forma selectiva las células ováricas cancerosas. Los anticuerpos se enlazan a características específicas presentes en las células cancerosas (receptores de folato alpha). Cuando consideramos todos estos aspectos, decidimos centrarnos en una pequeña familia de contenedores poco habituales, que esperamos poder modificar según el triple requerimiento: nanopartículas lipídicas sólidas (pequeñas bolas hechas de lípidos), partículas poliméricas de hidrogel (objetos orgánicos blandos), tubos de péptidos (ensamblados de pequeños péptidos extremadamente finos). Además de estas estructuras artificiales, se seleccionó una estructura inorgánica (silicato), consistente en partículas de zeolita L, poseedoras de canales extremadamente estrechos de escala molecular (< 1 nm), así como otras dos candidatas de origen biológico: el Virus del Mosaico del Tabaco (tmv, Tobacco Mosaic Viruses, partículas de virus vegetal con forma de tubo) y micropartículas vesiculares derivadas de células vivas (globos llenos de líquido, envueltos por una fina membrana). Nos enfrentamos ahora al gran reto de usar estas partículas como plataformas para la fabricación de estructuras multicomponentes, capaces de agrupar todas las tareas biomédicas en un único objeto. Es evidente que no todos los nanocontenedores en estudio serán igualmente adecuados, por lo que en las fases finales seleccionaremos uno o dos de los candidatos más satisfactorios. Sin embargo, estamos convencidos que todos los candidatos son susceptibles de ser transformados en contenedores funcionales, mereciendo todos por ello una investigación en profundidad. Trabajo en cic nanogune cic nanogune colabora estrechamente con el grupo de Christina Wege y Holger Jeske de la Universidad de Stuttgart (Alemania), expertos en virología vegetal. Nuestro trabajo se centra en el TMV, virus vegetal completamente inofensivo para el ser humano. Estos virus son muy comunes y están muy extendidos, especialmente en las plantaciones de tabaco. Por ejemplo, es muy probable que el lector de este artículo tenga un buen número de ellos en las yemas de sus dedos, ¡especialmente si es fumador! Hay que destacar la gran estabilidad biológica, química y física del virus, relacionada con el hecho de que su infección se produce a través de lesiones en la planta (hojas dañadas, por ejemplo), lo que obliga al virus a sobrevivir en campo abierto para poder infectar y extenderse. Esto es común a otros virus de plantas. De forma general, los virus vegetales están constituidos por una cápsula (envoltorio) de proteínas y al menos una hebra de ácido nucleico. Presentan una gran variedad de formas, con tamaños que van desde unos pocos nanómetros hasta unas micras: estructuras tubulares alargadas y rígidas, filamentos flexibles, partículas esféricas o con forma de bala,…. Para cada familia de virus las dimensiones y las características superficiales son extremadamente reproducibles, y pueden ser alteradas de forma predecible incluso mediante reacciones químicas. Obviamente, estas características hacen de ellos excelentes candidatos para fabricar contenedores. Una partícula individual de tmv está formada por 2.130 proteínas idénticas, colocadas helicoidalmente alrededor de (y ligadas a) una única hebra de arn con unos 6.400 nucleótidos, que se encuentra encerrada en el interior del mencionado tubo de proteínas de 300 nm de longitud. Cada proteína de la cubierta incluye 158 aminoácidos en el caso de la cepa más común. El tmv tiene un diámetro de 18 nm, y el diámetro del canal interno longitudinal es de 4 nm. Este canal no tiene aparentemente ninguna función biológica pero puede rellenarse de forma sencilla con soluciones acuosas. Esto nos animó a tratar de rellenarlo con potentes fármacos anticancerígenos, trabajo que estamos desarrollando en la actualidad. Aunque confiamos en lograr este objetivo, la naturaleza abierta del canal implica que será necesario desarrollar un tapón de cierre que pueda ser retirado en el interior de las células cancerosas. En esta tarea, a desarrollarse en una escala de 4 nm, esperamos que la física y la química de pequeñas partículas o coloides nos puedan servir de guía. En otros contenedores propuestos (zeolitas o tubos de péptidos), se espera que los canales puedan cerrarse utilizando objetos tan pequeños como moléculas individuales. Al mismo tiempo, estamos trabajando para dar propiedades magnéticas al virus. Encontramos que mediante la precipitación de sales de hierro se pueden obtener recubrimientos bastante lisos y adecuados. Diferentes métodos de análisis, realizados en colaboración con cic biomagune, muestran la presencia de una mezcla de dos óxidos de hierro, mientras que las medidas de magnetometría han probado la existencia del comportamiento magnético deseado: una histéresis magnética en presencia de campos magnéticos variables. De hecho, los objetos recuerdan a pequeños imanes débiles con forma de barra. La combinación de estas dos funcionalidades puede ser el obstáculo más grande a superar, y todavía desconocemos si debemos magnetizar el virus en primer lugar para luego introducir el fármaco, o viceversa. En Micropartículas vesiculares rellenas de nanopartículas magnéticas Imagen de microscopía de barrido de fuerza atómica de tmv (rojo) y del virus X de la patata (verdes, más cortos) sobre una superficie sólida De izquierda a derecha, esferas de óxido de hierro, cubos de ferrita, mancuernas de FePt-Fe2O3 y nanoflores de Au-Fe2O3 . Estas partículas pueden adherirse a los contenedores para proporcionarles un momento magnético 54 cualquier caso, el siguiente paso será añadir anticuerpos que liguen el virus-imán-contenedor a un receptor especial ( folato alpha), que se encuentra presente en número extraordinariamente alto sobre la superficie de las células ováricas cancerosas. Colaboración Distinguimos dos tipos de socios participantes en magnifyco: industriales, que desarrollar y evalúan los materiales y actúan como asesores de riesgos, y académicos, en institutos como cic nanogune o en universidades, que están a cargo del desarrollo de nuevas estrategias de nanofabricación. En ellos se sintetizan los elementos constructivos individuales y se caracteriza su ensamblado según sus propiedades físicas, químicas y biológicas. Experimentos con cultivos celulares nos permitirán entender el funcionamiento de nuestras nuevas nanoherramientas in vitro y aclararán si son candidatas aptas para nuevos ensayos y, finalmente, para su uso en humanos – todos los nuevos desarrollos de fármacos deben superar esta larga carrera de obstáculos. Los objetivos de magnifyco cubren un amplio rango de áreas científicas por lo que ha sido necesario establecer una colaboración interdisciplinar entre químicos, físicos, biólogos y médicos. Aunque la red se encuentra todavía en una fase muy inicial, ya podemos decir que hay tanto de trabajo duro como de diversión, y que todos los socios estamos adquiriendo nuevos y útiles conocimientos. Aparte de intercambiar muestras, distribuimos parte del trabajo entre los socios, en función por ejemplo de la disponibilidad de los equipos de medida. Esta estrategia ha probado ser muy rápida y eficiente, además de enriquecernos gracias a la interacción adicional. 55 Entorno CIC - Proyectos de investigación Proyectos de investigación Xxxx xxxx xxx xxxxx Tecnologías lab-on-a-chip para observar e identificar moléculas individuales Santos Merino, Estefanía Abad, Aritz Retolaza y Aritz Juarros, Unidad de Micro y Nanoingeniería de cic microgune Los avances en micro y nanotecnología han permitido fabricar dispositivos en los que biomoléculas individuales interaccionan entre sí ó lo hacen con objetos de su misma dimensión. Estos dispositivos han permitido estudiar la acción de una enzima sobre una molécula de dna o la actividad de un único receptor sobre una célula y han arrojado luz para entender la relación entre estructura, función y dinámica de las biomoléculas en la célula viva. El resultado de una investigación aplicada en este campo permitirá manipular o analizar moléculas individuales y formará la base para sistemas de diagnóstico médico de una manera rápida, barata y personalizada. Los avances en tecnología han permitido el desarrollo de técnicas de observación e identificación de moléculas individuales. Técnicas de observación basadas en microscopía electrónica, microscopía óptica de fluorescencia, microscopía óptica de campo cercano y microscopía de fuerzas atómicas han ampliado las posibilidades para observar e interaccionar directamente con moléculas individuales. El interés en reducir el volumen de los procesos analíticos, combinado con los avances en micro y nanofluídica, está motivando el desarrollo de nuevos chips en los cuales los análisis pueden ser desarrollados más rápidamente y a un coste mucho menor que los tradicionalmente usados en laboratorios de biología molecular. Su desarrollo está cambiando Los doctores Santos Merino, Estefanía Abad, Aritz Retolaza y Aritz Juarros son investigadores de la Unidad de Micro y Nanoingeniería de cic microgune. 56 la naturaleza de las cuestiones de las que podemos obtener respuestas experimentales a nivel molecular. Estos nuevos chips integran medidas eléctricas, ópticas y físicas combinadas con el guiado de fluidos para crear un nuevo concepto de biochips denominados single molecule devices. Este tipo de sistemas proporcionan localización espacial, la cual es relevante para observar, por ejemplo, la actividad de una única enzima, la actividad de un único receptor sobre una célula, o las moléculas cuyo origen es una célula del sistema inmune. El resultado de una investigación aplicada en este concepto de chips dará lugar a sistemas para manipular o analizar moléculas individuales y formará la base para la fabricación de sensores ultrasensibles y sistemas de diagnóstico médico. Por ejemplo, uno de los últimos desafíos en biología es entender la relación entre estructura, función y dinámica de las biomoléculas en la célula viva, lo que permite estudiar los procesos bioquímicos y metabólicos y el origen de las enfermedades a nivel celular. Sin embargo, observar los procesos moleculares en células vivas, es todavía un objetivo del máximo interés y dificultad, ya que las interacciones moleculares ocurren en la escala del nanómetro, tamaño no accesible generalmente con sistemas ópticos debido a la difracción. Para lograr este objetivo, se está trabajando en el desarrollo de nuevas herramientas ópticas que permitan la manipulación de funciones biológicas al nivel de moléculas individuales en su entorno natural: la célula. Otro ejemplo importante, es la posibilidad de interaccionar con moléculas individuales de dna ( figura 1), mapear sus lugares de restricción e identificar, por ejemplo, la presencia de un virus a partir del corte del dna original en partes de dna de longitud conocida y medible a partir del uso de enzimas de restricción. En general, estos chips pueden permitir un análisis menos invasivo de fluidos biológicos complejos para diagnóstico médico y terapias avanzadas. Un amplío rango de tecnologías, incluida la fabricación, están siendo direccionadas hacia estos objetivos. El conjunto de herramientas denominadas lab-on-a-chip, y particularmente, los chips basados en aproximaciones single-molecule, pueden en el medio y largo plazo proporcionar sistemas funcionales para el diagnóstico de determinadas enfermedades diana y proporcionar sistemas eficientes en el avance de terapias asociadas a enfermedades crónicas. El desarrollo de chips moleculares en los que interaccionar con las biomoléculas requiere no únicamente de técnicas de detección ultrasensibles sino que es necesario el control micro y nanofluídico a nivel de chip, integrando canales, celdas, válvulas, electrodos y funcionalización superficial que permita la interacción con biomoléculas específicas. No menos importante es el desarrollo de procesos de fabricación que permitan la formación de canales, agujeros o rendijas de dimensiones en la escala de las biomoléculas que queremos detectar, es decir, en el orden de unos pocos nanómetros. Sin embargo, aunque necesario, esto no es suficiente y el desarrollo de tecnologías maduras que permitan la fabricación de dispositivos con motivos en esta escala de una forma fiable y económica resulta fundamental para el éxito y llegada a la industria de este nuevo concepto de chip. La combinación exitosa de todos estos factores crea un rango de oportunidades enorme en el campo del análisis molecular. En este sentido, la unidad de micro y nanoingeniería de cic microgune ( figura 2) está desarrollando tecnología basada en métodos emergentes de nanofabricación, conjugando alta resolución y viabilidad industrial. De este modo, se han fabricado chips de identificación molecular de dna mediante estiramiento de dobles hebras en dispositivos nanofluídicos de diámetro inferior a los 100 nm. Micro y Nanofabricación. Alta resolución y producción La habilidad para fabricar estructuras en la micro y nanoescala es de crucial importancia, no solo en los chips para análisis biomolecular, sino en general en el avance de las micro y nanotecnologías y el estudio de las nanociencias. Aspectos críticos como la resolución, fiabilidad, velocidad y precisión son todos aspectos que deben de ser considerados a la hora de desarrollar nuevos procesos litográficos. De este modo, se deben desarrollar métodos de fabricación que permitan reproducir en un producto comercializable los diseños y desarrollos de prototipos realizados a escala de laboratorio. En este sentido, cuando se requieren fabricar estructuras con una resolución por encima de 1 micrómetro, la tecnología de fabricación de referencia es la Litografía Ultravioleta convencional. Esta tecnología combina tiempos de producción pequeños y un coste en equipamiento y mantenimiento reducidos. Sin embargo, no existe una tecnología madura que aporte estas prestaciones cuando se buscan resoluciones sub-micrométricas, lo que limita la industrialización de prototipos realizados en el ámbito de la nanotecnología. Se han realizado importantes esfuerzos a la hora de optimizar las tecnologías litográficas sub-micrométricas, utilizándose fuentes más energéticas como la litografía ultravioleta extrema, la litografía con electrones, con fuentes de iones o con fuentes de rayos-x. Existen hoy en día numerosos problemas a la hora de hacer estas tecnologías productivas; entre otros: su coste –que en algunos casos supera los 50 millones de dólares- o su tiempo de fabricación –extremadamente lento para la industria-. Únicamente la litografía ultravioleta extrema, tecnología empleada por la industria de semiconductores que integra circuitos integrados en un chip, es una alternativa. Sin embargo, su coste en inversión y mantenimiento anual está solo al alcance de una muy alta producción anual como la que se realiza en la industria de semiconductores. Este hecho, unido a la aparición de aplicaciones ajenas a la microelectrónica, muchas de ellas en el campo de la biotecnología y las aplicaciones biomédicas, ha conllevado que numerosos investigadores hayan invertido recursos en la búsqueda de alternativas que combinen alta resolución a un coste moderado (microcontact printing, litografía basada en microscopía de fuerzas atómicas o litografía dip-pen). De entre estas tecnologías, la litografía de nanoimpresión (nil) es con diferencia la más madura. → Figura 1. Interacción entre una doble hebra de dna y un agujero de dimensiones en la misma escala Figura 2. Sala blanca para fabricación de biosensores 57 Entorno CIC - Proyectos de investigación Entorno CIC - Proyectos de investigación De este modo, el coeficiente de extensión Lestirado/L depende de la sección del canal, que es característica de cada chip, y por tanto, la determinación del grado de extensión para un determinado chip proporciona un método para identificar moléculas de dna. El diseño del chip para estiramiento de dna se muestra en la figura 4. El chip se compone de una base de silicio, conteniendo microcanales para el transporte del fluido y nanocanales para el estiramiento de dna, inmovilización y detección. Un vidrio pyrex sella el dispositivo e integra electrodos para el movimiento de la muestra por electroforesis. En la figura se aprecia la inclusión de postes de diámetro unos pocos micrómetros, dejando un espaciado cada vez más pequeño según nos acercamos a los nanocanales. El objetivo de estos postes es ayudar a deshacer la estructura helicoidal del dna en solución antes de alcanzar los canales. La figura 5 → Figura 3b. Eliminación de la capa residual de polímero mediante plasma de oxígeno Dispositivos micro y nanofluídicos para identificación de dna Los métodos actuales de análisis de dna requieren cortar cada molécula en millones de fragmentos, replicar cada segmento, ordenarlos por tamaño y reconstruir el dna original en un proceso costoso tanto en tiempo como en material utilizado. En cambio, la posibilidad de estirar dna, que consiste en linealizar moléculas individuales por confinamiento en canales nanofluídicos, abre nuevas posibilidades para el análisis de dna y sensado bioquímico de forma rápida y utilizando una cantidad ínfima de muestra, lo que reduce considerablemente el coste del análisis. El estiramiento de moléculas de dna en canales nanofluídicos ha sido utilizado para el estudio de las propiedades físicas y biológicas de estas moléculas, analizándose medidas de longitud de contorno en tiempo real de las moléculas estiradas. Se han realizado también mapas de restricción utilizando endonucleasas así como estudiado interacciones moleculares entre una proteína y una molécula de dna. Recientemente, y por medio de la introducción de electrodos en los canales nanofluídicos, se está intentando desarrollar un método de secuenciación directa de moléculas individuales de dna. La unidad de Micro y Nanoingenieria de cic microgune, basándose en la tecnología de nil, ha fabricado canales de sección nanométrica –de hasta 50x20 nm–, integrándolos en un chip que permite el movimiento de dna por presión o campo eléctrico. De este modo, se ha resuelto el grado de estiramiento de estas moléculas, obteniéndose un buen acuerdo entre la predicción teórica y los resultados experimentales. En la actualidad, se pretende demostrar que el grado de estiramiento es el mismo para un canal dado, independientemente de la molécula de dna, lo que facilitaría enormemente su uso en aplicaciones de diagnóstico rápido. El dna es un polímero largo y flexible que en solución asume una conformación coloidal con un radio característico de giro dado por (PwL3)1/5, donde P es la longitud de persistencia, una magnitud mecánica que cuantifica la rigidez de la macromolécula y que es aproximadamente 50 nm para una doble hebra de dna; w es la anchura del dna, la cual puede ser estimada en 2 nm, y L es la longitud de contorno, es decir, la longitud de la molécula totalmente estirada. L depende del número de bases en una hebra de dna y es normalmente calculada asumiendo una distancia de 0.34 nm entre pares de bases. El radio de giro para una molécula de dna en solución es del orden de unos pocos micrómetros –2 µm en nuestros experimentos–. Sin embargo, cuando las moléculas de dna son forzadas a entrar en una sección con diámetro mucho más pequeño que el radio de giro, es energéticamente más favorable para las moléculas estirarse en una serie de bloques a lo largo del canal. En el régimen de De Gennes, es decir cuando el radio de giro es mucho mayor que el diámetro de la sección, y ésta a su vez mayor que la longitud de persistencia, la longitud de la molécula de dna en el canal –Lestirado- escala con la longitud de contorno L según Lestirado ≈ L(wP/D2)1/3 , donde D es el diámetro del canal. Figura 3c. Transferencia de motivos al substrato mediante plasma específico Figura 3d. Evaporación de una capa fina metálica y posterior extracción del polímero Figura 4. Diseño del dispositivo fluídico formado por micro y nanocanales y electrodos en el vidrio para el transporte eléctrico del DNA Figura 5. Corte transversal del chip. Nanocanales de 250 micrómetros de longitud y a) 50x50 nm de sección, b) 50x20 nm de sección Figura 3a. Impresión del polímero 58 El principio de nil es muy simple. Un patrón, normalmente fabricado en silicio, es transferido a una capa fina de polímero que recubre el substrato –normalmente vidrio o silicio- bajo unas condiciones controladas de presión y temperatura ( figura 3a). Este proceso de impresión da lugar a una capa residual muy fina de polímero, que es eliminado mediante un plasma anisotrópico de oxígeno hasta alcanzar el substrato ( figura 3b). Posteriormente, se puede realizar la transferencia de motivos al substrato mediante ataques anisotrópicos en vacio, empleando para ello gases específicos y actuando el polímero como máscara ( figura 3c), o bien, evaporar sobre el substrato una fina capa metálica con posterior extracción del polímero en disolvente orgánico ( figura 3d). El proceso permite la réplica de substratos a partir del patrón en tiempos inferiores a los 15 minutos y alcanza una resolución mínima condicionada fundamentalmente por el molde patrón, pudiendo ser ésta inferior a los 10 nm. Esta es la razón por la que esta tecnología ha acaparado una gran atención de la industria y centros de investigación unos pocos años después de su introducción en 1995. La Unidad de Micro y Nanoingeniería de cic microgune está desarrollando esta tecnología y, una vez optimizados los procesos de fabricación, la está aplicando en el campo de la salud para desarrollar no solo los sistemas de diagnóstico basados en estiramiento de dna en dispositivos nanofluídicos, sino también al desarrollo de sensores de proteínas en suero basados en fluorescencia o en resonancia de plasmones, sensores electroquímicos de alta sensibilidad, substratos para ingeniería de tejidos o láseres orgánicos de alta fotoestabilidad en el espectro visible. A B 59 Entorno CIC - Proyectos de investigación muestra un corte transversal del dispositivo micro y nanofluídico, donde se observan canales de sección nanométrica –de dimensiones aproximadas 50x50 nm y 50x20 nm respectivamente– rodeados de canales –por los que no circula el dna a estudiar– de sección micrométrica. Estos chips han sido fabricados mediante nil, integración de los electrodos en el vidrio, creación de agujeros pasantes en el vidrio para introducir la muestra y sellado posterior anódico ( figura 6). En la figura 7 se muestra el llenado previo de los chips con una mezcla de tinte fluorescente (rodamina B). Los canales –de 50x50 nm y separados 3 µm– muestran su funcionalidad y la ausencia de fugas en el dispositivo fabricado. Se han realizando experimentos de estiramiento con los chips fabricados y conteniendo éstos una solución de λ-dna tintado con un marcador fluorescente. La figura 8 muestra el histograma de las longitudes promedio medidas para el conjunto completo de moléculas de λ-dna analizado. Considerando la longitud promedio –6µm– y las longitudes de contorno y de persistencia para el λ-dna tintado con yoyo-1, se puede estimar que el grado de estiramiento es del 33%. Si consideramos este grado de estiramiento en el régimen de Gennes descrito anteriormente, encontramos que el diámetro teórico del nanocanal debiera ser de 107 nm, muy próximo al valor experimental fabricado. La unidad de micro y nanoingenieria de cic microgune está extendiendo el uso de estos chips a otras moléculas de dna con el fin de demostrar que el grado de estiramiento es el mismo para un mismo chip y condiciones de dilución de la muestra de dna. La fabricación de chips en esta escala de manera fiable y escalable a producciones de series cortas puede no solo potenciar el uso de estos chips hacia tests de diagnostico rápido y control de terapias basadas en el uso de biomoléculas, sino que puede ser de utilidad para conocer otros aspectos relevantes. Buenos ejemplos de esta aplicación pueden ser: el transporte de proteínas a través de los nanoporos existentes en la membrana del núcleo celular o bien la forma en la que un enzima se fija a una molécula de dna o estudiar una reacción de reconocimiento antígeno-anticuerpo. Figura 6. Chips micro-nanofluídicos obtenidos Figura 7. Imagen del llenado de los chips con rodamina B fluorescente Figura 8. Imagen del λ-DNA estirado e histograma de las longitudes promedio medidas para el conjunto completo de moléculas de λ-DNA analizado. La escala corresponde a 15 µm 60 61 Xxxx xxxx xxx xxxxx Entorno CIC Entorno CIC objetivo, el dipc ha mantenido varios programas de actuación abiertos durante estos diez años de andadura. Programa de Investigadores Visitantes Este programa ha buscado atraer a los mejores científicos de todo el mundo en el campo de la ciencia básica de materiales y establecer una plataforma de interacción entre investigadores de reconocido prestigio de otros países e investigadores locales. Más de 1.200 investigadores han disfrutado de estancias superiores a 3 semanas desde el año 2000, 17 de los cuales han sido Premios Nobel. Programa Fellows Gipuzkoa Gracias a la financiación específica del Departamento de Innovación de la Diputación Foral de Gipuzkoa, se ha puesto en marcha este programa de recuperación de científicos, que permite a jóvenes investigadores que desarrollan su actividad en el extranjero tener una «plataforma de aterrizaje» en el dipc mediante un contrato de una duración máxima de cinco años. Este Programa se inició a finales del año 2000 y desde entonces lo han disfrutado 11 personas. Programa de Congresos Internacionales Este programa está destinado a organizar y celebrar jornadas, workshops, escuelas de verano y congresos internacionales que sirvan de encuentro, debate y discusión de las principales líneas de investigación que se abordan en el dipc. Se han organizado 51 eventos en los que han participado más de 6.000 personas de todo el mundo. Passion for Knowledge Igor Campillo, secretario general de Passion for Knowledge. Este año se cumple el décimo aniversario del Donostia International Physics Center - DIPC. Para celebrarlo hemos organizado Passion for Knowledge, un Festival que ha comprendido múltiples actividades dirigidas a la comunidad científica y al gran público y que ha congregado a grandes figuras de las ciencias y otras humanidades durante la semana del 27 de septiembre al 1 de octubre en la ciudad de Donostia – San Sebastián. Diez años del dipc El día 26 de abril del año 2000, Heinrich Rohrer, Premio Nobel de Física en 1986, ofreció la charla inaugural Small is beautiful and powerful con la que el dipc empezaba su andadura. El dipc se constituyó como una alianza público-privada establecida legalmente como una fundación sin ánimo de lucro. Ha contado con una determinante participación pública que incluye a los Departamentos de Educación, Universidades e Investigación, e Industria, Innovación, Comercio y Turismo del Gobierno Vasco, la Diputación Foral de Gipuzkoa, el Ayuntamiento de la Ciudad de Donostia – San Sebastián y la Universidad del País Vasco – Euskal Herriko Unibertsitatea (upv/ehu), así como una significativa participación privada que ha ido incrementándose en el tiempo (ver recuadro «Mecenas»). Igor Campillo, secretario general de Passion for Knowledge. 62 El dipc es una iniciativa muy singular en su ámbito por la flexibilidad de su arquitectura institucional y el desarrollo de actividades que trascienden la propia estructura del centro. El dipc nace independiente y a la vez estrechamente vinculado a la upv/ehu, lo que ha potenciado el enriquecimiento de la actividad universitaria investigadora en la Ciencia de Materiales del País Vasco y su internacionalización. Así, el dipc ha contribuido a que en estos 10 años haya aumentado la producción científica de vanguardia de la Universidad del País Vasco, que es el núcleo fundamental de producción científica de Euskadi. En particular, se han publicado 1.192 artículos en revistas internacionales del sci, siendo la cifra de publicaciones del año 2009 tres veces superior la producción del 2000, y habiendo recibido más de 17.500 citas en la década. El dipc también ha operado como catalizador de la actividad investigadora de excelencia en su entorno más cercano, habiendo sido el incubador y ama de cría del centro mixto de la upv/ehu con el csic, así como el impulsor intelectual del cic nanogune. El dipc nació con el fin de promover la investigación y el conocimiento en física de la materia condensada y ciencia de materiales. Para cumplir este Compromiso social La ciencia, y en particular las ciencias naturales, se fundamentan en un optimismo, en lo que G. Holton, de la Universidad de Harvard, ha dado en llamar el ‘encantamiento jónico’, la creencia de que los problemas tienen solución y que si se deja volar la imaginación sin desanimarse nunca se encuentran las preguntas y las respuestas adecuadas. Respuestas muchas veces distintas a las esperadas y por caminos que ni se vislumbraban. Por eso, la ciencia es, por encima de todo, creatividad, impulsada por la pasión por conocer, por superar la ignorancia, por descubrir y por establecer las leyes que nos permiten explicar y predecir los fenómenos naturales, los comportamientos, los hechos, etc. Asimismo, la ciencia evoluciona en un constante diálogo socrático en el que se suceden hipótesis, premisas, afirmaciones, refutaciones, enunciados, razonamientos y contrarrazonamientos, experimentos y contraexperimentos, modelos , teorías, leyes, paradigmas… Un flujo de comunicación siempre abierto, infinito, entre los que hacen la ciencia, los científicos. Creatividad y comunicación. La ciencia es creatividad y comunicación. Y es responsabilidad de los científicos a su vez comunicar su conocimiento hacia fuera de la comunidad científica, a compartirlo con toda sociedad. Porque una sociedad científicamente informada y educada, que entienda cómo funciona la ciencia, que entienda que la ciencia es una actividad estéticamente hermosa, culturalmente importante y económicamente decisiva es menos susceptible de manipulación por grupos de presión y está más preparada para tomar libremente muchas de las decisiones que configurarán su futuro. Solo una sociedad concienciada del valor de la ciencia será capaz de configurarse finalmente como una sociedad del conocimiento. En este sentido el dipc tiene un compromiso firme con los ciudadanos de hacerles llegar los resultados, los avances y las implicaciones de la investigación científica. Porque el dipc quiere contribuir a que la sociedad y, en particular, los ciudadanos del País Vasco, vivan la ciencia como un valor importante en su devenir. Por ello el dipc tiene en marcha un cuarto programa de actuación, un Programa de Comunicación de la Ciencia, con el que busca contribuir a establecer un diálogo fluido y permanente entre la ciencia y la sociedad, entre los científicos y los ciudadanos, que propicie un progreso social y científico corresponsable en un entorno intelectual libre y tolerante y que muestre la ciencia como una actividad cultural accesible y atractiva a todos los públicos. De forma especial, se quiere cultivar un clima adecuado que estimule a los más jóvenes a introducirse en las carreras científicas y tecnológicas y así potenciar una cantera dinámica y que capitalice el talento de las nuevas generaciones. Dentro de este programa hay que destacar dos iniciativas ejecutadas en la primera década del dipc. Por una parte, la celebración del Albert Eisntein Annus Mirabilis 2005, evento con el que el dipc se sumó, en el Año Mundial de la Física, a las conmemoraciones del centenario del Annus Mirabilis de Albert Einstein. Los investigadores invitados formaban parte de la élite mundial e incluían a 6 premios Nobel. Los actos programados comprendían conferencias plenarias y temáticas, así como exposiciones para presentar la figura de Einstein a los niños y jóvenes. Por otra parte, la celebración del Congreso Internacional Atom by Atom en septiembre de 2009, coorganizado con el cic nanogune. El congreso Atom by Atom también fue un congreso abierto al público con el objetivo de divulgar de forma clara y accesible los avances, los retos y las implicaciones de diversas áreas de la nanociencia y la nanotecnología. Para ello se diseñó un programa de conferencias y actividades en las que participaron un importante plantel de ponentes que incluía a tres premios Nobel e investigadores destacados. Finalmente, un hito importante en la difusión de la ciencia hacia el público ha sido la creación de la web TV www.dipc.tv en el año 2008. Esta web tv está sirviendo de plataforma de conexión entre el dipc y el gran público. En esta web se encuentran alojados vídeos con las diferentes actividades científicas, públicas y de difusión que el dipc ha realizado durante los últimos 10 años. → Encuentro con escolares en el kutxaEspacio de la Ciencia. Participaron Jean Marie Lehn, Frank Wilczek y Juan Igancio Cirac 63 Entorno CIC Mecenas El Donostia International Physics Center –dipc- es una institución excepcional en el mundo de la Ciencia en nuestro país. Las razones son muchas. Pero hay una que merece ser reconocida de forma destacada: disponer de mecenas privados en un centro de investigación básica. Es una de las razones de su éxito y uno de sus elementos distintivos. El mecenazgo estuvo inicialmente vinculado a las artes. Pero ahora abarca cualquier actividad de interés social relevante. Los países anglosajones son el mejor ejemplo. Las instituciones de investigación científica y de estudios superiores son uno de los destinos elegidos por los mecenas privados y por las empresas, que se han ido sumando a esta labor. Demuestran, así, ser conscientes de que el desarrollo económico y el bienestar social dependen del desarrollo científico. Por desgracia, no es el caso de Euskadi ni de España. El banquero norteamericano David Rockefeller, está donando a la Universidad de Harvard, en la que realizó sus estudios, dos millones de dólares anuales y ha establecido un legado de cien millones a su muerte. Estos hechos ayudan a entender la distancia entre los Estados Unidos y los países europeos. Sin mecenazgo privado no es posible la independencia financiera, que garantiza la estabilidad y el trabajo a largo plazo de las instituciones de investigación, indispensables para competir en condiciones en la escena mundial. El dipc, por una excepcional confluencia de factores -la solidez del proyecto, la competitividad internacional de sus investigadores y la personalidad de su presidente-, ha hecho posible que empresas como Kutxa, Naturgas Energía, Telefónica, mapfre y caf se hayan sentido atraídas por nuestro proyecto, convirtiéndose en sus Patronos y contribuyendo, con su presencia y sus aportaciones económicas, a nuestro éxito. A pesar de que el tratamiento fiscal al mecenazgo en Ciencia no fomenta decisiones como las que ellos tomaron, necesitado, como está, de ser pensado con una visión de mayor alcance. Pero el dipc ha tenido la fortuna insospechada de contar con un mecenas de excepción: Dña. Josebe Olarra Lizarralde, quien le dejó su herencia, en la mejor tradición anglosajona. Desde su muerte, el Salón de Actos del Centro lleva su nombre. Nuestra primera benefactora siempre permanecerá en nuestra memoria. Alberto López Basaguren es catedrático de Derecho Constitucional de la Universidad del País Vasco y Secretario del Donostia International Physics Center. 64 Sesión de pósters en los workshops Encuentro con escolares en el Aquarium. Participaron Ada Yonath y Sylvia Earle Festival del conocimiento El 26 de abril del presente año, Julio Linares, consejero delegado de Telefónica, impartió la conferencia «Las Telecomunicaciones pasan por la Física», con la que se daba comienzo a la segunda década del dipc y se abría Passion for Knowledge. Durante los diez años de historia, el centro de gravedad del dipc ha sido el conocimiento científico. Por eso, celebrar el dipc es celebrar el conocimiento. El formato elegido para Passion for Knowledge no ha sido el de un congreso al uso, sino que se diseñó como un auténtico Festival, un Festival del conocimiento, que ha englobado múltiples actividades bajo tres grandes secciones: Las Conferencias, La Ciudad, ambas abiertas a todos los ciudadanos, y Los Workshops, restringido a la comunidad científica. Las Conferencias se ha constituido como el plato fuerte de Passion for Knowledge. Ha consistido en un programa de conferencias abiertas al público impartidas por un grupo de ponentes que incluía a diez premios Nobel de física y química, investigadores de reconocido prestigio y ponentes de disciplinas humanistas, que nos han hablado de los momentos clave, los retos, los resultados y las implicaciones de sus carreras profesionales. Las Conferencias tuvieron lugar en el Kursaal del 27 de septiembre al 1 de octubre en horario de 17:00 a 21:00. Cerca de 2.000 personas se inscribieron y asistieron en directo a este ciclo de conferencias, además de las más de 5.500 personas que siguieron en directo las conferencias en el canal tv del dipc –dipc.tv (4.500 personas han visualizado en diferido las conferencias hasta el 12 de octubre de 2010, sumando un total de 3.604 horas de visionado). La Ciudad incluía un programa de actividades distribuidas por la ciudad de San Sebastián y realizadas en colaboración con diferentes agentes culturales y sociales: Aquarium, Kutxa Obra Social, KutxaEspacio de la Ciencia, el centro comercial La Bretxa, y la Fundación Elhuyar. Estas colaboraciones han permitido extender la celebración del décimo aniversario del dipc por múltiples espacios y rincones de la ciudad y llevar la ciencia a lugares y eventos que el público asocia con la cultura y el ocio. Sobre todo, estas colaboraciones, y otras que se puedan establecer en los próximos años, deben servir para crear canales permanentes que vehiculicen la difusión del conocimiento científico en formatos innovadores y cada vez más accesibles al gran público. Fruto de esta colaboración, en la sección La Ciudad, Passion for Knowledge se han desarrollado las siguientes actividades: Un ciclo de conferencias bajo el título Lecciones Kutxa impartidas por investigadores del entorno del dipc durante los meses de mayo y junio, y que han servido para preparar al gran público para la sección de Las Conferencias. En lugares concurridos de la ciudad como son el centro comercial la Bretxa y el Aquarium, bajo el título «Pasión por el arte», se han tenido abiertas, desde el 20 de septiembre al 10 de octubre, dos exposiciones de arte de gran calidad y belleza que ofrecen una mirada sorprendente y algo desconocida sobre la ciencia. La exposición NanoArt21 presentaba una selección de trabajos de 28 artistas internacionales que han estado entre los diez mejores en las cuatro ediciones del Concurso Internacional de NanoArte en Internet. La exposición FotCiencia mostraba una selección de 50 obras fotográficas que participaron en la 7a edición del certamen → → 65 Entorno CIC Xxxx xxxx xxx xxxxx El lunes 27 de septiembre, el Ayuntamiento de San Sebastián rindió un homenaje a los patronos privados del dipc, grandes empresas que han apostado por la ciencia demostrando la viabilidad y necesidad de las alianzas público-privadas para el progreso científico. Acudieron a recibir una placa conmemorativa los máximos representantes de los patronos privados del dipc, Xabier Iturbe, presidente de Kutxa, Fernando Bergasa, consejero delegado de Naturgas Energía, Julio Linares, consejero delegado de Telefónica, Andrés Arizkorreta, director general de caf, y José Manuel Martínez, presidente de Mapfre nacional de fotografía científica organizado por el por el Consejo Superior de Investigaciones Científicas (csic) y la Fundación Española para la Ciencia y la Tecnología (fecyt). Dentro de la sección La Ciudad la actividad que mayor impacto ha tenido es la de Los Encuentros entre Premios Nobel e investigadores con diferentes colectivos de la Comunidad Autónoma del País Vasco. Se han celebrado 4 Encuentros en total: 2 Encuentros con escolares de entre 14 y 18 años, celebrados en KutxaEspacio de la Ciencia y Aquarium los días 28 y 30 de septiembre respectivamente, uno con profesores de secundaria celebrado en KutxaEspacio de la Ciencia el 29 de septiembre y uno con profesionales del ámbito biosanitario celebrado el 27 de septiembre en KutxaEspacio de la Ciencia. En los Encuentros con Escolares participaron 49 colegios, sumando un total de 200 escolares y 66 profesores, en el Encuentro con profesores participaron 80 profesores y en el Encuentro biosanitario participaron 102 profesionales. Junto con la Fundación Elhuyar, se ha organizado el concurso de vídeos online On Zientzia, con el que se quiere premiar la capacidad de divulgación de la ciencia. On Zientzia está dirigido a investigadores nóveles, aficionados a la ciencia, escolares y cualquiera que desee un enfoque creativo sobre la ciencia. Se han recibido 50 vídeos en total. El fallo del jurado se dará a conocer durante la semana de la ciencia en Donostia – San Sebastián. En el Aquarium, bajo el título genérico de Pasión por el mar tuvieron lugar una jornada de conferencias sobre investigación en túnidos el día 24 de septiembre y proyecciones de cine sobre el mar y la naturaleza los días 25 y 26 de septiembre. La sección Los Workshops ha estado dirigida y restringida a la comunidad científica internacional y comprendía la celebración de cuatro workshops centrados en las líneas de investigación principales que se han desarrollado en el dipc durante los diez años de existencia: ···· Dinámica ultrarrápida de electrones, bajo el título Passion for electrons. ···· Física de superficies, bajo el título Passion for interfaces. ···· Física de materiales poliméricos, bajo el título Passion for soft matter. ···· Fotónica y plasmónica, bajo el título Passion for photons. Cerca de 400 investigadores de todo el mundo han participado en los workhops, habiendo tenido lugar 4 Keynote lectures, 109 ponencias orales y 161 posters. Passion for Knowledge ha sido un éxito porque ha contado con ponentes extraordinarios, porque ha servido para compartir e intercambiar ideas entre científicos, porque el nivel de las comunicaciones recibidas y el nivel de las conferencias plenarias ha sido muy elevado. Todo esto es verdad, y con ello podríamos sentirnos satisfechos. Pero, sobre todo, Passion for Knowledge ha sido un gran éxito por la respuesta ciudadana. La asistencia de público y la participación de estudiantes y profesores en los Encuentros han desbordado las expectativas, y se ha podido comprobar que se han seguido las ponencias y actividades con gran interés y entusiasmo. Por todo ello, en el dipc nos sentimos reafirmados para continuar con mayor empeño en nuestro compromiso de acercar la ciencia a la sociedad. Es el comienzo de una nueva década. commy nim am zzriustrud tio conulla aliquip suscill andreet lore feuismod exer alit lut accum ing enim zzrilisi blamcon hendio delit praesto dolore ming exeriusci et luptat. Adiam augiatem in etue do eugait el eui tate faci blametuerat alis doleniamcore dolor sectet adip et irit utem etueraesto odolor suscing exeratummod ex eugait venibh er sum iriustrud dip euisl eummy nullut luptatis nim quat, core commy nullandio odolenim dignissed te consequ amcommodo erosto od dolore modip ex eugiamc onsequip exero od magnis amet velisi. Percil irit am ad duis ad et at, quatue tem verit, sum augiam zzriurercin henim ad tisis nullam inciduip ero ea feugue min utat. Ure tet veliquat nulla ate elit aliquatet la corLent acil endiam duis alit, coreet nostie tat irillum ing esecte modiamc onsecte feuguer sit amet, veliquamet am dolobore magna ad minibh et vero od molorper sis amet praese dio od magnim etue molore consequam illam zzriustrud ea feu feu faciduisi ex esto odoloreetue venim dionsed ting euisis aliquate conullan vel dolenit enisim nullaoreet lore conulluptat. Vulla autatem in hendre modionsectem zzriustis nisi blam ad tet, quatum non ullam doloborper sent exero commod dolorem dolobore velit lorpero consequat et lamcon enibh eugait ver in exero et vel dolortis ad minis et aciliquat. Uguer sendion sequat. Quisi tem dio odoluptatie cor summy nit wismolum nos augiamcon elis diat, quissi. Ud eugiat nit la adigna facing euismod magna feuis adignibh esequatet et, suscing ex ea atem ipisl ute essecte velessi eu faciliquat. Duisim aute commod min enis augiatue delis nonsed tio eliquatin velenibh eugait pratummod magnisit augait in hent acidunt ipit, velit lore min ullaore tet dolor sim dolore dunt lut dolut adignismod exerostie consequ atissi exerit adigna facipisim init irillut nullamet vullaoreet illummy nullametue ming er suscinisi. Ore feumsan utpat irit nonsequisi bla faccummod magnit atet adiamet inciduisim in henismodolut alismol orperci duipsum ipisl ipissim inciduis aute er sit nonsed tie feu faciliquat acing eugue moloreetue dolore ming erostie diamet vel iniam dignit duis dunt velenis cipiscin henit, core volore molesequisi ex elis nonsequis dolor sim irilisl delisit lutpatie commy nim am zzriustrud tio conulla aliquip suscill andreet lore feuismod exer alit lut accum ing enim zzrilisi blamcon hendio delit praesto dolore ming exeriusci et luptat. Adiam augiatem in etue do eugait el eui tate faci blametuerat alis doleniamcore dolor sectet adip et irit utem etueraesto odolor suscing exeratummod ex eugait venibh er sum iriustrud dip euisl eummy nullut luptatis nim quat, core commy nullandio odolenim dignissed te consequ amcommodo erosto od dolore modip ex eugiamc onsequip exero od magnis amet velisi. Percil irit am ad duis ad et at, quatue tem verit, sum augiam zzriurercin henim ad tisis nullam inciduip ero ea feugue min utat. Ure tet veliquat nulla ate elit aliquatet la cor → 66 67 Xxxx xxxx xxx xxxxx Euskadi en breve Euskadi en breve Guserbiot desarrolla la primera levadura autóctona para los vinos de Rioja Alavesa La empresa Guserbiot ha desarrollado la primera levadura autóctona para los vinos de Rioja Alavesa con la colaboración de la Fundación Leia y las bodegas Marqués de Riscal y Baigorri. La levadura, denominada GBiot EL 011-S, ya ha sido patentada y ha empezado a ser comercializada de cara a la vendimia de 2010. El vino es el resultado de un complejo proceso bioquímico en el que desempeña un papel fundamental la fermentación alcohólica llevada a cabo por la levadura Saccharomyces cerevisiae, responsable de un proceso metabólico que transforma los azúcares del mosto en etanol. Desde hace más de 20 años, la práctica totalidad de los productores de vino de las diferentes denominaciones de origen recurren a levaduras externas comerciales, importadas de países como Francia o Australia, para incorporarlas al proceso de elaboración del vino. Estas levaduras comerciales han dado unos resultados óptimos, pero al mismo tiempo han contribuido a crear una cierta estandarización de los aromas y sabores de los vinos. Por ello, las denominaciones de origen de diferentes zonas vitivinícolas del mundo están buscando la diferenciación con respecto a la competencia, reforzando las señas de identidad de sus respectivos caldos a través del desarrollo de levaduras autóctonas. Este nuevo producto es el resultado de 6 años de investigación en Guserbiot, que junto con a&b Laboratorios de Biotecnología conforma el grupo abg Biotech. El proyecto ha contado con el apoyo de los programas de ayuda a la investigación, desarrollo e innovación de la Diputación Foral de Alava y del Gobierno Vasco. Inaugurado en San Sebastián el Centro de Investigación en Neurociencia Cognitiva del Lenguaje El nuevo Centro de Investigación en Neurociencia Cognitiva del Lenguaje (bcbl, Basque Center on Cognition, Brain and Language), único en España dedicado a esta materia, fue inaugurado el pasado 7 de junio en San Sebastián. El centro, ubicado en el Parque Tecnológico de San Sebastián y con un laboratorio en el campus donostiarra de la upv/ehu, ocupa 1.500 metros cuadrados y cuenta actualmente con un equipo internacional de 53 personas. El Basque Center on Cognition, Brain and Language (bcbl) pretende desentrañar los mecanismos neuropsicológicos de la adquisición, procesamiento y representación del lenguaje en bebés, jóvenes y adultos, en personas sanas y con trastornos. Los investigadores también trabajarán en proyectos de investigación neuropsicológica para comprender mejor enfermedades como el Alzheimer o la hiperactividad. Las instalaciones del bcbl dedicadas a neurociencia cognitiva cuentan, entre otros, con resonancia magnética de 3 Teslas, que obtiene imágenes tridimensionales del cerebro cuando se presenta un determinado estímulo, y una unidad de magnetoencefalografía, que registra la actividad del cerebro durante la ejecución de tareas cognitivas. Actualmente, trabaja en cinco proyectos, uno de los cuales profundiza en los procesos implicados en la lectura, la dislexia, los problemas de atención y las dificultades de razonamiento, que están siendo desarrollados junto a las universidades de Granada, Murcia, La Laguna y Sevilla. 68 Progenika lanza dos nuevos productos contra enfermedades en recién nacidos, embarazadas y personas con cáncer La empresa de medicina personalizada Progenika ha presentado dos nuevas herramientas para identificar grupos sanguíneos basados en las tecnologías más avanzadas del mercado. Estos nuevos desarrollos permitirán evitar enfermedades y complicaciones a recién nacidos, mujeres embarazadas y personas que requieren múltiples transfusiones de sangre como son los pacientes oncológicos. Con estos nuevos desarrollos, se pueden evitar enfermedades en recién nacidos como trombocitopenias neonatales, enfermedad hemolítica o anemia fetal. Asimismo, ayudan a evitar la aloinmunización en mujeres embarazadas, es decir, la generación y el paso de anticuerpos maternos al feto que suponen la destrucción de células sanguíneas fetales. Además, para personas que necesiten múltiples transfusiones sanguíneas, estas técnicas nuevas evitan las reacciones adversas del paciente. Cabe destacar que para algunos de los grupos sanguíneos analizados no existe actualmente ninguna técnica alternativa. Las nuevas herramientas desarrolladas por la compañía vasca están basadas en la tecnología Luminex, una técnica muy rápida, ya que solo son necesarias 5 horas desde la extracción del dna para obtener los resultados, y que permite analizar un elevado número de muestras en el mismo proceso, lo que supone una optimización de los recursos y del coste. Por otra parte, es una técnica que está adaptada a las necesidades de los bancos de sangre, con lo que éstos no tienen que invertir ni cambiar su forma de actuación. Esta nueva tecnología, junto a la ya disponible de dnachips, convierten a Progenika en referente internacional en el desarrollo de herramientas de diagnóstico molecular en medicina transfusional. Ambas técnicas, que forman parte de la familia bloodchipID y por lo tanto cuentan ya con el marcado ce, que supone la aprobación de la Unión Europea y su autorización para ser comercializados, están incluidas en el acuerdo de distribución suscrito recientemente entre Grifols y Progenika. La Universidad del País Vasco incluye el grado de Biotecnología en su oferta académica para el próximo curso La Universidad del País Vasco (upv/ehu) incluye por primera vez el título de Biotecnología en su oferta de grados para este curso académico. Este será el primer año académico en que esta institución académica oferte títulos de grado plenamente adaptados al Espacio Europeo de Educación Superior, tal como hizo hace ya varios cursos con sus títulos de postgrado. El grado de Biotecnología, enmarcado en la Facultad de Ciencia y Tecnología, está muy implicado con los de Biología y Bioquímica, con los que tiene algunos cursos en común. La upv/ehu ha realizado esta apuesta para formar profesionales en Biotecnología, ya que, según la propia Universidad, esta disciplina «ha experimentado un desarrollo espectacular en los últimos años, que se prevé mantenga en un futuro». Las actividades profesionales del Graduado en Biotecnología incluyen de manera preferente el diseño y análisis de bioprocesos destinados a la obtención de productos, bienes y servicios que demanda la sociedad, así como la gestión y control de procesos biotecnológicos en plantas de producción a escala industrial. El marco laboral de estas actividades incluye de modo muy preferente a las bioempresas, aunque también se extiende a otras industrias que sean usuarias de aplicaciones. 69 Euskadi en breve Un estudio de la Unidad de Biofísica csicupv/ehu desarrolla una nueva coraza para evitar la infección del virus del sida Un estudio del Consejo Superior de Investigaciones Científicas (csic), dirigido por el profesor Félix Goñi, director de la Unidad de Biofísica, centro mixto csic-upv/ehu, ha desarrollado un método de ataque contra el virus del sida que consiste en crear un sistema de prevención basado en una coraza en las células que van a ser infectadas. Esto impide de facto que el virus pueda acceder a ellas y comience a actuar sobre el sistema inmunológico. El estudio, iniciado hace tres años, sienta las bases de un posible futuro fármaco que permitiría atacar al virus del sida en su fase inicial. El artículo que ha dado a conocer el trabajo se titula Dihydrosphingomyelin impairs HIV-1 infection by rigidifying liquid-ordered membrane domains, y se ha publicado en la prestigiosa revista Chemistry&Biology del grupo Cell. La investigación proporciona un nuevo enfoque en la investigación científica hasta ahora no explorado: se basa en la regulación de la fluidez de las membranas celulares y pretende evitar el fenómeno conocido como la fusión de membranas, resultado del contacto entre las membranas de las células y la propia membrana del virus. La investigación pretende fortalecer la estructura de la membrana, haciéndola más rígida, para evitar la fusión de membranas y, por consiguiente, la inoculación del virus del sida en la célula. En la investigación han intervenido, además del grupo de Goñi, el grupo del Centro Nacional de Biotecnología (csic-Universidad Autónoma de Madrid) que dirige el profesor Santos Mañes y el grupo de la profesora Gemma Fabrias, del Instituto de Instituto Química Aplicada de Catalunya (csic, Barcelona). Euskadi en breve Un dispositivo desarrollado por ik4 para detectar ets se comercializará en la India Un dispositivo portátil desarrollado por la Alianza Tecnológica IK4, capaz de detectar la clamidia, el virus del papiloma humano (inductor del cáncer de útero) y otras enfermedades de transmisión sexual en menos de media hora, será comercializado en la India en 2012 con el objetivo de contribuir a diagnosticar este tipo de patologías. Con una población estimada de 1.198 millones de habitantes, se calcula que más de 82,5 millones de personas están afectadas por alguna de estas patologías en la India. El dispositivo de diagnóstico rápido y de bajo coste, desarrollado por los centros de ik4 gaiker e ikerlan, permitirá detectar la presencia de Enfermedades de Transmisión Sexual (ets) u otros agentes infecciosos en un tiempo muy inferior al de los sistemas convencionales actuales de cultivo microbiológico o de detección molecular. Este desarrollo tecnológico, que no requiere la infraestructura de un laboratorio, lleva a cabo complejas técnicas de detección a partir de muestras clínicas y es más eficaz y rentable que otras técnicas rápidas actuales. La empresa india Globionic Technology, que se encargará de poner el desarrollo en el mercado, ha tenido conocimiento de este dispositivo de diagnóstico a través de diferentes publicaciones científicas y especializadas. El pasado mes de mayo, una delegación de esta empresa visitó los centros de ik4 para conocer de primera mano el desarrollo tecnológico. Durante la visita, se llevó a cabo una demostración de detección de salmonella en heces mediante ese sistema. La detección de este patógeno fue, de hecho, el modelo inicial de trabajo del nuevo desarrollo. Tras verificar su funcionamiento, ambas partes firmaron un convenio en el que se acordó que la delegación india recibirá un prototipo de la plataforma para que la Universidad de Delhi adapte el dispositivo a la detección de ets. La adaptación deberá permitir el diagnóstico de cualquier enfermedad relacionada con la biología molecular, incluidas las ets. Mientras tanto, los centros de ik4 trabajarán en el desarrollo del modelo de dispositivo portátil para su salida al mercado. Investigadores de cic biomagune desarrollan un nuevo método de diagnóstico basado en quantum dots Investigadores del Centro de Investigación Cooperativa en Biomateriales, cic biomagune, han desarrollado un nuevo método de diagnóstico basado en puntos cuánticos (quantum dots) que puede tener aplicación en los análisis clínicos del sida, la hepatitis C y otras enfermedades infecciosas. La nueva técnica, para la cual se ha solicitado una patente, ha merecido la portada de la revista Chemistry- A European Journal. Los puntos cuánticos son una nanoestructura semiconductora con la particularidad de que están iluminados y reemiten luz en una longitud de onda muy específica. Ofrecen imágenes de mucho contraste, lo que los hace muy útiles para el diagnóstico. 70 El grupo de investigación de cic biomagune, liderado por Valery Pavlov, ha desarrollado un ensayo analítico para detectar la actividad de dos enzimas principalmente, a través de la generación de estos puntos cuánticos: por un lado, la acetilcolinesterasa, una enzima humana que se encuentra en los tejidos nerviosos y los glóbulos rojos; y, por otro, la fosfatasa alcalina, una enzima responsable de eliminar fosfatos de las moléculas. La generación de estos puntos cuánticos durante los análisis elisa, un método muy utilizado en el diagnóstico clínico, permite detectar de forma sencilla antígenos y anticuerpos del sida, la hepatitis C y otras enfermedades infecciosas, lo que abre la puerta a su utilización en los ensayos clínicos. 71 Euskadi en breve Una investigación de cic biogune abre una nueva vía de estudio para predecir enfermedades neurodegenerativas Investigadores de cic biogune, liderados por el Dr. Aitor Hierro, han abierto una nueva vía para avanzar en el conocimiento y predicción de enfermedades neurodegenerativas como la esclerosis lateral amiotrófica (ela en sus siglas en inglés), según se ha publicado en la revista The Proceedings of the National Academy of Sciences of the United States of America. Este estudio abre una posible nueva vía de investigación en humanos para llegar a predecir esta patología, antes de que se generen sus primeros síntomas. El estudio ha sido realizado en colaboración con grupos del Instituto Nacional de Salud (nih) y del Centro Neuromuscular de la Clínica Cleveland, ambos de ee.uu., así como del Centro Nacional de Investigaciones Científicas (cnrs) en Francia. La investigación ha resuelto por primera vez la estructura de una proteína denominada Vps54. En el modelo de ratón wobbler, la proteína Vps54 presenta una mutación que da lugar a una degeneración progresiva de neuronas motoras e infertilidad. Debido a este fenotipo característico, el ratón wobbler ha sido utilizado desde su descubrimiento en 1956 por el Dr. Falconer como modelo de ratón para el estudio de la degeneración espontánea de neuronas motoras, incluyendo la esclerosis lateral amiotrófica. En 2005, el grupo del Dr. Jockusch consiguió identificar la mutación responsable del fenotipo wobbler. A partir de este momento, el grupo liderado por el Dr. Hierro se ha centrado en entender cómo la mutación afecta a la proteína y a su propia actividad. Así, se ha descubierto que la enfermedad no es solo consecuencia de la mutación sobre una proteína concreta — ­ tesis que se había mantenido hasta ahora en base a los estudios precedentes—, sino que existe un efecto dominó en el que los niveles reducidos de la proteína mutada ejercen un efecto desestabilizador sobre el resto de componentes del complejo del que forma parte. Un consorcio vasco desarrolla un microsensor para controlar la artritis y la psoriasis El antihistamínico Bilastina, de Faes Farma, autorizado para ser comercializado en la Unión Europea Un consorcio vasco, formado por cic microgune, el Instituto BioDonostia y las empresas Proteomika y Abyntek, del Grupo Progenika, trabaja en el desarrollo de un microdispositivo sensor que permita monitorizar la evolución de enfermedades inflamatorias autoinmunes y crónicas, como la artritis reumatoide, la enfermedad de Crohn, la colitis ulcerosa o la psoriasis. La actividad inflamatoria podrá medirse directamente en la sangre del paciente, lo que permitirá dosificar el uso de fármacos específicos, minimizando los efectos secundarios y logrando un mejor control del gasto sanitario. El antihistamínico de última generación de la empresa farmacéutica Faes Farma, Bilastina, ha sido autorizado por la Unión Europea para el tratamiento de la rinoconjuntivitis alérgica y urticaria. El fármaco estará disponible en el mercado europeo a lo largo de 2011, donde aspira a alcanzar una cuota del 20%. Uno de los parámetros clínicos empleados para estudiar la evolución de estas enfermedades es la concentración de la proteína C reactiva en sangre, y sin embargo, el factor más importante que afecta al desarrollo de la actividad inflamatoria es la proteína tnf alfa o Factor de Necrosis Tumoral, en muchas ocasiones generada por el cuerpo como respuesta a la enfermedad. La determinación de tnf-alfa no se realiza hoy en día de forma rutinaria en ninguno de los hospitales del mundo ya que no existen técnicas viables dentro de la práctica clínica diaria. Por eso, la búsqueda de un nuevo método que permita determinar el tnf-alfa en la práctica clínica habitual resulta de un gran interés sanitario y económico. Dicho dispositivo aportará al facultativo datos objetivos y la información necesaria para la personalización del tratamiento del paciente. Los investigadores esperan poder contar ya con un prototipo en 2011, que se probará con muestras reales de pacientes para finales de ese mismo año. Los trabajos en torno a tnfAlfa están financiados por el Gobierno Vasco y por la Diputación Foral de Gipuzkoa. 72 La aprobación de Bilastina supone un hito de la máxima relevancia en la historia de la farmacéutica vasca, que ve cómo un fármaco nacido fruto de su investigación y desarrollo obtiene luz verde para su comercialización, lo que supone el último paso de un proceso de diez años de duración. Bilastina es un antihistaminico de última generación, rápido y de acción prolongada, con un amplio perfil de seguridad, indicado en rinoconjuntivitis alérgica y urticaria. Su eficacia se ha contrastado en 28 ensayos clínicos llevados a cabo por Faes Farma en tres continentes y sobre más de 5.000 pacientes. Faes Farma ha licenciado ya los derechos del fármaco para su comercialización en numerosos países. Se estima que entre el 10 y el 30% de la población mundial se ve afectada por síntomas alérgicos, hasta ser considerada como la enfermedad más prevalente en pacientes adultos. En la Unión Europea se considera que la alergia afecta a más de 100 millones de personas, con la incidencia más alta en Alemania, Francia, Italia y España. El mercado de antihistamínicos en el mundo se estima en la actualidad en unos 4.200 millones de euros, de los cuales, la cuarta parte corresponde a Europa. 40 entidades vascas participan en BioSpain 2010, el principal congreso español de biotecnología Convenio de colaboración entre cic biogune y el Instituto Pascual para promocionar la formación y divulgación científica La BioRegión Vasca estuvo presente en BioSpain 2010 con una delegación encabezada por la Agencia BioBasque y compuesta por cerca de 40 entidades que incluyeron a empresas, representantes del entorno sanitario, agentes científico-tecnológicos, parques tecnológicos, incubadoras e instituciones. El Centro de Investigación Cooperativa en Biociencias, cic biogune, y el Instituto Tomás Pascual han firmado un convenio de colaboración con el objetivo de fomentar la formación y difusión del conocimiento científico durante el presente año 2010. El Instituto Tomás Pascual ha concedido a cic biogune una ayuda económica por valor de 30.000€ con el fin de que la entidad científica vasca impulse actividades asociadas con la formación de nuevos valores investigadores y la difusión científica durante 2010. BioSpain 2010 se celebró del 29 de septiembre al 1 de octubre en Pamplona, ciudad que acogió este año el evento que, con carácter bianual, reúne a un nutrido grupo de expertos del sector biotecnológico nacional e internacional. Precisamente, la internacionalización de la feria fue la novedad más destacada de esta edición. Alrededor de 160 compañías, un 33% más que en la edición anterior (BioSpain 2008), participaron en el área comercial, principalmente de España, Bélgica, Canadá, Francia, Alemania e India. La BioRegión Vasca mantuvo contactos con estas delegaciones y con las oficinas de otros países como Reino Unido. El evento se estructuró en una feria comercial, un acontecimiento de partenariado, un foro de inversores, sesiones plenarias y conferencias de temática diversa con ponentes internacionales, el congreso científico de la Sociedad Española de Biotecnología (sebiot) y un foro de empleo. El congreso científico organizado por la Sociedad Española de Biotecnología (sebiot), Biotec 2010 incluyó, entre otros, temáticas relacionadas con la biotecnología medioambiental, las tecnologías de diagnóstico y la nanobiotecnología, ámbitos en los que trabajan numerosas empresas y agentes científico-tecnológicos de la BioRegión Vasca. En este sentido, esta colaboración entre cic biogune y el Instituto Tomás Pascual ha derivado en un programa muy ambicioso de actividades en formato de congresos, workshops, conferencias y seminarios científicos, mesas redondas, etc. En este programa de actividades de difusión cabe destacar la organización de la V Bienal del grupo especializado en Resonancia Magnética Nuclear, rmn, de la Real Sociedad Española de Química, y las Jornadas de Enfermedades Crónicas, esta última que se organizará en colaboración con la Fundación Ciencias de la Salud los días 11 y 18 de noviembre en Bilbao. Así también, durante este año, cic biogune ha organizado tres workshops: el primero, organizado junto con ciberehd sobre tecnologías ómicas -«Análisis de Genomas, Silenciamiento Génico, Proteómica y Metabolómica»; el segundo, sobre Traslational Research, organizado con las plataformas tecnológicas Tecnalia e IK4, así como con los Centros de Investigación Cooperativa (cic); y el tercero ha estado dedicado a las Nuevas Técnicas en Biología Estructural. Durante el presente año, cic biogune ha organizado alrededor de 25 conferencias y 36 seminarios, con la participación de destacados referentes de la comunidad científica internacional, como son Angelika Schnieke, creadora junto a Ian Wilmut de la clonación de la Oveja Dolly; el Dr. Charles Weissmann, descubridor del gen que fabrica los priones; Manuel Serrano, descubridor de p53, el guardián del genoma; y Antonio Vidal, catedrático de la Universidad de Cambridge. Del mismo modo, y con motivo de la visita a cic biogune del International Scientific Advisory Board, se organizó en junio una mesa redonda bajo el título: «Fronteras de la investigación biomédica», en la que intervinieron Richard H. Finnell, Angela Gronenborn, Samir M. Hanash, Shelly Lu, Juan Rodés y Roger M. Burnett. Inaugurado en Bilbao el observatorio astronómico más potente de Euskadi La Escuela Técnica Superior de Ingeniería de Bilbao (upv/ehu) inauguró el pasado mes de julio el Observatorio Astronómico Aula Espazio Gela, que cuenta con el telescopio más potente de los instalados en el País Vasco. La cúpula del observatorio, con un diámetro de 3,5 metros y construida en Australia, se instaló el pasado 14 de marzo en el tejado de la escuela, para lo que fue necesario una grúa de 50 metros. En su interior acoge un telescopio de 50 centímetros de diámetro, el más grande y potente de los que operan actualmente en el País Vasco. Junto al observatorio, que ha costado 82.500 euros, los alumnos podrán hacer uso de telescopios auxiliares y móviles para investigar todo tipo de cuerpos celestes desde distintos puntos. El observatorio permitirá a los alumnos acercarse a los problemas que se encontrarán durante su carrera profesional, ya sea como tecnólogos para el desarrollo y optimización de telescopios e instrumentos, o como científicos para completar trabajos de investigación del espacio. Aunque el observatorio está enfocado fundamentalmente a la docencia, también se pretenden realizar observaciones astronómicas sencillas que puedan contribuir a la divulgación de la Astronomía y de la Ciencia Espacial. El observatorio forma parte a su vez de las instalaciones del Aula Espazio Gela puesta en marcha en julio de 2009 con el objetivo de formar a profesionales en el ámbito de la ciencia y tecnología espacial, así como a la promoción de la investigación. 73 PUBLICIDAD Euskadi en breve El Kursaal, un espacio para los profesionales de la ciencia y la tecnología Un novedoso análisis de sangre permitirá el diagnóstico precoz de la enfermedad del hígado graso Un consorcio de centros de investigación, universidades y empresas, liderado por cic biogune y Owl Genomics, ha desarrollado un nuevo test de análisis, a partir de la tecnología metabolómica, que se erigirá en una herramienta eficaz para el diagnóstico precoz de la enfermedad del hígado graso no alcohólico (nafld). El novedoso proyecto ha sido publicado este pasado mes de agosto en la revista Journal of Proteome Research, y estará disponible en breves fechas en el mercado, ya que la empresa Owl Genomics iniciará su comercialización en España con la compañía Ferrer. El desarrollo de este novedoso proyecto ha contado también con la participación de investigadores del inserm y varios hospitales universitarios (el Hospital aphp Pitié Salpêtrière, la Universidad Pierre y Marie Curie de Paris, el Centro Hospitalario Universitario de Niza y la Universidad Sophia-Antipolis de Niza, Francia), la Universidad Vanderbilt (Nashville, ee. uu.), la Universidad del Sur de California (Los Angeles, ee. uu.), el Hospital Clínico e idibaps (Barcelona, España) y la Universidad de Alcalá de Henares (Alcalá de Henares, España). En este sentido, forma parte de los proyectos hepadip (www.hepadip.org) y ciberehd (www.ciberehd.es) y cuenta con el apoyo de la Comisión Europea y del Instituto de Salud Carlos III de España. La obesidad supone un grave factor de riesgo para la nafld. La nafld es una enfermedad progresiva, que abarca desde la simple acumulación de grasa en el hígado (esteatosis) hasta complicaciones necroinflamatorias más severas como la esteatohepatitis no alcohólica (nash o ehna), que afecta al 24% de la población estadounidense y europea. Hoy en día, los métodos más comúnmente empleados para diagnosticar nafld son las técnicas de imagen de ultrasonidos y resonancia magnética, y el examen histológico de una muestra de biopsia de hígado. No obstante, las técnicas de imagen resultan caras y poco precisas (no logran distinguir un nash de una simple esteatosis), mientras que la biopsia de hígado es una técnica cara, invasiva y de procedimiento subjetivo, asociada con potenciales complicaciones y propensa a los errores de muestreo. El análisis de sangre basado en la metabolómica sí detecta la diferencia entre una simple esteatosis y la nash. «Creemos que esta es la primera aplicación de una nueva aproximación experimental para determinar un perfil metabolómico de la sangre que dé pie a la identificación de los posibles biomarcadores para cualquier enfermedad hepática y un magnífico ejemplo de investigación traslacional», comenta el profesor José Mato, director de cic biogune e investigador de ciberehd. 74 Xxxx xxxx xxx xxxxx Descubren un novedoso mecanismo de comunicación entre las proteínas causantes del suicidio celular Un reciente estudio realizado por investigadores de cinco centros de investigación, entre los que se incluye la Unidad de Biofísica (csic-upv/ehu), proporciona nuevas claves para comprender el proceso de suicidio celular. La investigación se publicó en septiembre en la prestigiosa revista Cell. Diariamente, nuestro cuerpo elimina de forma controlada más de 100 millones de células defectuosas, mediante un procedimiento denominado suicidio celular o apoptosis. Este es un proceso de gran complejidad, cuyos desajustes pueden originar graves enfermedades, entre las que destaca el cáncer. Durante las últimas dos décadas ha sido posible identificar los distintos componentes celulares implicados en la apoptosis. Sin embargo, aún quedan importantes cuestiones por resolver sobre el funcionamiento de algunas piezas claves de este gran rompecabezas celular. El trabajo desvela que tres componentes esenciales del proceso apoptótico, las proteínas bax, drp-1 y el lípido cardiolipina, actúan de forma conjunta para producir un gran agujero en la membrana externa de la mitocondria, el cual resulta letal para la célula. Pero, probablemente, el aspecto más novedoso y sorprendente del estudio es que los investigadores han conseguido descifrar un nuevo lenguaje utilizado por bax y DRP-1 para comunicarse: estas dos proteínas no interaccionan físicamente entre sí, como ocurre habitualmente, sino que lo hacen a través de los lípidos de la membrana. «Específicamente, lo que hace una de las proteínas (drp-1) es deformar la bicapa lipídica de la membrana y la estructura resultante es la que aparentemente posibilita la activación de la segunda proteína (bax)». explica Gorka Basañez, de la Unidad de Biofísica (csic-upv/ehu), uno de los autores del estudio. Estos hallazgos podrían abrir nuevas vías para el desarrollo racional de fármacos antitumorales específicamente dirigidos contra estos componentes de la maquinaria apoptótica celular. En este estudio, dirigido por el Profesor Jean-Claude Martinou, del departamento de Biología Celular de la Universidad de Ginebra (Suiza), han intervenido, además de la Unidad de Biofísica csic-upv/ehu, las universidades de Salzburgo (Austria), Hanover (Alemania), y Florida (ee.uu). exero et vel dolortis ad minis et aciliquat. dolobore magna ad minibh et vero od molor- lore conulluptat. Vulla autatem in hendre modionsectem zzrius- Uguer sendion sequat. Quisi tem dio odolupper sis amet praese dio od magnim etue molore tis nisi blam ad tet, quatum non ullam dolobor- tatie cor summy nit wismolum nos augiamcon consequam illam zzriustrud ea feu feu faciduisi ex esto odoloreetue venim dionsed ting euisis per sent exero commod dolorem dolobore velit elis diat, quissi. Ud eugiat nit la adigna facing euismod magna aliquate conullan vel dolenit enisim nullaoreet lorpero consequat et lamcon enibh eugait ver in feuis–Premio adignibh esequatet et, suscing Mies ex ea van atem exero et vel dolortis ad minis et aciliquat. lore conulluptat. Situado en el corazón de la ciudad, frente al Cantábrico y la playa de la Zurriola, el Kursaal, obra de Rafael Moneo Europeo de Arquitectura essectemás velessi eu faciliquat. Duisim Uguerarquitectónico sendion sequat. Quisi temEldio odolupVulla autatem in hendre modionsectem der Rohe al mejor edificio de Europa 2001–,zzriuses un conjunto de vanguardia. Kursaal disponeipisl de laute tecnología avanzada, con espacios poaute commod min enis augiatue delis noncor summy nit formatos wismolum augiamcon tis nisi blam ad tet, quatum non ullam doloborlivalente y versátiles, que lo hacen el escenario idóneo tatie para acoger diversos denos congresos y reuniones. Una oferta diferenciadora es la restauración, a sedestrellas tio eliquatin velenibh pratummod elis quissi. per sent dolorem cargo delexero equipocommod del chef que ocupadolobore el cuarto velit puesto en el diat, ranking mundial de restauradores y poseedor de dos michelín, Andonieugait Luis Aduriz. magnisit augait in hent acidunt ipit, velit lore Ud eugiat nit la adigna facing euismod magna lorpero consequat et lamcon enibh eugait ver in Servicios integrados a la carta min ullaore tet dolor sim dolore dunt lut dofeuis adignibh esequatet et, suscing ex ea atem exero et vel dolortis ad minis et aciliquat. En junio de 2009 el Kursaal cumplió diez años, una lut adignismod exerostie consequ atissi exerit ipisl ute essecte velessi eu faciliquat. Duisim Uguer sendion sequat. Quisi tem dio odolupdécada en la que el edificio ha cambiado la fisonomía El Kursaal ofrece una atención personal y un seradigna facipisim init irillut nullamet vullaoreet aute commod min enis augiatue delis nontatie cor summy nit wismolum nos augiamcon urbana de San Sebastián y se ha convertido en destino vicio integral que destaca por su flexibilidad y illummy nullametue ming er suscinisi. sed tio eliquatin velenibh eugait pratummod elis diat, quissi. preferente del turismo de reuniones. capacidad para controlar las necesidades que se Ore feumsan utpat irit nonsequisi bla faccummagnisit augait in hent acidunt ipit, velit lore Ud eugiat nit la adigna facing euismod magna planteen en el desarrollo del evento. Un experto Los mod magnit atet adiamet inciduisim in henismin ullaore tet dolor sim dolore dunt lut dofeuisespacios adignibh esequatet et, suscing ex ea atem equipo humano participa activamente tanto en el modolut alismol orperci duipsum ipisl ipissim lut adignismod exerostie consequ atissi exerit ipisl ute essecte velessi eu faciliquat. Duisim Dos auditorios y 20 salas proyecto como en la realización del acto y gestiona inciduis aute er sit nonsed tie feu faciliquat adigna facipisim init irillut nullamet vullaoreet aute commod min enis augiatue delis nonCon dos auditorios con capacidad para 1.806 y 624 una amplia oferta de servicios, que van desde auacing eugue moloreetue dolore ming erostie illummy nullametue ming er suscinisi. sed tio eliquatin velenibh eugait pratummod personas, cuenta además con 20 salas de reuniones diovisuales, iluminación escénica hasta personal diamet vel iniam dignit duis dunt velenis cipisOre feumsan utpat irit nonsequisi bla facmagnisit augait in hent acidunt ipit, velit lore con capacidades que van desde las 10 hasta las 575 técnico y azafatas o traducción simultánea. Es posicin henit, core volore molesequisi ex elis nonsecummod magnit atet adiamet inciduisim in min ullaore tet dolor sim dolore dunt lut dopersonas, además de salas vip y salas de prensa. ble, además, la contratación de servicios y recursos quis dolor sim irilisl delisit lutpatie commy nim henismodolut alismol orperci duipsum ipisl lut adignismod exerostie consequ atissi exerit Áreas de exposición técnicos y humanos a la carta. am zzriustrud tio conulla aliquip suscill andreet ipissim inciduis aute er sit nonsed tie feu faadigna facipisim init irillut nullamet vullaoreet Equipado al más alto nivel, el edificio está preparado Algunos de nuestros clientes lore feuismod exer alit lut accum ing enim zzriciliquat acing eugue moloreetue dolore ming illummy nullametue ming er suscinisi. para acoger ferias y exposiciones en sus más de 5.000 lisi blamcon hendio delit praesto dolore ming erostie diamet vel iniam dignit duis dunt veleOre feumsan utpat irit nonsequisi bla facmetros cuadrados. Entre las entidades y empresas tecnológicas y científiexeriusci et luptat. Adiam augiatem in etue do nis cipiscin henit, core volore molesequisi ex cummod magnit atet adiamet inciduisim in Dos terrazas cas que han elegido el Kursaal para celebrar sus eveneugait el eui tate faci blametuerat alis doleniaelis nonsequis dolor sim irilisl delisit lutpatie henismodolut alismol orperci duipsum ipisl Sus amplias terrazas exteriores, de 5.000 metros cuatos, congresos, jornadas o seminarios se pueden citar: mcore dolor sectet adip et irit utem etueraesto commy nim am zzriustrud tio conulla aliquip ipissim inciduis aute er sit nonsed tie feu fadrados, tienen vistas panorámicas a la playa. · tecnalia · inasmet odolor suscing exeratummod ex eugait venibh andreet lore feuismod exer alit lut accum ciliquat acing eugue moloreetue dolore ming ·suscill azti · tekniker El sellodiamet “Andoni Aduriz” er sum iriustrud dip euisl eummy nullut luptaenim zzrilisi blamcon hendio delit praesto erostie velLuis iniam dignit duis dunt vele- ·ing fatronik · cadtech tis nim quat, core commy nullandio odolenim dolore ming exeriusci et luptat. Adiam augiatem nis cipiscin henit, core volore molesequisi ex En el capítulo gastronómico, el Kursaal dispone de · cluster de conocimiento · ceit dignissed te consequ amcommodo erosto od in etue do eugait el eui tate faci blametuerat elis nonsequis dolor sim irilisl delisit lutpatie una variada gama de espacios para la restauración · ideko · ikerlan dolore modip ex eugiamc onsequip exero odUdalis doleniamcore dolor sectet adip et irit utem commy nim am zzriustrud tio conulla aliquip con una capacidad de hasta 1.500 comensales senta· mik · saretek nit duis dunt velenis cipiscin henit, core volore etueraesto odolor suscing exeratummod ex eususcill andreet lore feuismod exer alit lut accum dos y 1.800 personas en cóctel. La cocina de Andoni · cic nanogune · dipc molesequisi ex elis nonsequis dolor sim irilisl gait venibh er sum iriustrud dip euisl eummy ing enim zzrilisi blamcon hendio delit praesto Luis Aduriz y Bixente Arrieta -los chefs que dirigen · universidad del país vasco· neiker delisit lutpatie commy nim am zzriustrud tio nullut luptatis nim quat, core commy nullandio dolore ming exeriusci et luptat. Adiam augiatem todos los servicios culinarios del palacio- se hace pa· mondragon unibertsitatea · elhuyar conulla aliquip suscill andreet lore feuismod odolenim dignissed te consequ amcommodo in etue do eugait el eui tate faci blametuerat tente también en los coffe-breaks, en el bar de congreexer alit lut accum ing enim zzrilisi blamcon erosto od dolore modip ex eugiamc onsequip alis doleniamcore dolor sectet adip et irit utem sos, el restaurante y el bistrot, con estratégica terraza. Entre otros congresos y reuniones del ámbito tecnohendio delit praesto dolore ming exeriusci et exero od magnis amet velisi. etueraesto odolor suscing exeratummod ex euY todo ello con el sello Aduriz. lógico y científico celebrados figuran: luptat. Adiam augiatem in etue do eugait el eui Percil irit am ad duis ad et at, quatue tem verit, gait venibh er sum iriustrud dip euisl eummy · 7th European Conference on Superplastic Forming Para tiponim de eventos tate faci blametuerat alis doleniamcore dolor augiam zzriurercin henim ad tisis nullam nulluttodo luptatis quat, core commy nullandio ·sum Passion for Knowledge sectet adip et irit utem etueraesto odolor susinciduip ero ea feugue min utat. Ure tet veliquat odolenim dignissed te consequ amcommodo En el Kursaal, innovador tanto en su diseño como en · Atom by Atom cing exeratummod ex eugait venibh er sum nulla ate elit aliquatet la corLent acil endiam erosto od dolore modip ex eugiamc onsequip sus infraestructuras, tienen cabida todo tipo de even· Nano 2009 iriustrud dip euisl eummy nullut luptatis nim duis alit, coreet nostie tat irillum ing esecte moexero od magnis amet velisi. tos y reuniones: congresos, jornadas, seminarios, deba· 12th CIRP (Conference on Modelling of Machining Operations) quat, core commy nullandio odolenim dignisdiamc onsecte feuguer sit amet, veliquamet am Percil irit am ad duis ad et at, quatue tem verit, · Euspen 11th International Conference tes, mesas redondas, ruedas de prensa o actos sociales. sed te consequ amcommodo erosto od dolore magna ad minibh et vero od molorsum augiam zzriurercin henim ad tisis nullam ·dolobore 21st Annual Conference of the European Cetacean Society Compromiso defeugue calidad modip ex eugiamc onsequip exero od magnis sis amet praese dio od magnim etue molore inciduip ero ea min utat. Ure tet veliquat ·per X Congreso de Materiales amet velisi. consequam illam zzriustrud ea feu feu faciduisi nulla ate elit aliquatet la corLent acil endiam · visio 2007 Además de un edificio singular, el palacio de Percil irit am ad duis ad et at, quatue tem verit, ex esto odoloreetue venim dionsed ting euisis duis alit, coreet nostie tat irillum ing esecte mo· World Cutting Tool Conference WCTC congresos se ha dotado de un servicio integral sum augiam zzriurercin henim ad tisis nullam aliquate conullan vel dolenit enisim nullaoreet diamc onsecte feuguer sit amet, veliquamet am · tnt-Trends in Nanotechnology para dar soporte a la organización de los eventos inciduip ero ea feugue min utat. Ure tet veliquat lore conulluptat. dolobore magna ad minibh et vero od molor· AAATE - Conferencia Europea para el Avance de las más exigentes y con una calidad contrastada, nulla ate elit aliquatet la cor Vulla autatem in hendre modionsectem zzriusper sis amet praese dio od magnim etue molore Tecnologías avalada internacionalmente por la ISO- 9001, el tis nisi blam ad tet, quatum non ullam doloborconsequam illam zzriustrud ea feu feu faciduisi · III Joint European Magnetic Symposia Certificado en Gestión Ambiental o el Certificado de sent exero commod ex esto odoloreetue ·per 4th International Conference dolorem on Polymerdolobore velit Accesibilidad Global. venim dionsed ting euisis consequat et lamcon enibh eugait ver in aliquate conullan vel dolenit enisim nullaoreet ·lorpero → Einstein 2006 75 Actualidad Científica Xxxx xxxx xxx xxxxx Actualidad Científica El hombre moderno comparte parte del dna con el Neandertal Un equipo internacional de científicos ha conseguido secuenciar el genoma completo del neandertal, un gran proyecto que empezó hace cuatro años y cuyos resultados publicó el pasado mes de mayo la revista Science. Se trata de un primer borrador de un 60% del dna, basado en tres pequeñas muestras, procedentes de tres huesos distintos, de entre 38.000 y 44.000 años de antigüedad, todos ellos del yacimiento de Vindija en Croacia. Los resultados aportaron datos como la certeza de que sapiens y neandertales se llegaron a cruzar en un momento de sus historias o que el hombre moderno comparte un pequeño porcentaje de dna (entre un 1 y un 4%) con el homínido extinguido. El genoma neandertal presenta, además, otras regiones cromosómicas que podrían derivar de cruzamientos con homínidos más arcaicos, como Homo erectus u Homo antecessor, la especie más antigua de Atapuerca. Homo neanderthalensis, skull discovered in 1908 at la Chapelle aux saints (France) Científicos en ee.uu. crean las primeras células con un genoma sintético Científicos estadounidenses anunciaron el pasado mes de mayo la creación de la primera forma de vida artificial, una célula con un genoma creado en el laboratorio. El hito fue anunciado por el líder del proyecto, John Craig Venter, uno de los padres del genoma, en la revista científica Science. En realidad, se trata de un híbrido, con la estructura natural de una bacteria viva y el material genético artificial. Para lograrlo, primero generaron un cromosoma sintético, una réplica a imagen y semejanza del genoma de la bacteria (Mycoplasma mycoides) y después lo trasplantaron a otra bacteria viva (M. capricolum), que actuó como recipiente para crear una nueva. Una vez implantado, el dna de síntesis se activó y empezó a funcionar en la nueva célula. El proyecto ha generado diferencias en la comunidad científica respecto a su alcance. Entre los proyectos de Venter está diseñar un alga que fije el co2 atmosférico y lo convierta en hidrocarburos, utilizando la energía de la luz solar para ello. Otros proyectos persiguen acelerar la producción de vacunas y mejorar los métodos de producción de ciertos ingredientes alimentarios, y de otros compuestos químicos complejos, o diseñar microorganismos que limpien las aguas contaminadas. 76 El Príncipe de Asturias de Investigación premia la lucha contra el dolor El Premio Príncipe de Asturias de Investigación Científica y Técnica 2010 ha sido concedido a los bioquímicos estadounidenses David Julius y Linda Watkins, y al israelí Baruch Minke por sus estudios innovadores sobre el dolor. El jurado señaló que los galardonados «han realizado descubrimientos que en conjunto permiten una comprensión más profunda de las bases celulares y moleculares de las diferentes sensaciones, en especial de la del dolor». El fallo afirma que sus investigaciones «identifican dianas moleculares a las que dirigir una nueva generación de medicamentos específicos para el tratamiento selectivo de diferentes tipos de dolor, especialmente del crónico». Esto abre «vías esperanzadoras» para paliar un mal que afecta a la calidad de vida de millones de personas. David Julius, profesor del Departamento de Fisiología de la Universidad de California-San Francisco, está considerado como el pionero en el análisis molecular de los nociceptores. Baruch Minke, por su parte, profesor del Departamento de Fisiología de la Facultad de Medicina de la Universidad Hebrea de Jerusalén, ha sido el primero en identificar «los canales trp, componentes fundamentales de los sensores biológicos, implicados en la percepción del dolor». Por último, Linda Watkins, profesora del Departamento de Psicología y del Centro de Neurociencia de la Universidad de ColoradoBoulder, ha descubierto un nuevo agente del dolor, las células nerviosas no neuronales, denominadas células gliales, claves en los estados de dolor patológico y en los que se producen después de una lesión nerviosa. Los premios Lasker distinguen la investigación de la pérdida de visión y la obesidad Los premios Lasker, entregados el pasado 1 de octubre, reconocieron el trabajo de tres científicos, uno por diseñar un tratamiento para una causa importante de pérdida de visión y dos por sentar las bases de considerables progresos en investigaciones sobre la obesidad. El premio por investigación clínica fue para el doctor Napoleone Ferrara, de 54 años, de la compañía biotécnica Genentech en San Francisco. Es reconocido por haber descubierto una proteína llamada VEGF en 1989 y usarla para desarrollar un tratamiento que mejora significativamente la vista de personas afectadas con una variante devastadora de degeneración macular. Dos fármacos basados en la investigación de Ferrara, Lucentis y Avastin, se usan para el tratamiento de la enfermedad al prevenir la formación de crecimientos anormales de vasos sanguíneos detrás de la retina. El premio Lasker para investigación básica fue compartido por Douglas Coleman, de 78 años, del Laboratorio Jackson en Bar Harbor, Maine, y Jeffrey Friedman, 56, de la Universidad Rockefeller en Nueva York. Se les reconoce por el descubrimiento de la hormona leptina, que ayuda a regular el apetito y el peso corporal. El premio Lasker al logro especial en investigación médica fue para el doctor David Weatherall, de la Universidad de Oxford. Se le rinde homenaje por 50 años de «excelencia internacional en ciencias biomédicas», en especial su investigación sobre una anemia heredada llamada talasemia. Científicos japoneses crean un páncreas de rata en un ratón Un equipo de investigación japonés ha creado un páncreas de rata dentro del cuerpo de un ratón utilizando células madre pluripotenciales (iPSCs). El proyecto de investigación, liderado por Hiromitsu Nakauchi, del Instituto de Ciencia Médica de la Universidad de Tokio, fue publicado en septiembre en la revista Cell. Los investigadores crearon un óvulo fecundado de un ratón al que se había retirado la capacidad genética para crear un pancreas. Las células madre pluripotenciales de una rata común se inyectaron en el óvulo, que fue entonces implantado en el útero de otro ratón. El ratón que nació tenía una combinación de células de rata y ratón, excepto en el pancreas, que estaba compuesto exclusivamente por células de rata. El ratón sobrevivió hasta edad adulta, y los datos reflejaron que tenía un nivel normal de azúcar en sangre. En efecto, el páncreas que faltaba en el óvulo había sido sustituido por células derivadas de las iPSCs. Es la primera vez que se utilizan iPSCs para crear un órgano que funciona, lo cual abre la posibilidad de generar órganos humanos procedentes de animales y de usarlos como órganos de trasplante. 77 Actualidad Científica Descubren una estrella 20 millones de veces más brillante que el sol Un equipo de astrónomos ha descubierto una estrella 20 millones de veces más brillante que el sol. Los científicos, procedentes de Gran Bretaña, Malasia y Alemania, han realizado el descubrimiento desde el desierto de Atacama, en el norte de Chile, usando un telescopio de gran alcance. La nueva estrella, a la que se ha bautizado como R136a1, duplica el límite de masa solar previamente establecido. La estrella nació con una masa 320 superior a la que tiene en estos momentos el sol. Se espera que, al ser tan brillante, la estrela explote en unos pocos millones de años, lo que en términos cósmicos supone un espacio de tiempo muy breve. De hecho, en los últimos 1,5 millones de años, ha perdido la masa equivalente a 20 soles. El Dr. Richard Parker, de la Universidad de Sheffield, en el norte de Inglaterra, y miembro del equipo de astrónomos, aseguró que los científicos estaban investigando el proceso de formación de estrellas en busca de pistas sobre cómo evolucionó el sol cuando encontraron la estrella. De izquierda a derecha: El Sol, Enana Azul, R136a1 Hallan en Cuenca un gran dinosaurio que vivió hace 125 millones de años Científicos españoles descubrieron el pasado mes de septiembre en Cuenca un gran dinosaurio carnívoro y con una extraña joroba. El ejemplar, que con sus seis metros de largo era cuatro veces mayor que un velocirráptor, vivió hace 125 millones de años y es el dinosaurio más completo que se ha encontrado en España. El dinosaurio ha sido bautizado científicamente Concavenator corcovatus. La joroba es un rasgo peculiar y sorprendente del concavenator, porque no se conoce en ningún otro dinosaurio, aunque algunos de estos animales prehistóricos tenían una estructura dorsal que podría tener una función termorreguladora, como un radiador. El nuevo dinosaurio, cuyo hallazgo fue publicado en la revista Nature, destaca no solo por su novedad, su tamaño y su excelente conservación, sino porque aporta información inesperada sobre la historia de este tipo de animales del Cretácico inferior. 78 Actualidad Científica La electrónica del Grafeno, más cerca El grafeno –una lámina bidimensional de carbono de solo un átomo de grosor– puede ser ideal para reemplazar al silicio como material alternativo en futuros dispositivos electrónicos. Concretamente, podría ser utilizado para hacer transistores ultrarrápidos, dado que los electrones del grafeno se comportan como partículas relativistas sin masa de reposo. Esto significa que pueden pasar por el material a velocidades extremadamente rápidas. No obstante, lamentablemente, las técnicas de procesado utilizadas en la tecnología del silicio no pueden ser aplicadas al grafeno, porque causan defectos en el material, que, a la larga, deterioran el rendimiento del dispositivo. Investigadores de la Universidad de California en Los Ángeles pueden haber superado este problema –por lo menos para los transistores–, y han creado el transistor de grafeno de mayor velocidad que existe. Los dispositivos podrían competir comercialmente con los transistores de silicio existentes hoy en día en el mercado; podrían utilizarse en aplicaciones electrónicas de alta frecuencia, como la comunicación por microondas, toma de imágenes o la tecnología de los radares. Xiangfeng Duan y sus colaboradores han desarrollado una nueva técnica de fabricación que consiste en emplear nanohilos cubiertos de alúmina como electrodo de puerta de un transistor de grafeno. Los electrodos fuente y drenador de los dispositivos están confeccionados utilizando un proceso de autoalineamiento que usa los nanohilos como «máscaras», un proceso que también minimiza la resistencia en el transistor, mejorando así su rendimiento todavía más. De todas maneras, aún hay muchos retos que superar antes de que el sueño de que la electrónica sea totalmente de grafeno se convierta en realidad. Uno de ellos es el desarrollo de una técnica de fabricación que produzca dispositivos prácticamente sin defectos, algo que de momento nunca se ha conseguido. Duan y sus colaboradores, en cambio, han utilizado un nanohilo con núcleo de siliciuro de cobalto y envoltura de alúmina como compuerta superior en su transistor de grafeno. Esta estructura dieléctrica se confecciona aparte y, después, simplemente se coloca sobre una monocapa de grafeno. Tal propuesta no crea ningún defecto apreciable en el material, apunta Duan. El dispositivo final tiene el mayor valor de transconductancia nunca registrado para este tipo de dispositivos, 1.27 mSµm– 1. La transconductancia de un transistor indica la bondad de su funcionamiento. Las medidas de microondas en los transistores también muestran que tienen una frecuencia de corte intrínseca inigualada en el rango de 100–300 GHz, que es alrededor de dos veces más rápida que la de los mejores mosfets de silicio de tamaño similar. Por último, la movilidad de los dispositivos (la que determina la velocidad a la que los electrones se mueven a través de ellos) es de aproximadamente 20.000 cm 2/Vs, un valor que es alrededor de dos órdenes de magnitud mejor que el de los transistores de silicio comercializados de tamaño similar. El trabajo ha sido publicado en Nature. Premio Nobel de Medicina para el pionero de la fecundación in vitro El Premio Nobel de Medicina y Fisiología 2010 ha sido otorgado al científico británico Robert Edwards, pionero de la fecundación in vitro, más de 30 años después del nacimiento del primer bebé probeta. El profesor Edwards, de 85 años, fue recompensado porque «sus descubrimientos hicieron posible el tratamiento de la esterilidad que afecta a una gran proporción de la humanidad y a más del 10% de las parejas en el mundo», según explicó el Comité Nobel. Cerca de cuatro millones de niños han nacido gracias a la fecundación in vitro. El proceso aplicado por el profesor Edwards consiste en fertilizar un óvulo en laboratorio y dejar que el embrión empiece a desarrollarse antes de implantarlo en el útero de una madre portadora, donde se desarrolla normalmente. Por su parte, Andre Geim y Konstantin Novoselov, científicos de la Universidad de Manchester (Reino Unido), han sido distinguidos este año con el Premio Nobel de Física «por sus experimentos fundamentales sobre el material bidimensional grafeno». Ambos han demostrado que el carbono en lámina plana tiene propiedades extraordinarias originadas en el mundo de la física cuántica. El grafeno es un nuevo material, extremadamente delgado y resistente que, como conductor de la electricidad, se comporta como el cobre, y como conductor de calor, supera a cualquier otro material conocido. Finalmente, el investigador estadounidense Richard Heck y los japoneses Ei-ichi Negishi y Akira Suzuki compartirán el Premio Nobel de Química 2010 por sus trabajos sobre las reacciones carbono-carbono. Los tres han desarrollado por separado reacciones químicas distintas que emplean catalizadores de paladio para crear enlaces de carbono-carbono mediante emparejamientos cruzados. Akira Suzuki. Foto: Hokkaido University Prof. Robert Edwards. Foto: Bourn Hall Richard F. Heck. Foto: University of Delaware Andre Geim. Foto: Sergeom, Konstantin Novoselov. Ei-ichi Negishi. Wikimedia Commons Foto: University of Manchester Foto: Pordue University Una nueva perspectiva en el campo de los biosensores La sensibilidad de los biosensores basados en cristales plasmónicos (sustratos metálicos nanoestructurados periódicamente en dos dimensiones) podría mejorarse ajustando un parámetro poco estudiado: el ángulo de luz que excita a los plasmones superficiales de los cristales. Esto es lo que dicen investigadores de la Universidad del Noroeste de Illinois que han fabricado, partiendo de cristales plasmónicos, sensores basados en patrones reticulares y que son ahora más sensibles a las proteínas que deben detectar. Tales dispositivos podrían ser utilizados en aplicaciones biomédicas como análisis de drogas y vigilancia ambiental. Solamente ciertas longitudes de onda de luz pueden ser reflejadas desde cristales plasmónicos o transmitidas a través de ellos, debido a la periodicidad de la retícula de estos materiales. La plasmónica es una nueva rama de la fotónica que se vale de los polaritones de los plasmones superficiales, polaritones que surgen de la interacción de la luz con los electrones que oscilan en la superficie de un metal. El campo de los biosensores basados en la resonancia de los plasmones superficiales es un camino aún no balizado para detectar moléculas químicas y biológicas en tiempo real, gracias a técnicas avanzadas de espectroscopía. La mayor parte del trabajo realizado hasta ahora se ha centrado en reducir los costos de la nanofabricación y en incrementar la sensibilidad de detección para así mejorar el rendimiento de los biosensores. «Nuestro artículo supone avances en ambos frentes» dice el jefe del equipo Teri Odom. El trabajo ha sido publicado en Nano Letters. Fabricación de cristales plasmónicos moldeados 79 Científicos ilustres - Edwin G. Krebs Científicos ilustres confundirlo con el descubridor del ciclo: «Debo confesar que no corregí su falsa impresión. Estaba tan inseguro de mi estatus que me complacía ser tratado con tanta deferencia, aunque fuera por la razón errónea». Esta confusión le acompañó incluso hasta después de recibir el Nobel de Medicina en 1992: «Una de las cosas que me pasó por la cabeza cuando el premio, fue que ya no tendría que contestar más preguntas sobre el ciclo, pero la gente todavía me felicitaba porque mi ciclo había sido por fin reconocido −y pensaba que había sido necesario esperar hasta 1992 para que esto ocurriera». Con el fin de contribuir a deshacer este entuerto puede ser apropiado tratar de resumir la singular obra de Edwin Krebs, tomando su conferencia Nobel como guía. Hablemos de Edwin G. Krebs Francisco García Olmedo, Real Academia de Ingeniería. Un problema de identidad Resulta particularmente oportuno hablar del bioquímico Edwin G. Krebs, no solo por su reciente fallecimiento el 21 de diciembre de 2009 sino, también de modo especial, por el hecho de que su importante obra ha padecido con frecuencia un problema de identidad, problema originado por la circunstancia de que el apellido Krebs lo ostentan al menos tres famosos biólogos: aparte de Edwin, el mítico Hans A. Krebs (1900-1981), judío alemán devenido ciudadano inglés, premio Nobel de Medicina por los descubrimientos del ciclo de la urea y del ciclo del ácido cítrico, conocido como ciclo de Krebs, y su hijo John R. Krebs (1945-), Lord vitalicio y destacado zoólogo, coautor con Richard Dawkins de importantes trabajos sobre comportamiento animal. Con Francisco García Olmedo Real Academia de Ingeniería. 80 este último Krebs coincidí hacia 1954 en el City of Oxford High School, donde nos había precedido nada menos que Lawrence de Arabia. Hace medio siglo, uno de los capítulos centrales de los textos de introducción a la Bioquímica se titulaba «Ciclo de Krebs» y, que yo recuerde, éste era el único en cuyo encabezamiento aparecía el nombre de un científico. En aquellos tiempos de subdesarrollo, muchos estudiantes españoles teníamos la sensación de que las materias de nuestro interés habían sido desarrolladas por sabios extranjeros ya fallecidos. Por esta razón, cuando por fin conocí a Krebs en un congreso de la Sociedad Española de Bioquímica, me produjo el efecto de que estaba ante una aparición del remoto pasado, impresión no tan descabellada si se tiene en cuenta que las principales contribuciones científicas de aquel casi octogenario profesor de Oxford habían sido hechas antes de la Segunda Guerra Mundial, cuando todavía era un treintañero científico alemán. Según ha contado el propio Edwin, la sombra del famoso ciclo que lleva su apellido, aunque no su nombre, le persiguió durante toda su carrera. Así por ejemplo, recién llegado a la Universidad de Washington en Seattle, el chairman de un departamento clínico incurrió en el error de Una aportación fundacional En 1940, cuando Edwin inició sus estudios en la facultad de Medicina de la Washington University en St. Louis, ya se había establecido que la degradación del glucógeno en el músculo esquelético y en otros tipos de células ocurre por fosforolisis, catalizada por la enzima fosforilasa. En ese tiempo y en dicha facultad, Arda Green y el matrimonio Carl y Gerty Cori estaban purificando la fosforilasa de músculo de conejo y habían observado que la enzima podía existir en dos formas, α y b, que eran interconvertibles. Krebs tuvo oportunidad de familiarizarse con dichas investigaciones durante sus años de estudiante, pero no se incorporaría a ellas hasta más tarde. De hecho, su intención era dedicarse a la clínica y, recién graduado, en los meses finales de la Segunda Guerra Mundial, se alistó como médico en la Marina. Son muy numerosos los médicos que, en el camino hacia una carrera clínica, han ido quedando atrapados de forma irreversible por la investigación básica. Éste fue el caso de Edwin, quien al desmobilizarse no encontró sitio en St. Louis para hacer el internado y decidió seguir la recomendación de enrolarse temporalmente en la investigación básica. Entró en el laboratorio de los Cori y quedó seducido para siempre por lo que sería el trabajo de su vida. La forma α de la enzima había sido eventualmente purificada y obtenida en forma cristalina, un hito para la época, y pudo comprobarse que era activa sin el concurso de cofactor alguno, mientras que la forma b era inactiva, excepto en presencia de concentraciones de adenosín monofosfato cíclico (5´-ampc) muy por encima de las fisiológicas. Aunque las dos formas de la enzima eran interconvertibles, se estaba muy lejos de entender el mecanismo subyacente y, mucho menos, su significado biológico. Tras dos años en el laboratorio de los Cori, en 1948 Edwin recibió la oferta de un puesto en la Universidad de Washington en Seattle, ciudad que le había subyugado cuando la visitó en su etapa de médico naval, y lo aceptó sin dudarlo. En este entorno pasaría el resto de su vida, excepto por un periodo en que fue chairman-fundador del Departamento de Química Biológica de la Universidad de California, en Davis. Cinco años más tarde se uniría al departamento Edmond H. Fischer, quien había trabajado en la fosforilasa de patata, y decidieron unir sus esfuerzos para dilucidar el secreto de la interconversión. Su asociación en los primeros años fue tan intensa que, si uno se ausentaba para dar una conferencia, el otro llevaba a cabo los experimentos del ausente. De hecho, en los círculos de la especialidad se les conocía por «los dos Eds», Edwin y Edmond. Por la misma época, Earl Sutherland, descubridor del 5´-ampc, segundo mensajero de la acción hormonal, estaba investigando sobre la implicación de este compuesto en la formación de la fosforilasa α de hígado. Buscando en vano el papel del 5´-ampc en la activación de la forma b, Krebs y Fischer dieron con un mecanismo cuya generalidad e importancia no pudieron ni imaginar, la fosforilación reversible de proteínas. Dicho mecanismo consiste en esencia en que una proteína puede recibir un grupo fosfato del adenosin trifosfato (atp), reacción que es catalizada por una enzima proteína quinasa. La proteína fosforilada sufre en consecuencia cambios estructurales y funcionales, tales como, en el caso de la fosforilasa, pasar de una forma inactiva a otra activa. En sentido inverso, una enzima proteína-fosfatasa puede liberar el fosfato de la proteína, devolviéndola a su estado inicial, inactivo, en el ejemplo de la fosforilasa. En otras palabras, el mecanismo de la fosforilación reversible de proteínas tendría un papel similar al de un interruptor-conmutador en una instalación eléctrica. En una fase inicial se vio que este sistema de conmutación funcionaba en algunas enzimas relacionadas con el metabolismo del glucógeno. Se había demostrado inicialmente que operaba en la glucógeno fosforilasa y en la fosforilasa quinasa, y pronto se vio que también afectaba a la glucógeno sintasa. El trabajo sobre esta última enzima fue desarrollado en los años sesenta por Joseph Larner y sus discípulos, algunos tan destacados como C. Villar-Palasí y M. Rosell Pérez. En los años 1965 y 1966 tuve oportunidad de frecuentar el laboratorio de Larner y Villar-Palasí en la Universidad de Minnesota y de asistir a algunos de los seminarios que ellos impartieron sobre sus investigaciones: no cabía duda de la importancia y novedad del trabajo que llevaban a cabo, pero nada hacía barruntar la extraordinaria relevancia que ha alcanzado la fosforilación reversible en los procesos biológicos. En contraste con las dos primeras enzimas, la glucógeno sintasa perdía actividad al fosforilarse, lo que sugería que la fosforilación actuaba cambiando el repertorio de enzimas activas en una coyuntura dada, activando unas y inactivando otras. Durante la primera década de estas investigaciones, este mecanismo regulador parecía restringido al metabolismo del glucógeno, pero el descubrimiento por Kuo y Greengard de una proteína quinasa dependiente de 5 ´-ampc, que era multifuncional, abrió el camino para explorar la verdadera importancia y generalidad de la fosforilación reversible en la fisiología de los seres vivos. Poco después se descubrió que una enzima ajena al ámbito del glucógeno, la piruvato deshidrogenasa, también se regulaba por fosforilación y, hacia finales de los años setenta, eran más de cincuenta las enzimas en las que se había comprobado dicho mecanismo, esto sin contar una infinidad de proteínas no enzimáticas para las que también era relevante. → 81 Científicos ilustres - Edwin G. Krebs Un mecanismo ubicuo Krebs y Fischer recibieron el premio Nobel de Medicina en 1992 por un descubrimiento concreto y simple. Excelentes experimentadores, no eran ellos propensos a grandes planteamientos teóricos sino que, en cada paso, seguían su instinto hasta el siguiente paso. Sin embargo, lo mismo que el invento del transistor condujo a una pléyade de inventos cada vez más complejos que se basan en él, el descubrimiento de la fosforilación reversible llevó a una interminable nómina de mecanismos reguladores cada vez más complejos que se basan en ella. Entre los primeros en ponerse de manifiesto cabe señalar la amplificación de señal en cascada y la transmisión de señales extracelulares. La actividad catalítica de una enzima implica que una molécula de ella es capaz de procesar a producto un elevado número de moléculas de sustrato; si el sustrato es la forma inactiva de una segunda enzima y el producto, la activa, unas pocas moléculas de la primera enzima generarán una infinidad de moléculas activas de la segunda; si la segunda es a su vez capaz de activar a una tercera enzima, tenemos lo que denominamos coloquialmente una cascada de amplificación, cada salto de la cascada supone una multiplicación del efecto. En otras palabras, la cascada es un mecanismo que permite que unas pocas moléculas desencadenen una activación enzimática a gran escala. Si por ejemplo, hemos de salir corriendo en una emergencia, nuestros músculos necesitan liberar deprisa glucosafosfato a partir del glucógeno que se almacena en nuestros músculos con el fin de extraer la energía necesaria para la acción mecánica: dicha liberación está catalizada por la fosforilasa y la fosforilasa es activada masivamente por un mecanismo en cascada. La señal que dispara dicha cascada es extracelular y debe ser transmitida al interior de la célula. En el caso del músculo, la señal extracelular es la adrenalina que, al unirse a su receptor en la membrana, activa una ciclasa acoplada que convierte el atp en 5´-ampc; este último activa una proteína quinasa, que a su vez activa una fosforilasa quinasa que a su vez activa la fosforilasa que liberará glucosa-fosfato a partir del glucógeno. Signal in Inactive Enzyme Protein kinase APP P OFF ON APP Active Enzyme P Signal Out 82 Pi Protein Phosphatase La activación (o la inactivación) de enzimas y proteínas no enzimáticas por sustitución reversible con fosfato regula toda suerte de funciones celulares, incluido el tráfico metabólico, de una forma no muy distinta a como una red de semáforos rigen el tráfico de una ciudad, abriendo y cerrando vías de una forma coordinada. Estamos pues ante un elemento esencial para la vida, que subyace tanto a procesos normales como a patológicos: el ciclo celular, el desarrollo de los organismos, el cáncer, la función neurológica y las señales cerebrales, la presión sanguínea, la inflamación o la respuesta de las plantas a sus patógenos son solo algunos de los procesos en los que está involucrada la fosforilación reversible. Como se puede constatar, aguas abajo de las pioneras investigaciones de Krebs y Fischer se fue ensanchando un verdadero amazonas de nuevo conocimiento. Una aventura interior En contraste con su excepcional trayectoria científica, con su aventura interior, los signos externos de su vida son los de un sano americano medio de vida prosaica. Aunque nació en Lansing, Iowa (1918), consideraría como su ciudad a Greenville, Illinois, un pueblo de entorno agradable y buen sistema educativo al que, tras varios traslados, fue a servir su padre como ministro presbiteriano. Nada hay reseñable de su etapa escolar, salvo que fue un buen estudiante que no mostró particular inclinación por la biología o la química y que no tenía ninguna afición especial. El temprano fallecimiento de su padre significó una cierta estrechez económica que debió servirle de acicate en sus estudios. Se inclinó por la medicina, más por su utilidad práctica que como ámbito de conocimiento. Como ya indicamos, su vocación y aptitud para la ciencia básica fue un descubrimiento tardío y su desembarco en el laboratorio de los Cori se debió más al azar que a la astucia. Debió tener excelentes condiciones para el liderazgo que ejerció a partir de los cincuenta años, como chairman de departamento, primero en Davis (California) y luego en Seattle (Washington). En el ensayo autobiográfico que publicó como parte del ritual del premio Nobel, no dejó traslucir ninguna afición especial por la literatura, las artes plásticas o la música. Que no ambicionaba la riqueza quedó patente por el hecho de que tardó tres días en preguntar a cuánto ascendía el citado premio y, cuando lo averiguó, por la forma en que lo gastó: «Ed (Fischer) y yo invitamos a nuestras familias ampliadas y pagamos el viaje a los que lo necesitaban». Ambos donaron la mayor parte del dinero a instituciones educativas, médicas y artísticas, e incluso un poco a sus respectivos departamentos. «Fácil viene, fácil se va», comentaría Edwin. www.cicnetwork.es