Diálogo online de ciencia en español «La nanotecnología llega a la vida»

Sonia Contera,Nazario Martín y Antonio García Guerra

La Fundación Rafael del Pino, la Consejería de Educación Universidades, Ciencia y Portavocía de la Comunidad de Madrid, la Fundación Ramón Areces, la Oficina del Español, RAICEX y el Club de Científicos de la Asociación de Becarios de Excelencia Rafael del Pino organizaron, el 26 de mayo, una nueva edición de los Diálogos de Ciencia en Español que fue retransmitido a través de www.frdelpino.es.

El acto se desarrolló de acuerdo con el siguiente programa:

Conferencia magistral

La nanotecnología llega a la vida: cómo la nanotecnología está transformando la medicina y el futuro de la biología

Sonia A. Contera, Catedrática de física biológica en la Universidad de Oxford

Diálogo, en el que participarán

Nazario Martín, profesor titular de Química Orgánica de la Universidad Complutense de Madrid y vice-director del Instituto de Estudios Avanzados en nanociencia de Madrid

Antonio García Guerra de la Universidad de Oxford y miembro del Club de Científicos (moderador).

Sonia Antoranz Contera es una física y nanotecnóloga española; es Catedrática de Física especializada en la física de procesos biológicos, en el departamento de Física de la Universidad de Oxford, fue codirectora del programa de Nanotecnología de la Oxford Martin School, y es Senior Research Fellow del Green Templeton Collage. ​Actualmente es vicedecana del departamento de Física de la Universidad de Oxford.

Nazario Martín es profesor titular de Química Orgánica de la Universidad Complutense de Madrid y vice-director del Instituto de Estudios Avanzados en Nanociencia de Madrid (IMDEA-Nanociencia). Recientemente ha sido nombrado  Dr. H. C. por la Universidad de La Habana. Los intereses de investigación del profesor Martín abarcan una amplia gama de objetivos, con énfasis en la química molecular y supramolecular de nanoestructuras de carbono, tales como fullerenos, nanotubos de carbono y grafenos, sistemas de p-conjugados como cables moleculares y moléculas electroactivos, en el contexto de los procesos de transferencia de electrones, aplicaciones fotovoltaicas y la nanociencia. Ha publicado más de 420 artículos en revistas, impartido más de 260 conferencias en reuniones científicas y centros de investigación, y supervisado 25 tesis. Ha co-editado seis libros relacionados con nanoestructuras de carbono y ha sido invitado como editor invitado para ocho números especiales en revistas de renombre internacional. El profesor Martín ha sido profesor visitante en las universidades de UCSB y UCLA (California, EE.UU.)  Angers y Estrasburgo (Francia). Ha sido miembro del Consejo de Redacción de Chemical Communications, y  Editor General de la revista Anales de Química Española (2000-2005), miembro del Consejo Asesor de la revista Journal of Materials Chemistry (Editorial Internacional 2000-2006). Actualmente es Editor Regional para Europa de la revista Los fullerenos, nanotubos y nanoestructuras de carbono y miembro del Consejo Asesor Internacional de The Journal of Organic Chemistry (ACS), ChemSusChem (Wiley-VCH), ChemPlusChem (Wiley-VCH), química críticas Sociedad (RSC) y Chemical Communications (RSC). Es miembro de la Real Academia de Doctores de España, así como un miembro de la Royal Society of Chemistry. En 2006-2012 ha sido el presidente de la Real Sociedad Española de Química. Ha sido galardonado con el l «Premio Dupont de la Ciencia» en 2007 y de la «Medalla de Oro y la Investigación» en 2012, la más alta distinción dada por la Real Sociedad Española de Química. Ha sido nombrado recientemente con el «Premio Jaime I de investigación básica» nacional 2012. Es el último químico distinguido con el «Premio EuCheMS Conferencia» en 2012.

Antonio García-Guerra, es Licenciado en Biotecnología por la Universidad de Barcelona  donde obtuvo una distinción por su estudio sobre Ingeniería Genética Procariótica. Ha realizado estudios en Bioingeniería en el Instituto Tecnológico de Massachusetts. Ha asistente de investigación en la Escuela de Medicina de Harvard, en el Brigham and Women’s Hospital (Harvard-MIT Health & Science Technology). Ha publicado artículos en varias revistas especializadas y ha presentado sus investigaciones en conferencias internacionales.

Resumen:

El 26 de mayo de 2022, la Fundación Rafael del Pino organizó el diálogo “La nanotecnología llega a la vida: cómo la nanotecnología está transformando la medicina y el futuro de la biología”, que contó con la participación de Sonia A. Contera, catedrática de física biológica en la Universidad de Oxford.

Vivismos en un universo muy complejo. La realidad es muy compleja, pero, para sobrevivir, es muy importante entenderla. Es una cosa que hacemos los organismos vivos, las personas. La clave para sobrevivir es tener un buen entendimiento y una buena colección de relaciones con el ambiente complejo que nos rodea.

La física es una de las formas que ha tenido más éxito para entender la realidad. Es un sistema que se ha desarrollado durante miles de años. La física tiene un sistema que es muy bueno para entender la realidad. No tiene método, pero tiene una manera de ver el mundo que consiste en hacer experimentos y de ellos extraer intuiciones de cómo vemos la realidad. Esas intuiciones las racionalizamos, hacemos un balance entre intuición y razón y la razón nos permite hacer modelos matemáticos.

El universo es tan maravilloso que nuestros modelos matemáticos a veces nos permiten predecir cómo funciona un sistema. Ese es el poder de la física.

La física es capaz de transformar la realidad porque es capaz de extraer intuiciones de esos modelos lógicos y matemáticos que luego se transforman en tecnología. El siglo XIX fue transformado totalmente por la física y la electricidad y el siglo XX fue revolucionado por la física y su capacidad de transformar la guerra. Pero también transformó todos los modelos de comunicación, nuestra realidad.

La mayoría de estos procesos fueron una manera reduccionista de entender el universo, esto es, mirar las partes del sistema complejo que nos rodea, ver sus componentes y ver como interaccionan unos con otros. A partir de ahí se hizo un modelo reduccionista. En el siglo XX se hizo lo mismo con la biología. En lugar de ver una planta, empezaron a ver las moléculas que tenía una planta y sus genes, e intentaron entender la relación entre ambos.

En el siglo XX tenemos que enfrentarnos a que la realidad compleja no solo se puede entender de una forma reduccionista. Cuando los sistemas de muchas partículas empiezan a interactuar de una manera muy profunda, emergen comportamientos que no tienen nada que ver con el comportamiento de las partes. En escalas diferentes, la materia interactúa de formas diferentes y con comportamientos diferentes. En el momento en que la física llegó a la nanotecnología, se abrió una puerta, la puerta de poder interrogar la complejidad biológica.

El reduccionismo empieza en el siglo XVII con la invención de los microscopios en Oxford. En el siglo XX, los rayos X y los demás métodos de mirar nos llevan al átomo, a la física cuántica, a principios del siglo XX. Justo después, los físicos empiezan a investigar qué pasa cuando los átomos se juntan y las preguntas sobre la vida surgen inmediatamente. En 1944, Schrödinger da una serie de conferencias en Dublín explicando la vida porque lo que nos interesa a los humanos somos nosotros.

De la complejidad de los átomos surgen los transistores que, en muy poco tiempo, hicieron posible los computadores. Enseguida, cuando se empezó a hacer la bomba atómica, ya estaban preparando los primeros ordenadores, basados en las ideas de Turing. Todos ellos estaban inspirados por la biología, por las neuronas.

Al mismo tiempo, nos empezamos a interesar por la energía, por cómo los sistemas vivos usan la energía de una forma muy diferente a cómo lo hacen aquellos otros que no están vivos. Aquí se empiezan a juntar inteligencia, información, energía y estructuras, la forma en que el universo ha sido capaz de crear estructuras vivas por el uso de la energía y de la información.

En el momento en que surgieron los ordenadores, los físicos y los matemáticos empezaron a estudiar los sistemas complejos. Así llegamos a la idea de la emergencia, la idea de que cuando los sistemas de partículas interaccionan de una manera muy cercana unas con otras, surgen cosa que no surgen a otra escala.

Así es que, por más que tengamos una idea de la física de cosas simples e inertes, en realidad los físicos siempre han estado obsesionados por la inteligencia y la complejidad. Richard Feynman predijo en los años cincuenta que, en algún momento, llegaríamos a la nano escala y eso transformaría nuestras maneras de fabricar. Ese momento fue en los años ochenta, cuando los químicos empiezan a fabricar nano partículas. Pero no solo los químicos. Un físico matemático del MIT, que estaba trabajando en las estructuras de ADN, tiene por primera vez la idea de usar el ADN para construir. Así empieza el campo de la tecnología de ADN.

Los químicos, los biólogos estructurales y la gente interesada en física de computación empieza a pensar que llegaba la hora de la nanotecnología. A la vez, en los laboratorios de física se inventa el microscopio que transforma la forma en que vemos la realidad. El microscopio de rastreo es el primer microscopio que permite ver átomos de forma individual y la naturaleza a escala nanométrica. Estos no son microscopios con luz o con ondas, sino que usan puntas muy finas para obtener imágenes de las superficies. Pero no solo son imágenes, sino como son una especie de nano dedo que uno puede manipular para ver superficies, también puede hacerlo para mover y crear estructuras con átomos. Ahí empieza la nanotecnología.

De una forma u otra, todas las ciencias empezaron a llegar a lo nano en los años ochenta, y muchos científicos, en los años noventa, se empezaron a interesar por los mecanismos que hacen posible la vida. A la vez que intentamos manipular la materia a escala nanométrica, los cristalógrafos estaban usando rayos X para ver la estructura de las proteínas y empezaron a surgir las estructuras de las proteínas de la vida.

Tenemos millones de proteínas atpasas en todo nuestro cuerpo en casi todas nuestras células. Todas las cosas que están vivas tienen atpasas. Son enzimas que generan la molécula ATP, que necesitamos para la mayoría de las acciones que hacen nuestras moléculas. Una persona activa mueve unos ochenta kilos de moléculas ATP al día. Así que estas enzimas tienen que ser muy buenas y rápidas.

¿Cómo ha sido capaz la evolución de crear una máquina que puede usar ochenta kilos de moléculas al día? Pues creando un motor molecular. Es una molécula que está insertada en la membrana celular, que usando electrostática, es capaz de hacer rotar ese motor. Al rotar, atrapa una molécula de ATP, la dobla y cataliza la reacción química casi sin energía. Este es el truco de la biología. En la nano escala, uno puede simplemente usar la temperatura de las moléculas con un diseño mecánico como el de un molino para transformar la energía de las moléculas de agua en movimiento. Y, como es en nano escala, es capaz de agarrar una molécula y catalizar una reacción química. Esa es la razón por la que surge la vida en la nano escala, porque en la nano escala se puede transformar la energía de una manera a otra, reduciendo la entropía para crear trabajo.

En los años ochenta, gente como Hiroyuki Noji empezó a demostrar que estas máquinas funcionaban como máquinas usando energía para hacer diferentes procesos. El ADN no es simplemente un código. Es una forma, es capaz de sentir las fuerzas, la electricidad y es una de las maneras por las que nuestras células son capaces de entender lo que está pasando en el exterior.

Cuando los nano físicos empezaron a usar biología y a interpretar las proteínas no como un punto, una información o un código, sino como una máquina, empezaron a ver la biología de otra manera. En el siglo XX, los biólogos moleculares y los bioquímicos veían la biología como interacciones de redes de proteínas que no tenían forma e intentaban entender la biología como un sistema complejo de comunicación entre proteínas. Ahí empezaron a encontrarse un par de culturas, la que quería ver a la biología como máquinas analógicas y la que quería verla como máquinas digitales de ADN y de proteínas.

El principio de la nanotecnología en la biología fue, principalmente, médico. Los médicos intentaron usar las nanopartículas para mejorar el tratamiento del cáncer. Pero no cambiaron de paradigma. Simplemente, siguieron la manera que tenían de tratar el cáncer, que era buscar proteínas o ADN y fabricar moléculas que se pegaran al cáncer. El problema principal del tratamiento del cáncer por quimioterapia es que ha producido muy pocas nuevas medicinas en los últimos veinte o treinta años y son muy poco efectivas. Por tanto, estaban buscando nuevas maneras de interaccionar con genes y proteínas a través de la nanotecnología, que les permitiera tener una manera más directa de atacar problemas como el cáncer.

Ahí empezaron a aparecer las drogas que se empezaron a poner en liposomas. Empezaron a ponerse en nanopartículas parecidas a las vacunas del Covid para tratar cánceres. Esto ha tenido un efecto bastante limitado porque los cánceres son capaces de inmunizarse frente a estas nanopartículas y nuestro cuerpo es capaz de quitárselas de encima. Hay muy pocos tratamientos de una manera farmacológica tradicional que hayan llegado al mercado.

Otra aplicación de la nanotecnología a la medicina han sido los sensores. Durante la pandemia del Covid nos hemos dado cuenta de lo importante que es tener sensores que nos digan qué es lo que está pasando y qué moléculas o que virus nos están atacando. También hemos visto lo difícil que es, la PCR es muy lenta, los sensores de antígenos tardaron bastante en salir y siguen teniendo problemas.

El problema de los sensores todavía es muy complejo. Se han producido grandes avances en los últimos cinco años, con nuevas maneras de crear sensores, pero la pandemia ha llegado un poco pronto para los sensores y no ha habido suficiente inversión en este campo hasta ahora. El sueño de mucha gente trabajando en esta época en este campo es crear como pegatinas de nanopartículas que las podamos adherir al cuerpo y sean capaces de medir en tiempo real las concentraciones de elementos químicos, por ejemplo, de glucosa y reaccionar aportando insulina cuando el cuerpo lo necesita, o creando tratamientos específicos en campos específicos.  Todavía no hemos llegado a ello. Hay mucha gente trabajando en este campo y la pandemia está acelerando muchísimo la inversión en este tipo de proyectos y hay grandes oportunidades para los países y para los inversores que tengan visión en este campo. Queremos sensores que puedan hablar con nuestro teléfono y que podamos observar las enfermedades que tenemos.

Un campo que va a revolucionar la nanotecnología es la nanotecnología hecha con proteína. Durante la pandemia, oímos la noticia de que Deep Learning de Google estaba siendo capaz de predecir la estructura de las proteínas. En realidad, no es el trabajo de Google, sino de mucha gente, en particular de David Baker, que lleva trabajando durante cuarenta años intentando predecir las proteínas. Es importante porque, por fin, tenemos un método rápido de entender cuáles son las nanomáquinas de la vida que son importantes por ejemplo para un proceso biológico. Pero más interesante es que este tipo de tecnología permiten fabricar proteínas que no existen en la naturaleza usando células. Lo que hizo David Baker en cuanto fue capaz de predecir proteínas fue diseñar en un ordenador proteínas que no existen en la naturaleza, pero que pensaba que una bacteria o una célula podría fabricar, y logró crear proteínas que no existen en la naturaleza, pero con precisión atómica, usando células para secuenciarlas, que se pudieran autoensamblar. Esta es la nanotecnología más precisa y radical que existe, pero no es un sueño.

Durante la pandemia, uno de sus estudiantes, King, empezó a diseñar rápidamente una vacuna para el Covid basada en esas estructuras y lo logró muy rápidamente. Está en ensayos clínicos, ya ha pasado la fase 3 y se va a usar en humanos en Corea del Sur. Así es que este es el paso de la biología y la nanotecnología. En 2016 empiezan los primeros resultados. En 2022 ya tenemos una vacuna en el mercado hecha con nanotecnología de proteínas.

Mientras la nanotecnología no ha mejorado el cáncer, por ejemplo, cuando usaba métodos tradicionales de farmacología, hemos visto durante la pandemia que las nanopartículas de lípidos con ARN son capaces de entrenar al sistema inmunológico para quitar un virus, pero también para quitar el cáncer. Moderna y BioNTech se fundaron hace diez años. Las dos compañías que han hecho las vacunas de Covid fundaron hace diez años y utilizaron las nanopartículas para quitar tumores. Igual que las nanopartículas y las medicinas tradicionales no han tenido ningún éxito muy relevante en los últimos veinte años en el tratamiento del cáncer, las inmunoterapias están cambiando radicalmente el tratamiento de las enfermedades.

Estas tecnologías de la inmunoterapia, o la tecnología de las proteínas, son tecnologías emergentes. Ya no están basándose en una manera reduccionista de crear tecnología, de ver los átomos, juntarlos y, a partir de ahí, diseñar, sino que están usando la complejidad de la vida para crear nuevas tecnologías. Las vacunas del Covid son nanopartículas de lípidos que tienen ARN dentro que son capaces de activar el sistema inmune para crear inmunidad contra el virus.

Moderna y BioNTech tienen un modelo muy diferente de innovación del de otras compañías que hemos tenido antes. Son compañías que son muy multidisciplinares, que van buscando un tipo de transferencia tecnológica muy diferente, que son grupos de científicos, financieros y gente interesada en negocios casi desde el principio, con una estrategia muy clara para cambiar el tratamiento del cáncer. Cuando se habla de emprendedores, todo el mundo piensa en chicos jóvenes de Silicon Valley en camiseta. Pero en la pandemia no han sido ellos los que han tenido la idea de cómo crear estas vacunas, sino mujeres en sus cincuenta años que llevaban mucho tiempo pensando en cómo crear las vacunas. Los héroes de la pandemia no son informáticos jóvenes, sino mujeres que llevaban mucho tiempo trabajando, por ejemplo, Sarah Gilbert con la vacuna de Oxford, Ozlem Tured y Ugur Sahin con la vacuna de Pfizer, o Kizzmekia Corbert que fue quien encontró la proteína que lleva el ARN de las vacunas, o el trabajo de Katalin Kariko dándose cuenta que el ARN se podía usar como una vacuna.

Estas vacunas ya no solo se están buscando de manera inyectable, sino también como implantes para el cáncer. Están empezando a usarse modelos nanotecnológicos y materiales no solo para implantar sino también para reparar tejidos.

Otra área de la tecnología que está transformando el tratamiento de muchos problemas de daños en tejidos, por enfermedad o por accidente, es la medicina regenerativa basada en nanomateriales, desde la reparación de la espina dorsal, lograr que las neuronas vuelvan a hablar unas con otras después de un accidente, a los órganos en chip -crear órganos artificiales que nos permitan entender mejor la biología de los órganos y crear medicinas.

Lo que empezamos a querer es sensores muy buenos que nos permitan medir, cuantitativamente, en tiempo real, lo que está pasando en el cuerpo de un enfermo o de una persona sana. El modelo matemático inteligente de esos procesos va a ser fundamental para entender todos esos datos que estamos obteniendo del cuerpo y que no sabemos qué hacer. Finalmente, tener medicinas inteligentes que sean capaces de hablar con el sistema complejo del cuerpo y entender todas sus interacciones.

Esto de los modelos inteligentes y de los datos llevan a la relación entre la biología, la nanotecnología y el futuro de la computación. Los problemas biológicos y médicos son muy complejos y probablemente no se puedan resolver con los modelos de computación actuales. Ahora estamos intentando introducir la inteligencia artificial en casi todas las medidas médicas. De una manera u otra empezamos a entender que todos estos datos que estamos recogiendo de un montón de enfermedades, de un montón de procesos, necesitamos mejores maneras de entenderlos.

La inteligencia artificial que usamos ahora también es un proceso que está inspirado en el orden de las neuronas en el cerebro, pero tiene unos límites computacionales muy grandes. El principal problema de la inteligencia artificial es que necesita muchísima energía. Entrenar la red neuronal para que la IA identifique a una persona y sea capaz de dibujarla cuesta dos millones de dólares. Hacen falta tantas conexiones y tantas operaciones para ser capaz de simular el proceso de entendimiento que empieza a tener muchos problemas para tener utilizaciones prácticas en biología.

Los científicos, por tanto, están empezando a buscar otras maneras de computación que nos permitan hacer computaciones rápidas sin tanto uso de energía. La biología usa un código doble digital y analógico. Una planta rota hacia el sol y para eso no necesita hacer una computación con las proteínas. Simplemente, su forma, su física y cómo las proteínas se adaptan a ellas, le permite crear una computación analógica en la que casi no usa energía. Los científicos están empezando a buscar inspiración en la biología para crear nuevos computadores que les permitan, por ejemplo, ser más rápidos en comprender los problemas médicos. Son los computadores neuromórficos, o los computadores que puedan imitar a una planta cuando se gira hacia el sol. Este tipo de computación neuromórfica es entender cómo la naturaleza es capaz de entender y de crear computaciones usando la energía y la información. La idea es que estas estructuras complejas son capaces de cambiar de forma para entender la información. La materia, orgánica o inorgánica, a escala nanométrica, es capaz de producir computaciones. Son computaciones analógicas, no son digitales, y van a transformar cada vez más la manera en que procesamos lo que entendemos por información.

Esto está empezando a dar lugar a nuevos robots. Por ejemplo, estructuras blandas como un robot de plástico al que se le han puesto unas células que son capaces de sentir la luz que hay a su alrededor y el juguete robótico es capaz de moverse hacia la luz. Estamos empezando a integrar, como siempre han hecho los humanos, todas las tecnologías en juguetes, en crear lo que es posible, y aquí empiezan a verse las posibilidades de lo que se nos avecina, esto es, nuevas formas de inteligencia, nuevas formas de computación, nuevas máquinas que son capaces de extraer energía del ambiente.

Una de las maneras que los científicos piensan que vamos a poder procesar toda la cantidad de información que empezamos a poder recoger del ambiente es usando los computadores cuánticos. La idea es que en un computador cuántico muchas operaciones se pueden realizar a la vez. Nuestra computación analógica como personas, nuestra intuición, nuestras emociones implica la idea de que tenemos una serie de estados superpuestos que son capaces de colapsar en momentos puntuales para crear nuestra consciencia. En muchos laboratorios se empieza a ver que muchos sistemas biológicos también son capaces de computaciones cuánticas, o si podemos aprender de la biología cómo crear computaciones cuánticas que nos permitan superar las limitaciones de la computación digital.

La Fundación Rafael del Pino no se hace responsable de los comentarios, opiniones o manifestaciones realizados por las personas que participan en sus actividades y que son expresadas como resultado de su derecho inalienable a la libertad de expresión y bajo su entera responsabilidad. Los contenidos incluidos en el resumen de esta conferencia son resultado de los debates mantenidos en el encuentro realizado al efecto en la Fundación y son responsabilidad de sus autores.

The Rafael del Pino Foundation is not responsible for any comments, opinions or statements made by third parties. In this respect, the FRP is not obliged to monitor the views expressed by such third parties who participate in its activities and which are expressed as a result of their inalienable right to freedom of expression and under their own responsibility. The contents included in the summary of this conference are the result of the discussions that took place during the conference organised for this purpose at the Foundation and are the sole responsibility of its authors.