Translate

viernes, 15 de mayo de 2026

 

PARADOJAS EN BIOLOGÍA

En la andadura hacia la construcción del conocimiento científico aparecen muchas dificultades con la coherencia de los razonamientos empleados; algunas de estas nos llevan a un callejón sin salida, de reducción al absurdo ‒son las contradicciones sin solución o aporías‒, mientras que otras dificultades lógicas solo son contradicciones aparentes o paradojas, cuya solución puede suponer un avance en el desarrollo de la ciencia al superar el modelo o paradigma vigente. En este sentido, Richard Feynman afirma que en las paradojas físicas hay siempre una mala interpretación de alguno o ambos razonamientos que se contraponen…

Por su carácter histórico, la Biología presenta con frecuencia paradojas como la clásica del “huevo y la gallina”: ¿qué fue antes? Al igual que en esta, las paradojas de la vida se enfrentan también con la prioridad en el origen y la evolución de seres y procesos biológicos. Debemos subrayar que la acepción del concepto de prioridad utilizado aquí no supone preferencia ni superioridad alguna, sino anterioridad o precedencia de algo respecto de otra cosa que depende o procede de ello. En el caso de los seres vivos, este concepto de prioridad ‒que define qué fue antes‒ enfrenta, entre otras cosas: a ácidos nucleicos con proteínas; a la estructura con la función; a la información secuencial con la conformacional; y, en el contexto de los procesos de endocitosis y exocitosis, al entrar con el salir.

En ciencia, un paradigma es un modelo que agrupa las ideas rectoras de la comunidad científica durante una determinada época, tanto en los métodos experimentales aplicados como en su interpretación. Como contradicción lógica a los postulados de un paradigma científico, el planteamiento y resolución de nuevas paradojas pueden llegar a modificar o incluso sustituir el paradigma vigente si este se muestra incapaz de explicar los nuevos datos que sustentan estas paradojas, especialmente si el cambio en el marco teórico que orienta la investigación científica va acompañado de nuevas y pujantes técnicas.

 

El paradigma genético  

El paradigma actual en Biología arranca con la determinación en 1953 de la estructura del ADN ‒que supuso el nacimiento de la Biología Molecular‒, hecho que, además de visualizar la intimidad molecular de los genes, permitió desentrañar de manera fácil los mecanismos para la custodia y transmisión de la información genética. Con ello, pronto se establece el carácter secuencial de la misma y la relación de código genético entre las secuencias de las cuatro bases nitrogenadas del ADN y las de las de los veinte aminoácidos de los polipéptidos de las proteínas.

Tras el descubrimiento del código genético secuencial, se enuncian dos principios generales ‒auténticos pilares del paradigma genético‒ con un carácter inicialmente dogmático: son los denominados Dogma Central de la Biología Molecular (DCBM) y Dogma de Anfinsen, que establecen respectivamente:

1)    que la información genética secuencial circula unidireccionalmente del ADN al ARNm, en un proceso denominado transcripción, y, mediante un proceso de traducción, de las bases del ARNm a los aminoácidos de las proteínas;

2)  y que a una determinada secuencia de aminoácidos le corresponde una sola estructura proteica tridimensional, y que esta última realiza una única función.

Así pues, el dogma de Anfinsen es el soporte del determinismo genético (una secuencia, una estructura, una función), recogido en el denominado paradigma estructura función, que supone una estructura TD rígida y definida acorde al modelo llave/cerradura (Fischer, 1894). Este modelo ‒utilizado para explicar los mecanismos moleculares de la actividad enzimática‒ exige una complementariedad única de estructuras rígidas entre el sustrato (llave) y la enzima (cerradura), y una posición espacial precisa de las cadenas laterales de los aminoácidos.

En resumen, el determinismo genético se manifiesta a través del flujo unidireccional de información secuencial (ADN/ARNm/proteínas), de manera que, de forma única y sin ninguna intervención ambiental, la secuencia de aminoácidos de cada polipéptido determine una sola estructura funcional nativa (considerada la estructura tridimensional termodinámicamente más estable), y que esta sea rígida y permita que el ligando específico se acople en ella como una llave en una cerradura.

La hipótesis inicial de Anfinsen, de naturaleza termodinámica, suponía el plegamiento espontáneo del polipéptido recién sintetizado para adquirir, casi instantáneamente, la estructura nativa. Para probarla realizó un experimento, ya clásico, de desnaturalización de una proteína pequeña, la ribonucleasa A. Tras quitar los agentes químicos desnaturalizantes, el polipéptido recuperaba su estructura nativa funcional. Este sencillo experimento se generalizó como el dogma de Anfinsen para todas las proteínas.

 

Contradicciones aparentes (paradojas) al paradigma genético

Para empezar, conviene señalar cuál es el marco filosófico de este paradigma estructura-función que incorpora un determinismo genético basado en la información secuencial, sin influencia ambiental alguna: una secuencia, una estructura proteica TD rígida (cerradura) que actúa funcionalmente sobre un ligando molecular que encaja en ella específicamente como una llave. Posiblemente sea Jacques Monod el científico que mejor ha explicitado el marco filosófico del paradigma genético determinista (información genética secuencial invariante y mutaciones al azar como fuente de variabilidad). En su célebre libro El azar y la necesidad, propone ‒para alcanzar la inmensidad de secuencias exactas que determinan las estructuras proteicas con funciones específicas en la biosfera‒ que la vida en la Tierra resulta de un acierto único en la ruleta cósmica; algo insólito, de naturaleza sobrenatural, alejado de la evolución química general del universo.

Volviendo de nuevo a las particularidades del paradigma, vemos someramente que los dos dogmas presentan excepciones:

1)    En el último cuarto del siglo XX, la unidireccionalidad del DCBM comenzó a fallar, entre otros casos, con la transcriptasa inversa (enzima que copia ARN en ADN) de los retrovirus. Además, la adquisición de información conformacional en las proteínas ‒que el DCBM considera determinada únicamente por la secuencia de aminoácidos‒ se vio vulnerada por fenómenos de propagación de conformaciones mediante proteínas como los priones.

2)    El Dogma de Anfinsen también encontró contradicciones a finales de siglo: por un lado, el plegamiento de las proteínas, in vivo, está asistido por proteínas que actúan como chaperonas moleculares. Por otra parte, en su experimento, Anfinsen consideró que el estado termodinámico del polipéptido desnaturalizado era idéntico al del polipéptido naciente en el ribosoma; estudios fisicoquímicos posteriores afirman que el polipéptido desnaturalizado guarda alguna información del proceso de plegamiento, ausente en el recién sintetizado.

Hay que tener en cuenta que en el proceso de plegamiento de un polipéptido se producen interacciones entre los grupos funcionales de los residuos de cada aminoácido, y que estas, dirigidas por un “embudo de energía”, hacen que la cadena se pliegue en milisegundos. Dicho sea de paso, para este proceso se planteó la denominada paradoja de Levinthal: una proteína debería tardar más que la edad del universo en encontrar su estructura funcional si fuera probando todas las formas posibles. Esta paradoja es un ejemplo de un planteamiento absurdo, si no se tiene en cuenta la continua estructuración en niveles de complejidad de las interacciones materiales… Precisamente, fue el propio Cyrus Levinthal el que propuso que, durante el proceso de plegamiento de una proteína para adquirir la estructura nativa, además del componente termodinámico debía darse uno cinético. Es evidente que, para que este proceso se dé en fracciones de segundo, tiene que haber intermediarios del plegamiento que impliquen la interacción de determinadas regiones hidrofóbicas en la formación de núcleos estables.

Básicamente, el agua interacciona con los polipéptidos seleccionando los residuos hidrofílicos e hidrofóbicos: aparta y forma un núcleo de orden con estos últimos y deja la mayor parte de los primeros expuestos al agua en la superficie.

La estructura reticular del agua líquida se opone al contacto con los residuos hidrofóbicos y contribuye a su colapso empujándolos y empaquetándolos; una vez agrupados, los residuos hidrofóbicos refuerzan el núcleo de orden (core hidrofóbico) mediante fuerzas de van der Waals (de naturaleza débil y que implica el contacto entre sus átomos). Este colapso hidrofóbico acelera el plegamiento del polipéptido, que pasa rápidamente por varios intermediarios, alrededor de lo que se conoce como glóbulo fundido (molten globule), para llegar a la estructura terciaria tridimensional; la cual, como veremos, no es rígida. El componente cinético del proceso de plegamiento implica que a la conformación final (estable termodinámicamente) se puede llegar por muchos caminos y no por uno solo. Como su nombre indica, el estado de glóbulo fundido ya tiene una estructura globular, pero pendiente de numerosas interacciones adecuadas para adquirir la estructura nativa funcional. En esta última etapa, pueden alcanzarse conformaciones incorrectas estables, pero no funcionales. Para evitar los graves problemas que estas disfunciones pueden ocasionar, se requiere la intervención de proteínas chaperonas que ayudan tanto en el correcto plegamiento de los polipéptidos como en la gestión de los mal plegados.

La universalidad del modelo llave-cerradura ‒que exigía una complementariedad única entre estructuras rígidas‒ para los mecanismos moleculares de la actividad enzimática, se vio amenazada por el fenómeno del alosterismo, que ofrecía una explicación a las complejas interacciones entre proteínas y sus reguladores, en las que las primeras experimentan cambios conformacionales frente al ligando. Se produce, así, un mecanismo de ajuste inducido: la enzima no es rígida, sino flexible y la unión del sustrato (u otro ligando regulador) provoca un cambio conformacional en el sitio de unión para ajustarse a él, mediante interacciones débiles (iónicas, puentes de hidrógeno y de van der Waals). En este sentido, actualmente se sabe que hasta las proteínas más estructuradas no son entidades rígidas similares a cristales, sino sistemas dinámicos con diferentes grados de flexibilidad conformacional. Así pues, las proteínas ordenadas existen como conjuntos dinámicos de conformaciones intercambiables, que ocurren en una escala de tiempo que es más rápida que el necesario para la determinación de estructuras por Rx y otras técnicas físicas.

 

En las proteínas intrínsecamente desordenadas la función es prioritaria a la estructura

Desde finales del siglo XX se sabe de la gran abundancia, especialmente en eucariotas, de proteínas intrínsecamente desordenadas (IDPs) y proteínas híbridas (con dominios ordenados y regiones intrínsecamente desordenadas, IDRs), que desafían los dogmas (DCBM y de Anfinsen) que sustentan el determinismo del paradigma genético actual. Estas proteínas carecen de una estructura tridimensional bien definida ‒presentan una conformación de glóbulo prefundido o fundido, intermedia entre la totalmente desplegada y la estructurada‒, pero pueden adquirir una estructura terciaria estable cuando se unen con baja afinidad a diversos ligandos que van desde pequeñas moléculas a moléculas más grandes, como ácidos nucleicos u otras proteínas. De esta manera, supeditan la estructura a las posibles funciones previas ‒la interacción con uno de varios ligandos posibles‒ en diversas rutas de regulación y señalización o en procesos adaptativos frente a cambios medioambientales. Estas interacciones frente a cambios mantenidos en el entorno ‒que no solo seleccionan, sino que también moldean‒ imprimen una información biológica, e incluso un tipo de herencia, de naturaleza conformacional.

 

La información biológica se escribe no se acierta

Hemos visto que el determinismo del paradigma genético (secuencia-estructura-función) se tambalea con el descubrimiento de la gran dinámica conformacional de las proteínas, pero esto no significa que el concepto de gen como unidad de información desaparezca, solo se matiza. Los nuevos avances en biología estructural liberan al gen del atributo de potencia activa, y sitúan la información genética en una posición central entre la información conformacional pregenética y la epigenética; las tres vertientes de la información biológica, evolutivamente trabadas tanto en la filogenia como en la ontogenia y la fisiología.

En contraste con el paradigma genético, de naturaleza determinista estructural, se va revelando un modelo funcional que, sobre la base de la información conformacional de las proteínas, explica el universo de las interacciones moleculares que estructuraron a los seres vivos en la Tierra desde su origen y durante su evolución. Igualmente, en el nuevo modelo aflora la idea de que la etapa prebiótica pregenética podría caracterizarse por la coevolución de información conformacional de tres tipos de proteínas en interacción con el ARN, formando ribonucleoproteínas, de la que surgiría el código genético: primero uno conformacional y posteriormente el secuencial. En este triunvirato proteico, que puede constituir el mecanismo general de adaptación al medio en el nivel supramolecular, tendríamos:

·      Las proteínas intrínsecamente desordenadas (IDPs), capaces de moldearse y adaptarse funcionalmente mediante unión a nuevos ligandos.

·       Los chaperones, que participarían estabilizando y guardando la coherencia funcional de las estructuras proteicas resultantes, tanto las pregenéticas como las genéticas.

·    Los conformones (priones funcionales), que seleccionarían y propagarían las nuevas conformaciones desde las etapas prebióticas.

 

En este modelo, la función es prioritaria a la estructura, y las nuevas aparecen como resultado de la plasticidad de las previas en su continua interacción frente a las contingencias de un medio cambiante. Así, los niveles de información pregenética, genética y epigenética responderían a la acumulación de “cultura molecular” de las proteínas en su peripecia evolutiva, desde el origen de la vida. De esta manera, el código genético se hace funcionalmente, no se “acierta”. 

Hemos visto cómo el abordaje de las paradojas biológicas acerca del ¿qué fue antes?, apuntan hacia un nuevo paradigma o, al menos, hacia una modificación profunda del anterior, donde el determinismo exclusivo del gen dé paso al papel moldeador del medioambiente, y se invierta el orden de prioridades: de las proteínas sobre los ácidos nucleicos, de la información conformacional (de proteínas y ARNs) sobre la secuencial (ARNm y ADN), y, en definitiva, de la función sobre la estructura.

 

 

martes, 13 de enero de 2026

 

La generación como receta utilizada por Dios para conservar un mundo creado por Él

 

A la luz de los conocimientos actuales, resulta casi inconcebible la idea del siglo XVI de que los seres vivos eran engendrados por generación divina. Por una parte, animales y plantas superiores podían engendrar semejantes mediante la unión, por la acción de Dios, de la materia y la forma; aunque en este caso los padres no fuesen más que la sede de las fuerzas ‒el alma y el calor innato del líquido seminal‒ que unían la materia con la forma. Por otra parte, los seres que eran considerados inferiores (gusanos, moscas, serpientes, ratones...) no nacían de la simiente, sino por generación espontánea desde la materia en putrefacción, la suciedad y el barro bajo la acción del calor del sol.

A pesar de que es ya evidente que muchos seres vivos se reproducen sexualmente, seguimos empleando el término generación para designar cada eslabón de la concatenación sucesiva de padres e hijos. Pero, aun sin tener la concepción científica de reproducción sexual, no era menos patente para los humanos de cualquier época la relación de semejanza entre padres e hijos. Además, todos ellos con características parecidas. Está claro que la humanidad ha sabido aprovechar su experiencia práctica al margen de sus creencias religiosas, como ilustra el refrán “a Dios rogando y con el mazo dando”, expresión popular de la benedictina “ora et labora”. Al igual que hemos visto con el avance del conocimiento científico, las ideas –en este caso religiosas– acompañan siempre a la experiencia, sea esta del tipo que sea. Así pues, por un lado, tenemos las creencias, muchas veces atenazadoras, y, por otro, la práctica empírica de jardineros, agricultores y ganaderos. Paradójicamente, es en el terreno del conocimiento filosófico y científico sobre los seres vivos donde más ha costado desterrar creencias, mitos y supersticiones –quizá porque los estudiosos de la naturaleza eran mayoritariamente clérigos–, como la idea de generación espontánea, que se mantuvo hasta que Pasteur la refutó definitivamente en la segunda mitad del siglo XIX.

En su libro La lógica de lo viviente, Francois Jacob (1920-2013), afirma que el siglo XVI es un siglo sin leyes de la naturaleza. En él todo aparece embrollado, caprichoso, resultado del designio divino. Todo ser se explica mediante la unión singular de materia y forma. Aquí reaparecen las ideas aristotélicas, pero teñidas de las creencias de la escolástica. No hay leyes naturales que permitan entender a los seres y sus procesos; la naturaleza aparece ligada a la voluntad de Dios, pero no como el resultado acabado de su obra, sino como su agente ejecutor: el que da forma a la materia y genera permanentemente los seres, manteniendo y dirigiendo su creación. Resultado de esta creación divina, cada ser vivo es un eslabón de la cadena continua de los seres que une todos los objetos de este mundo. Veremos que esta idea sigue presente en el siglo XVII para explicar la formación de los individuos de una misma especie, como resultado de creaciones simultáneas realizadas sobre el modelo de la creación divina inicial. Aquí observamos cómo la relación entre materia y forma tiene carácter divino: la materia es similar al barro con el que Dios modela los seres. En palabras de Jacob: “La generación no es más que una de las recetas utilizadas cotidianamente por Dios para la conservación de un mundo creado por Él”.

En relación a la generación divina especial ‒de los humanos, los animales superiores y las plantas‒, la historia que conduce a Gregor Mendel (1822-1884) y sus leyes entronca con el siglo XVII cuando dos teorías competían acaloradamente por explicar la herencia. Así, en este siglo los animalculistas o espermistas –de la mano de Antoine de Leeuwenhoek (1632-1723)– y los ovistas –liderados por Reigner de Graaf (1641-1673)– creían respectivamente que espermatozoides y óvulos portaban en exclusiva las características de animales y humanos, mientras que la otra célula solo cumplía funciones accesorias para el crecimiento del embrión y del feto.

A mediados del XIX, estas teorías comenzaron a resquebrajarse fundamentalmente por la práctica empírica de maestros jardineros que perseguían la obtención de nuevas especies florales de carácter ornamental. Estos se dieron cuenta de que en los cruces realizados tanto las células masculinas como las femeninas contribuían a las características de las nuevas plantas.

Así pues, ya estaba claro que los dos progenitores aportaban caracteres, pero ¿en qué proporción? ¿Cómo se combinaban los centenares que poseía cada planta? La respuesta más común en aquella época era: la herencia por mezcla. Esta idea suponía que cuando se fusionan las células sexuales o gametos masculino y femenino, el material hereditario que contienen se uniría de forma similar a como lo haría una mezcla de colorantes. Pero esta idea no arrojaba mucha luz sobre la herencia. Mendel realizó sus conocidos experimentos en este contexto, y su gran mérito fue desentrañar el mecanismo de transmisión de los factores de herencia o determinantes hereditarios (posteriormente denominados genes) con una concepción de herencia particulada.

 

El costoso camino hacia la refutación de la generación espontánea

La idea de generación espontánea se puede incluir entre los planteamientos vitalistas como los que encontramos ya en la Grecia clásica con Anaximandro (610-545 a.C.), el cual planteaba que los seres vivos procedían de un “lodo primordial”, mientras que Aristóteles (384-322 a.C.) consideraba la existencia de la “psyque” o “principio vital” que se manifestaba de modos diversos en plantas, animales inferiores, superiores y en el hombre. Este filósofo proponía además concepciones como la identidad entre materia viva y materia inerte, no reconociendo un límite muy claro entre lo vivo y lo no vivo. Admitía, por tanto, la posibilidad de generación espontánea de vida, esto es, que la materia denominada inerte, no organizada e incapaz de cambio, podía adquirir una psique o principio vital más o menos superior que le proporcionara naturaleza de ser vivo, es decir, capacidad de cambio. Por otra parte, en Roma predominaba una cultura técnica de concepción materialista donde podemos destacar a Lucrecio (98-55 a.C.), contrario a las ideas aristotélicas, que afirma: “Nunca nada ha nacido de la nada”.

Posteriormente, asistimos a un largo periodo (desde el siglo XVI hasta la segunda mitad del XIX) en el que la idea de generación espontánea se resiste a desaparecer, con manifestaciones diversas y frecuentemente acompañada de otras ideas coherentes con el vitalismo como la teleología.

En el siglo XVII, Francesco Redi (1626-1698) empleó el método experimental y logró demostrar fehacientemente que la carne putrefacta protegida por una gasa no “criaba gusanos por sí misma”, sino que, más bien, aquellos eran larvas que procedían de los huevos previamente depositados por una mosca. Estos experimentos supusieron un fuerte revés para la idea de la generación espontánea. Pero el avance de la microscopía con R. Hooke (1635-1703) y A. van Leeuwenhoek (1632-1723) no solo abrió el campo de la observación de tejidos y microorganismos, sino también la posibilidad de que estos últimos pudiesen surgir de forma espontánea.

En el siglo XVIII, Lázaro Spallanzani (1729-1799) calentó agua en un recipiente tapado hasta su ebullición y posteriormente la dejó enfriar evitando su contaminación. Demostró así que estos microorganismos proceden de huevos y esporas. Los partidarios de la generación espontánea objetaron que la fuerza vital no podía entrar con el aire en un recipiente tapado. Con esta argumentación la idea duró otros cien años. 

En 1861, Louis Pasteur (1822-1895) ideó unos experimentos para demostrar que los microorganismos solo aparecían como contaminantes del aire y no espontáneamente. Utilizó unos matraces en cuello de cisne que permitían la entrada de oxígeno que se consideraba necesario para la vida, pero que con sus cuellos largos y curvos atrapaban las bacterias, las esporas de los hongos y otros microorganismos evitando que su contenido se contaminase. Demostró así que, si hervía el líquido del interior para matar los microorganismos ya presentes y se dejaba intacto su cuello, no aparecería ningún microorganismo. Alguno de sus frascos, estériles todavía, siguen exhibiéndose en el Instituto Pasteur. Solo si se rompía el cuello del matraz, favoreciendo la entrada de gérmenes contaminantes, aparecían microorganismos. Pasteur proclamó: “La vida es un germen y un germen es vida”.

Además de refutar la idea de la generación espontánea, estudios posteriores de Pasteur contribuyeron junto a los de Robert Koch (1843-1910) al alumbramiento de la teoría microbiana de las enfermedades infecciosas. Estos grandes eventos supusieron el nacimiento de la Microbiología como ciencia experimental.

viernes, 12 de diciembre de 2025

 

ÁTOMOS, VACÍO Y DIFRACCIÓN DE RAYOS X

 

Hacia el secreto de la vida, a hombros de gigantes

“Hemos descubierto el secreto de la vida…” Un excitado joven proclama a los cuatro vientos que, junto a Jim, su compañero de investigaciones, habían logrado desentrañar un misterio largamente velado a la humanidad. Ambos iban a comer al Pub Eagle, próximo a su laboratorio de Cambridge, y, nada más entrar, Francis no puede reprimir su alegría, y se lanza a contar que habían descubierto la estructura del ácido desoxirribonucleico (ADN), y con ello el secreto de la vida. Jim, era James Dewey Watson, un genetista estadounidense que había formado una curiosa pareja de investigación con el británico Francis Harry Compton Crick… Con algunas notables diferencias, a ambos les unía una gran ambición por poder tener acceso al conocimiento y sus fuentes. En este sentido, resulta significativo que Watson comenzara su famoso libro La doble hélice (1968) diciendo «Nunca he visto actuar a Francis Crick con modestia». Por su parte, Crick, en su libro Qué loco propósito (1988) hace un comentario sobre su sorpresa por la excesiva motivación en el camino hacia el Nobel que Watson revela en La doble hélice. Pero, anécdotas aparte, y parafraseando a Newton, ¿a lomos de qué gigantes llegaron Watson y Crick a desentrañar el secreto de la vida?, y, también, ¿de qué instrumentos científicos, técnicos y personales se sirvieron para cumplir su propósito?

En ese largo camino de ideas, conceptos y técnicas instrumentales hubo muchos gigantes (algunos lejanos y otros muy próximos en el tiempo) sobre cuyos lomos se auparon Watson y Crick para proponer un preciso modelo atómico molecular de la estructura del ADN.

Sin lugar a dudas, esta historia de influencias comienza en Jonia con dos filósofos materialistas: Demócrito y su maestro Leucipo. Demócrito de Abdera expone un pensamiento muy próximo al de la mejor ciencia actual: “Nada existe, aparte de los átomos y el vacío”. “Los átomos constituyen el ser, poseen movimiento propio y espontáneo en todas las direcciones y chocan entre sí. El vacío o no ser separa los átomos y permite su desplazamiento”. Demócrito era un filósofo materialista: para él todo se podía entender objetivamente como propiedades de la materia en constante interacción dinámica, incluso producciones de la mente como la percepción, las sensaciones y el pensamiento. No hay ningún fenómeno natural inteligente ni finalista; los movimientos de la materia y sus choques son resultado del azar y la necesidad.

Mientras la filosofía se plantea ¿por qué las cosas son?, la ciencia aborda principalmente el modo de ser de la realidad material, ¿cómo son las cosas? Aunque esta formulación de principios parece poner algunos límites claros entre estas dos fuentes del conocimiento racional, iremos viendo que las ideas y los conceptos de ambas se entremezclan permanentemente. De esta forma y paulatinamente, a medida que aumenta el ámbito y la experiencia del análisis del mundo material, muchas de las ideas filosóficas iniciales se van transformando en conceptos científicos. Por su parte, los científicos siempre van a enmarcar los nuevos hechos con teorías previas, preñadas de ideas y conceptos.

 

De la idea y el concepto a la técnica instrumental

Si nos situamos más allá del origen del universo, las preguntas anteriores caen actualmente en el ámbito de la metafísica, aunque es posible que en un futuro no muy lejano se amplíe el ámbito de actuación de los científicos, y que algunos planteamientos de esta se constituyan en física, como ha ido pasando repetidamente con muchas ideas desde los griegos hasta la actualidad. Así, la teoría atómica pasa de la idea inicial de átomo de filósofos clásicos, como Demócrito y Leucipo, al concepto experimental de este desde el siglo XIX, en la explicación del comportamiento de la materia en los fenómenos y las leyes de la química y de la física nuclear: ley de conservación de la materia; teoría atómica de Dalton; hipótesis atómico molecular de Avogadro; tabla periódica de los elementos, de Mendeléyev; modelo atómico de Rutherford; modelo atómico de Bohr; modelo atómico de Sommerfeld; modelo de Schrödinger; modelo de Dirac… Todos estos modelos y algunos posteriores incorporaron ideas provenientes de las teorías de la relatividad y de la física cuántica…

Paulatinamente, el avance del conocimiento científico logró eliminar subjetividades del concepto de átomo hasta hacerlo objeto directo de estudio y utilización aplicando técnicas instrumentales fisicoquímicas, como las relacionadas con la difracción de rayos X y la microscopía electrónica, entre otras. Con estas técnicas instrumentales se ha llegado al abordaje de problemas relativos a los seres vivos, como el de la base molecular de su información, que son de un nivel de complejidad superior. El análisis por difracción de rayos X de la estructura molecular de proteínas y ácidos nucleicos nos permite conocer la disposición exacta de sus átomos constituyentes. Pero se trata de una técnica difícil que no nos ofrece una foto, sino unas complejas imágenes de patrones de difracción que hay que explicar.  

 En 1895, Wilhelm Röntgen (Premio Nobel de Física en 1901) descubrió casualmente una radiación desconocida hasta entonces, y que por ello denominó rayos X, que era capaz de atravesar casi todas las sustancias. Inicialmente, esta radiación se asoció a partículas con una determinada energía. Posteriormente, el estudio de los rayos X como ondas propició la creación de una nueva técnica instrumental, la difracción de rayos X, de la mano de Max von Laue (Premio Nobel de Física en 1914, quien razonó que los rayos X podían ser difractados al interaccionar con átomos que se encuentran a una distancia parecida a la longitud de onda de la radiación emitida. Además, si los átomos forman parte de moléculas cristalizadas (con una estructura espacial ordenada), la difracción podía ser interpretada al recogerse sus reflexiones en una placa fotográfica. Se obtenía, así, un patrón de difracción o difractograma que ofrecía información de la estructura atómica del cristal. Fueron dos británicos, padre e hijo, William Henry Bragg y William Lawrence Bragg (Premios Nobel de Física en 1915), los pioneros en la utilización de la técnica de cristalografía de rayos X para, mediante la interpretación de los difractogramas obtenidos, calcular las distancias entre los átomos de macromoléculas biológicas (como las proteínas o el ADN) y, así, determinar su estructura tridimensional.

La interpretación es siempre un paso fundamental en el camino de la ciencia, y puede ser más o menos física según nuestro grado de proximidad al objeto de estudio. Así, por ejemplo, en la historia de la determinación de la estructura del ADN, el ingente trabajo de Chargaff sobre la composición química de esta macromolécula reveló que todas las analizadas tenían igual cantidad de adenina que de timina, y lo mismo ocurría con la citosina respecto a la guanina. Pero, además, para resolver este gigantesco problema estructural también fue preciso el análisis cristalográfico. Este fue dilucidado con gran esfuerzo y rigor científico por Rosalind Franklin principalmente, que trabajaba con Maurice Wilkins. La célebre fotografía 51 de los patrones de difracción de rayos X de las fibras de ADN –“alguna de las fotografías por rayos X más hermosas”, en palabras de J. D. Bernal (uno de los primeros discípulos de los Bragg)–, obtenida por la investigadora, fue entregada (junto con otros datos) por Wilkins a James D. Watson. Este perseguía con Francis H. Crick esta estructura; para ello, unieron este conocimiento fisicoquímico con los datos de Chargaff y propusieron un modelo molecular teórico del ADN.

En esta historia dos científicos, entre otros, resultaron especialmente perjudicados: la principal fue Rosalind Franklin, que como mujer fue ninguneada por algunos de los hombres que trabajaban alrededor de ella, y terminó trasladándose al laboratorio de Bernal en Londres. El otro fue el gran Linus Pauling que –por motivos políticos– no pudo viajar a Inglaterra para participar en las reuniones donde se discutían los datos cristalográficos. Más tarde, Watson comentó al respecto de la posibilidad de que Pauling hubiese podido asistir a los seminarios del King´s College y ver la fotografía 51: “a más tardar en una semana, Linus tendría la estructura”. También posteriormente reconoció el enorme mérito de Franklin, que fallecida prematuramente no pudo ser candidata al Nobel.

Por una parte, hemos visto el arduo trabajo experimental físico y químico, de Franklin y Chargaff, con el que se consiguieron datos muy valiosos y bien establecidos, imprescindibles para determinar la estructura del ADN. El rigor de las técnicas instrumentales que aplicaban no admitía dudas en estos dominios. Pero al adentrarse en los problemas biológicos se amplía notablemente el campo de la interpretación. Aquí es donde la astucia –quizá reprobable– para conseguir los datos se une a la audacia para interpretarlos. Eso fue lo que hicieron Watson y Crick, con la colaboración de Wilkins y de espaldas a Franklin.

La imagen de la doble hélice fue la piedra sillar sobre la que se edificó la biología molecular. Al fin, la herencia particulada de Mendel y sus leyes tenían una sólida base química; sin embargo, de nuevo, las relaciones moleculares (de código genético) que se fueron descubriendo entre ADN, ARN y proteínas admitían más de una interpretación. Lo realmente establecido es que los genes son fragmentos de ADN que portan información para la formación de un polipéptido. En una de las posibles interpretaciones, el denominado dogma central de la biología molecular (DCBM) dicta que la información genética va unidireccionalmente de la secuencia de bases del ADN a la del ARNm, y de esta a la de aminoácidos de un polipéptido. Así, la información secuencial de este último determinaría su estructura tridimensional y su función: una secuencia, una estructura y una función. Este es el paradigma genocéntrico de la biología molecular, donde la estructura es prioritaria a la función.

Pero también es posible una interpretación funcional donde la información genética secuencial esté rodeada de la información conformacional de las proteínas –tanto pregenética como epigenética– en su plasticidad intrínseca adaptativa frente al medio ambiente molecular.

 

Con la teoría atómica hemos visto el avance del conocimiento científico desde las ideas metafísicas hasta el análisis y la utilización directa de los átomos. En sus publicaciones Crítica de la razón pura y Prolegómenos a cualquier metafísica futura que quiera presentarse como ciencia, Immanuel Kant plantea abiertamente: ¿puede la metafísica convertirse en ciencia? Él tiene como modelos la Física y las Matemáticas, mientras que considera la metafísica como un conocimiento ajeno a la experiencia directa: “un conocimiento a priori, o de la razón pura”. Pero acabamos de ver la utilidad instrumental de las ideas iniciales –como los átomos de Demócrito y Leucipo– para llegar a desarrollar conceptos empíricos y experimentales, e incluso llegar a delimitar objetos materiales susceptibles del análisis y del manejo instrumental directo. Secuencias como esta son frecuentes en la historia de la ciencia.