Translate

martes, 13 de enero de 2026

 

La generación como receta utilizada por Dios para conservar un mundo creado por Él

 

A la luz de los conocimientos actuales, resulta casi inconcebible la idea del siglo XVI de que los seres vivos eran engendrados por generación divina. Por una parte, animales y plantas superiores podían engendrar semejantes mediante la unión, por la acción de Dios, de la materia y la forma; aunque en este caso los padres no fuesen más que la sede de las fuerzas ‒el alma y el calor innato del líquido seminal‒ que unían la materia con la forma. Por otra parte, los seres que eran considerados inferiores (gusanos, moscas, serpientes, ratones...) no nacían de la simiente, sino por generación espontánea desde la materia en putrefacción, la suciedad y el barro bajo la acción del calor del sol.

A pesar de que es ya evidente que muchos seres vivos se reproducen sexualmente, seguimos empleando el término generación para designar cada eslabón de la concatenación sucesiva de padres e hijos. Pero, aun sin tener la concepción científica de reproducción sexual, no era menos patente para los humanos de cualquier época la relación de semejanza entre padres e hijos. Además, todos ellos con características parecidas. Está claro que la humanidad ha sabido aprovechar su experiencia práctica al margen de sus creencias religiosas, como ilustra el refrán “a Dios rogando y con el mazo dando”, expresión popular de la benedictina “ora et labora”. Al igual que hemos visto con el avance del conocimiento científico, las ideas –en este caso religiosas– acompañan siempre a la experiencia, sea esta del tipo que sea. Así pues, por un lado, tenemos las creencias, muchas veces atenazadoras, y, por otro, la práctica empírica de jardineros, agricultores y ganaderos. Paradójicamente, es en el terreno del conocimiento filosófico y científico sobre los seres vivos donde más ha costado desterrar creencias, mitos y supersticiones –quizá porque los estudiosos de la naturaleza eran mayoritariamente clérigos–, como la idea de generación espontánea, que se mantuvo hasta que Pasteur la refutó definitivamente en la segunda mitad del siglo XIX.

En su libro La lógica de lo viviente, Francois Jacob (1920-2013), afirma que el siglo XVI es un siglo sin leyes de la naturaleza. En él todo aparece embrollado, caprichoso, resultado del designio divino. Todo ser se explica mediante la unión singular de materia y forma. Aquí reaparecen las ideas aristotélicas, pero teñidas de las creencias de la escolástica. No hay leyes naturales que permitan entender a los seres y sus procesos; la naturaleza aparece ligada a la voluntad de Dios, pero no como el resultado acabado de su obra, sino como su agente ejecutor: el que da forma a la materia y genera permanentemente los seres, manteniendo y dirigiendo su creación. Resultado de esta creación divina, cada ser vivo es un eslabón de la cadena continua de los seres que une todos los objetos de este mundo. Veremos que esta idea sigue presente en el siglo XVII para explicar la formación de los individuos de una misma especie, como resultado de creaciones simultáneas realizadas sobre el modelo de la creación divina inicial. Aquí observamos cómo la relación entre materia y forma tiene carácter divino: la materia es similar al barro con el que Dios modela los seres. En palabras de Jacob: “La generación no es más que una de las recetas utilizadas cotidianamente por Dios para la conservación de un mundo creado por Él”.

En relación a la generación divina especial ‒de los humanos, los animales superiores y las plantas‒, la historia que conduce a Gregor Mendel (1822-1884) y sus leyes entronca con el siglo XVII cuando dos teorías competían acaloradamente por explicar la herencia. Así, en este siglo los animalculistas o espermistas –de la mano de Antoine de Leeuwenhoek (1632-1723)– y los ovistas –liderados por Reigner de Graaf (1641-1673)– creían respectivamente que espermatozoides y óvulos portaban en exclusiva las características de animales y humanos, mientras que la otra célula solo cumplía funciones accesorias para el crecimiento del embrión y del feto.

A mediados del XIX, estas teorías comenzaron a resquebrajarse fundamentalmente por la práctica empírica de maestros jardineros que perseguían la obtención de nuevas especies florales de carácter ornamental. Estos se dieron cuenta de que en los cruces realizados tanto las células masculinas como las femeninas contribuían a las características de las nuevas plantas.

Así pues, ya estaba claro que los dos progenitores aportaban caracteres, pero ¿en qué proporción? ¿Cómo se combinaban los centenares que poseía cada planta? La respuesta más común en aquella época era: la herencia por mezcla. Esta idea suponía que cuando se fusionan las células sexuales o gametos masculino y femenino, el material hereditario que contienen se uniría de forma similar a como lo haría una mezcla de colorantes. Pero esta idea no arrojaba mucha luz sobre la herencia. Mendel realizó sus conocidos experimentos en este contexto, y su gran mérito fue desentrañar el mecanismo de transmisión de los factores de herencia o determinantes hereditarios (posteriormente denominados genes) con una concepción de herencia particulada.

 

El costoso camino hacia la refutación de la generación espontánea

La idea de generación espontánea se puede incluir entre los planteamientos vitalistas como los que encontramos ya en la Grecia clásica con Anaximandro (610-545 a.C.), el cual planteaba que los seres vivos procedían de un “lodo primordial”, mientras que Aristóteles (384-322 a.C.) consideraba la existencia de la “psyque” o “principio vital” que se manifestaba de modos diversos en plantas, animales inferiores, superiores y en el hombre. Este filósofo proponía además concepciones como la identidad entre materia viva y materia inerte, no reconociendo un límite muy claro entre lo vivo y lo no vivo. Admitía, por tanto, la posibilidad de generación espontánea de vida, esto es, que la materia denominada inerte, no organizada e incapaz de cambio, podía adquirir una psique o principio vital más o menos superior que le proporcionara naturaleza de ser vivo, es decir, capacidad de cambio. Por otra parte, en Roma predominaba una cultura técnica de concepción materialista donde podemos destacar a Lucrecio (98-55 a.C.), contrario a las ideas aristotélicas, que afirma: “Nunca nada ha nacido de la nada”.

Posteriormente, asistimos a un largo periodo (desde el siglo XVI hasta la segunda mitad del XIX) en el que la idea de generación espontánea se resiste a desaparecer, con manifestaciones diversas y frecuentemente acompañada de otras ideas coherentes con el vitalismo como la teleología.

En el siglo XVII, Francesco Redi (1626-1698) empleó el método experimental y logró demostrar fehacientemente que la carne putrefacta protegida por una gasa no “criaba gusanos por sí misma”, sino que, más bien, aquellos eran larvas que procedían de los huevos previamente depositados por una mosca. Estos experimentos supusieron un fuerte revés para la idea de la generación espontánea. Pero el avance de la microscopía con R. Hooke (1635-1703) y A. van Leeuwenhoek (1632-1723) no solo abrió el campo de la observación de tejidos y microorganismos, sino también la posibilidad de que estos últimos pudiesen surgir de forma espontánea.

En el siglo XVIII, Lázaro Spallanzani (1729-1799) calentó agua en un recipiente tapado hasta su ebullición y posteriormente la dejó enfriar evitando su contaminación. Demostró así que estos microorganismos proceden de huevos y esporas. Los partidarios de la generación espontánea objetaron que la fuerza vital no podía entrar con el aire en un recipiente tapado. Con esta argumentación la idea duró otros cien años. 

En 1861, Louis Pasteur (1822-1895) ideó unos experimentos para demostrar que los microorganismos solo aparecían como contaminantes del aire y no espontáneamente. Utilizó unos matraces en cuello de cisne que permitían la entrada de oxígeno que se consideraba necesario para la vida, pero que con sus cuellos largos y curvos atrapaban las bacterias, las esporas de los hongos y otros microorganismos evitando que su contenido se contaminase. Demostró así que, si hervía el líquido del interior para matar los microorganismos ya presentes y se dejaba intacto su cuello, no aparecería ningún microorganismo. Alguno de sus frascos, estériles todavía, siguen exhibiéndose en el Instituto Pasteur. Solo si se rompía el cuello del matraz, favoreciendo la entrada de gérmenes contaminantes, aparecían microorganismos. Pasteur proclamó: “La vida es un germen y un germen es vida”.

Además de refutar la idea de la generación espontánea, estudios posteriores de Pasteur contribuyeron junto a los de Robert Koch (1843-1910) al alumbramiento de la teoría microbiana de las enfermedades infecciosas. Estos grandes eventos supusieron el nacimiento de la Microbiología como ciencia experimental.

viernes, 12 de diciembre de 2025

 

ÁTOMOS, VACÍO Y DIFRACCIÓN DE RAYOS X

 

Hacia el secreto de la vida, a hombros de gigantes

“Hemos descubierto el secreto de la vida…” Un excitado joven proclama a los cuatro vientos que, junto a Jim, su compañero de investigaciones, habían logrado desentrañar un misterio largamente velado a la humanidad. Ambos iban a comer al Pub Eagle, próximo a su laboratorio de Cambridge, y, nada más entrar, Francis no puede reprimir su alegría, y se lanza a contar que habían descubierto la estructura del ácido desoxirribonucleico (ADN), y con ello el secreto de la vida. Jim, era James Dewey Watson, un genetista estadounidense que había formado una curiosa pareja de investigación con el británico Francis Harry Compton Crick… Con algunas notables diferencias, a ambos les unía una gran ambición por poder tener acceso al conocimiento y sus fuentes. En este sentido, resulta significativo que Watson comenzara su famoso libro La doble hélice (1968) diciendo «Nunca he visto actuar a Francis Crick con modestia». Por su parte, Crick, en su libro Qué loco propósito (1988) hace un comentario sobre su sorpresa por la excesiva motivación en el camino hacia el Nobel que Watson revela en La doble hélice. Pero, anécdotas aparte, y parafraseando a Newton, ¿a lomos de qué gigantes llegaron Watson y Crick a desentrañar el secreto de la vida?, y, también, ¿de qué instrumentos científicos, técnicos y personales se sirvieron para cumplir su propósito?

En ese largo camino de ideas, conceptos y técnicas instrumentales hubo muchos gigantes (algunos lejanos y otros muy próximos en el tiempo) sobre cuyos lomos se auparon Watson y Crick para proponer un preciso modelo atómico molecular de la estructura del ADN.

Sin lugar a dudas, esta historia de influencias comienza en Jonia con dos filósofos materialistas: Demócrito y su maestro Leucipo. Demócrito de Abdera expone un pensamiento muy próximo al de la mejor ciencia actual: “Nada existe, aparte de los átomos y el vacío”. “Los átomos constituyen el ser, poseen movimiento propio y espontáneo en todas las direcciones y chocan entre sí. El vacío o no ser separa los átomos y permite su desplazamiento”. Demócrito era un filósofo materialista: para él todo se podía entender objetivamente como propiedades de la materia en constante interacción dinámica, incluso producciones de la mente como la percepción, las sensaciones y el pensamiento. No hay ningún fenómeno natural inteligente ni finalista; los movimientos de la materia y sus choques son resultado del azar y la necesidad.

Mientras la filosofía se plantea ¿por qué las cosas son?, la ciencia aborda principalmente el modo de ser de la realidad material, ¿cómo son las cosas? Aunque esta formulación de principios parece poner algunos límites claros entre estas dos fuentes del conocimiento racional, iremos viendo que las ideas y los conceptos de ambas se entremezclan permanentemente. De esta forma y paulatinamente, a medida que aumenta el ámbito y la experiencia del análisis del mundo material, muchas de las ideas filosóficas iniciales se van transformando en conceptos científicos. Por su parte, los científicos siempre van a enmarcar los nuevos hechos con teorías previas, preñadas de ideas y conceptos.

 

De la idea y el concepto a la técnica instrumental

Si nos situamos más allá del origen del universo, las preguntas anteriores caen actualmente en el ámbito de la metafísica, aunque es posible que en un futuro no muy lejano se amplíe el ámbito de actuación de los científicos, y que algunos planteamientos de esta se constituyan en física, como ha ido pasando repetidamente con muchas ideas desde los griegos hasta la actualidad. Así, la teoría atómica pasa de la idea inicial de átomo de filósofos clásicos, como Demócrito y Leucipo, al concepto experimental de este desde el siglo XIX, en la explicación del comportamiento de la materia en los fenómenos y las leyes de la química y de la física nuclear: ley de conservación de la materia; teoría atómica de Dalton; hipótesis atómico molecular de Avogadro; tabla periódica de los elementos, de Mendeléyev; modelo atómico de Rutherford; modelo atómico de Bohr; modelo atómico de Sommerfeld; modelo de Schrödinger; modelo de Dirac… Todos estos modelos y algunos posteriores incorporaron ideas provenientes de las teorías de la relatividad y de la física cuántica…

Paulatinamente, el avance del conocimiento científico logró eliminar subjetividades del concepto de átomo hasta hacerlo objeto directo de estudio y utilización aplicando técnicas instrumentales fisicoquímicas, como las relacionadas con la difracción de rayos X y la microscopía electrónica, entre otras. Con estas técnicas instrumentales se ha llegado al abordaje de problemas relativos a los seres vivos, como el de la base molecular de su información, que son de un nivel de complejidad superior. El análisis por difracción de rayos X de la estructura molecular de proteínas y ácidos nucleicos nos permite conocer la disposición exacta de sus átomos constituyentes. Pero se trata de una técnica difícil que no nos ofrece una foto, sino unas complejas imágenes de patrones de difracción que hay que explicar.  

 En 1895, Wilhelm Röntgen (Premio Nobel de Física en 1901) descubrió casualmente una radiación desconocida hasta entonces, y que por ello denominó rayos X, que era capaz de atravesar casi todas las sustancias. Inicialmente, esta radiación se asoció a partículas con una determinada energía. Posteriormente, el estudio de los rayos X como ondas propició la creación de una nueva técnica instrumental, la difracción de rayos X, de la mano de Max von Laue (Premio Nobel de Física en 1914, quien razonó que los rayos X podían ser difractados al interaccionar con átomos que se encuentran a una distancia parecida a la longitud de onda de la radiación emitida. Además, si los átomos forman parte de moléculas cristalizadas (con una estructura espacial ordenada), la difracción podía ser interpretada al recogerse sus reflexiones en una placa fotográfica. Se obtenía, así, un patrón de difracción o difractograma que ofrecía información de la estructura atómica del cristal. Fueron dos británicos, padre e hijo, William Henry Bragg y William Lawrence Bragg (Premios Nobel de Física en 1915), los pioneros en la utilización de la técnica de cristalografía de rayos X para, mediante la interpretación de los difractogramas obtenidos, calcular las distancias entre los átomos de macromoléculas biológicas (como las proteínas o el ADN) y, así, determinar su estructura tridimensional.

La interpretación es siempre un paso fundamental en el camino de la ciencia, y puede ser más o menos física según nuestro grado de proximidad al objeto de estudio. Así, por ejemplo, en la historia de la determinación de la estructura del ADN, el ingente trabajo de Chargaff sobre la composición química de esta macromolécula reveló que todas las analizadas tenían igual cantidad de adenina que de timina, y lo mismo ocurría con la citosina respecto a la guanina. Pero, además, para resolver este gigantesco problema estructural también fue preciso el análisis cristalográfico. Este fue dilucidado con gran esfuerzo y rigor científico por Rosalind Franklin principalmente, que trabajaba con Maurice Wilkins. La célebre fotografía 51 de los patrones de difracción de rayos X de las fibras de ADN –“alguna de las fotografías por rayos X más hermosas”, en palabras de J. D. Bernal (uno de los primeros discípulos de los Bragg)–, obtenida por la investigadora, fue entregada (junto con otros datos) por Wilkins a James D. Watson. Este perseguía con Francis H. Crick esta estructura; para ello, unieron este conocimiento fisicoquímico con los datos de Chargaff y propusieron un modelo molecular teórico del ADN.

En esta historia dos científicos, entre otros, resultaron especialmente perjudicados: la principal fue Rosalind Franklin, que como mujer fue ninguneada por algunos de los hombres que trabajaban alrededor de ella, y terminó trasladándose al laboratorio de Bernal en Londres. El otro fue el gran Linus Pauling que –por motivos políticos– no pudo viajar a Inglaterra para participar en las reuniones donde se discutían los datos cristalográficos. Más tarde, Watson comentó al respecto de la posibilidad de que Pauling hubiese podido asistir a los seminarios del King´s College y ver la fotografía 51: “a más tardar en una semana, Linus tendría la estructura”. También posteriormente reconoció el enorme mérito de Franklin, que fallecida prematuramente no pudo ser candidata al Nobel.

Por una parte, hemos visto el arduo trabajo experimental físico y químico, de Franklin y Chargaff, con el que se consiguieron datos muy valiosos y bien establecidos, imprescindibles para determinar la estructura del ADN. El rigor de las técnicas instrumentales que aplicaban no admitía dudas en estos dominios. Pero al adentrarse en los problemas biológicos se amplía notablemente el campo de la interpretación. Aquí es donde la astucia –quizá reprobable– para conseguir los datos se une a la audacia para interpretarlos. Eso fue lo que hicieron Watson y Crick, con la colaboración de Wilkins y de espaldas a Franklin.

La imagen de la doble hélice fue la piedra sillar sobre la que se edificó la biología molecular. Al fin, la herencia particulada de Mendel y sus leyes tenían una sólida base química; sin embargo, de nuevo, las relaciones moleculares (de código genético) que se fueron descubriendo entre ADN, ARN y proteínas admitían más de una interpretación. Lo realmente establecido es que los genes son fragmentos de ADN que portan información para la formación de un polipéptido. En una de las posibles interpretaciones, el denominado dogma central de la biología molecular (DCBM) dicta que la información genética va unidireccionalmente de la secuencia de bases del ADN a la del ARNm, y de esta a la de aminoácidos de un polipéptido. Así, la información secuencial de este último determinaría su estructura tridimensional y su función: una secuencia, una estructura y una función. Este es el paradigma genocéntrico de la biología molecular, donde la estructura es prioritaria a la función.

Pero también es posible una interpretación funcional donde la información genética secuencial esté rodeada de la información conformacional de las proteínas –tanto pregenética como epigenética– en su plasticidad intrínseca adaptativa frente al medio ambiente molecular.

 

Con la teoría atómica hemos visto el avance del conocimiento científico desde las ideas metafísicas hasta el análisis y la utilización directa de los átomos. En sus publicaciones Crítica de la razón pura y Prolegómenos a cualquier metafísica futura que quiera presentarse como ciencia, Immanuel Kant plantea abiertamente: ¿puede la metafísica convertirse en ciencia? Él tiene como modelos la Física y las Matemáticas, mientras que considera la metafísica como un conocimiento ajeno a la experiencia directa: “un conocimiento a priori, o de la razón pura”. Pero acabamos de ver la utilidad instrumental de las ideas iniciales –como los átomos de Demócrito y Leucipo– para llegar a desarrollar conceptos empíricos y experimentales, e incluso llegar a delimitar objetos materiales susceptibles del análisis y del manejo instrumental directo. Secuencias como esta son frecuentes en la historia de la ciencia.

 

sábado, 15 de noviembre de 2025

 

CATÁSTROFES, CATASTROFISMO Y EVOLUCIÓN BIOLÓGICA

Vivimos sobresaltados por las noticias de catástrofes de toda índole y magnitud, muchas lejanas, pero algunas muy próximas: terremotos, volcanes, huracanes, DANAS, incendios incontrolables, plagas, pandemias, desastres nucleares…, pero también otras más lentas y silenciosas como el cambio climático, directamente relacionado con algunas de las anteriores.

La amenaza de un futuro incierto para buena parte del planeta, e incluso para el conjunto de la humanidad, pende sobre nuestras cabezas. De hecho, sabemos que, a lo largo de su historia, la vida sobre la Tierra ha sufrido varias extinciones masivas; lo cual, entre otras cosas, ha debido tener una notable influencia en la discontinuidad del registro fósil, hecho tozudo y de gran importancia en las, a veces agrias, polémicas entre los biólogos evolucionistas, ya desde los tiempos de Darwin.

La cadena continua de los seres

En el siglo XVI, la idea de una cadena continua de los seres mantenidos por generación divina (especial o espontánea) marcaba un horizonte confuso en la imagen de la naturaleza… En el incipiente conocimiento científico, las preguntas de tipo “Qué”, referentes al inventario y clasificación de los seres considerados vivos, se topaban con la teología natural de la escolástica…


En esta tarea tenemos a creacionistas fijistas como Linneo ‒ él plantea que hay tantas especies como formas creadas hubo en el principio‒, que aborda la clasificación de las plantas mediante la observación atenta, la descripción completa y rigurosa de las partes visibles y la extracción del carácter propio de cada una de ellas.




Buffon y Lamarck defienden una perspectiva transformista y funcional debido a los cambios del entorno; Buffon de tipo degenerativo: “se puede ir bajando gradualmente de la criatura más perfecta hasta la materia más informe… y al mineral más tosco”. 



Por su parte, el transformismo de Lamarck (igualmente gradual) es de tipo progresivo, en una permanente tendencia a la perfección desde una continua generación espontánea. También establece una jerarquía funcional en las estructuras, que aplica a la clasificación: distingue entre la organización funcional interior y la forma exterior resultante de las adaptaciones singulares al entorno.

 


Desde la contingencia catastrofista, Cuvier rompe con la cadena continua de los seres

Frecuentemente se ignora, cuando no se simplifica y ridiculiza la aportación de muchos autores al desarrollo de la ciencia, a menudo con Lamarck, pero también ocurre algo parecido con su poderoso adversario Cuvier ‒considerado como el malvado que le hizo la vida imposible‒, al que se le encasilla como catastrofista y creacionista.


Cuvier, uno de los padres de la anatomía comparada y la paleontología, sitúa la función integrada (organismo) delante de la diversidad estructural, característica de las partes visibles. Con la anatomía comparada ya no se comparan estructuras aisladas entre sí, sino en su coherencia funcional. 

Pero él ve saltos insalvables entre los organismos y en el registro fósil, y los explica mediante una sucesión de extinciones catastróficas, seguidas por nuevas creaciones biológicas (no divinas) que conducirían de forma contingente a los grandes tipos actuales, que exhiben discontinuidades insalvables entre ellos. A diferencia de Lamarck, Cuvier ataca la idea de continuidad de los seres y la de su permanente generación espontánea. Así, introduce en la biología las ideas de contingencia en los sucesos y de discontinuidad en la cadena divina de los seres, ambas esenciales en los posteriores planteamientos evolucionistas de Darwin, aunque el biólogo inglés las consideró en el marco del gradualismo del geólogo Lyell (con gran disgusto de su amigo y gran defensor, Huxley).

En cuanto a su perspectiva funcional, al igual que Buffon y Lamarck, Cuvier coloca la función delante de la estructura: para él, el organismo animal es una unidad de funciones integradas con una enorme posibilidad de diversidad estructural, fundamentalmente en la parte más externa; ya no se comparan las partes aisladas entre sí, sino en la coherencia de su dinámica funcional. Pero esta coherencia interna en la esencia o naturaleza de cada gran grupo (plan básico de diseño, phylum o filo) animal contrasta con la brecha insalvable entre los grupos. Esa es la gran diferencia con Lamarck, aunque coincide en la coherencia funcional en relación con el medio: «Las diferentes partes de cada ser deben coordinarse para hacer posible el ser total, no solo en sí mismo, sino en sus relaciones con el entorno». Así pues, para este paleontólogo existe una discontinuidad estructural, debida a la contingencia, agrupada en cuatro planes o tipos básicos, y una continuidad funcional debida a las condiciones de existencia en el entorno. La armonía funcional hace que la diversidad estructural esté en consonancia con la función que cada ser vivo realiza en su medio, lo que actualmente denominamos nicho ecológico. Así, las catástrofes contingentes dejarían muchos nichos ecológicos vacíos y una readaptación rápida para ocuparlos, que ocasionaría los grandes tipos de animales con diseños inconexos entre sí. En este sentido, la gran extinción del precámbrico que dio lugar a la explosión cámbrica debió de ser especialmente importante. Hemos visto que solo las necesidades funcionales básicas dan continuidad a la vida, y no la infinitud de pequeñas diferencias graduales en los caracteres estructurales que contemplaba la idea de la cadena continua de los seres.

Es difícil no comentar, aunque sea de pasada, el paralelismo que existe entre esta concepción medieval de la naturaleza y la actual de pequeños cambios genéticos graduales que mejoren de forma inconexa las estructuras vivas. 

La armonía funcional en la diversidad estructural se escapa a los planteamientos del programa genético, tanto en el dogma central de la biología molecular como en la nueva síntesis neodarwinista. 

En estos planteamientos desaparece el organismo y reaparece el análisis reduccionista e incoherente de las partes, llegando hasta detallar las frecuencias alélicas, que generalmente solo responden a cambios en las secuencias del ADN sin manifestación fenotípica alguna. Además, las aventuradas correlaciones entre genotipo y fenotipo, que frecuentemente hace la genética, son especialmente graves cuando se identifica este último con una determinada enfermedad, ya que se olvida que correlación no significa causalidad. Muchas definiciones fenotípicas complejas –como ocurre con determinadas patologías‒ agrupan un conjunto de síntomas que están relacionados con intrincadas cadenas de reacciones de la fisiología celular e intercelular; en cada una de esas cadenas intervienen múltiples proteínas (codificadas por uno o varios genes, según los polipéptidos que las integren); por lo que resultan totalmente absurdas noticias como: “se ha aislado el gen responsable de…” Cada gen solo es responsable de codificar en su secuencia el orden de los aminoácidos de un polipéptido…, todo lo demás es bioquímica y fisiología.

Cuvier hace una jerarquía entre los órganos más o menos esenciales, y sitúa a los primeros en el interior de la estructura viva y a los segundos en el exterior.

Este enfoque me parece muy profundo, en claro contraste con el Cuvier meramente catastrofista y creacionista que nos suelen presentar. En primer lugar, la distinción entre un núcleo interno esencial y una periferia variable está profundamente arraigada a la estructura de los principales niveles de organización de la materia: los átomos, las proteínas (como nivel biológico supramolecular), las células y los individuos pluricelulares.

Los átomos presentan un núcleo que caracteriza el elemento correspondiente en la tabla periódica.

Las proteínas también presentan un núcleo hidrofóbico ordenado (core) que permite el empaquetamiento esencial del tipo de proteína, y una periferia hidrofílica que permite una variabilidad de interacciones –más o menos específicas, y con distintos grados de afinidad– en función de su plasticidad conformacional ante diferentes ligandos.


Las células también se caracterizan por un núcleo portador de la información genética y epigenética esencial del tipo celular, y una periferia definida por una membrana con receptores proteicos específicos de cada célula y que interaccionan con la información contingente del medio.

En lo referente a los individuos pluricelulares me remito a lo expuesto por Cuvier; quizá tan solo añadir que el cerebro también presenta una estructura similar, donde en el núcleo está lo esencial automatizado, y en la periferia, en vanguardia, lo nuevo en acción directa con el medio exterior.

En general, podríamos concluir que, al menos en la evolución biológica, el interior responde a lo seleccionado hace tiempo; mientras que la variabilidad exterior responde al incesante juego entre la contingencia del entorno y la inmediata necesidad en la respuesta adaptativa de las funciones y estructuras previas. Probablemente, este juego –y no algunas simplificaciones deterministas y reduccionistas‒ esté implicado en los procesos de evolución rápida tras las catástrofes.

La perspectiva funcional en Darwin. La contingencia del medio ambiente en la ontogenia y en la filogenia

En la embriología los descubrimientos de K. E. von Baer están en línea con los de Cuvier respecto a la discontinuidad entre los grupos de seres vivos: observa cuatro tipos de desarrollo embrionario que coinciden con los que el sabio francés identifica en sus estudios de anatomía comparada. Pero, además, también distingue entre interno y externo en el espacio y entre próximo y lejano en el tiempo:

“Los rasgos más generales de un grupo aparecen en el embrión antes que los rasgos más especiales. Las estructuras menos generales nacen de las más generales, hasta que finalmente aparecen las más especiales”.

 

Estas conclusiones de Von Baer las llevaría más tarde E. Haeckel al campo de la evolución en su expresiva ley biogenética: “la ontogenia recapitula la filogenia”.


Antes de que Haeckel enunciara la ley biogenética, el embriólogo von Baer ya tenía un barrunto de la relación en el espacio y en el tiempo de la evolución propia de la ontogenia (entendida como desarrollo), pero no estaba de acuerdo con la teoría de la evolución filogenética de Darwin, donde bajo este término se teje una compleja red de relaciones medioambientales de forma contingente, sin dirección ni propósito alguno. No obstante, tanto von Baer con la embriología como Cuvier con la anatomía comparada y la paleontología ponen los cimientos para la construcción de la teoría darwiniana. Cada uno en su campo distingue entre órganos más internos –los más importantes, los que aparecen en primer lugar y definen a cada uno de los cuatro grandes grupos– y órganos más superficiales, más variables, tardíos y definidores de los subgrupos y pequeñas ramificaciones de los grandes taxones.

En términos evolutivos la estructura interna de los animales respondería a la adaptación a los cambios del entorno en el pasado, definidora de los grandes tipos esenciales, mientras que la estructura más superficial estaría asociada a la interacción contingente más reciente entre el organismo y su medio, generadora de una explosión de diversidad adaptativa. El juego entre presente y pasado, entre lo actual y la historia, entre ontogenia y filogenia, es también el juego en interacción incesante entre las estructuras internas y externas.

Por lo tanto, es cada ontogenia particular la que durante la existencia del ser vivo va tejiendo la tela de araña de la filogenia; pero para ello, cual arácnido, la nueva ontogenia recorre desde su inicio embrionario la red tejida por sus ancestros en la filogenia. Así, paulatinamente, paso a paso, las nuevas conquistas epigenéticas mantenidas a lo largo de ontogenias sucesivas van tejiendo paulatinamente la reciente filogenia.

Ya habíamos comentado que la búsqueda de armonía funcional en la diversidad estructural está también muy presente en las teorías de Darwin. En el título de su libro principal El origen de las especies por medio de la selección natural, o la preservación de las razas favorecidas en la lucha por la vida, Darwin ya hace referencia a la variabilidad dentro de la constancia entre las especies, y al papel selector de esta diversidad por el medio natural. Como ya hemos visto, en aquel momento, además del cambio en el concepto de especie y de la influencia del medio en la función y estructura del ser vivo, la medieval idea de generación divina había sido sustituida por la fisiológica de reproducción. Esta nueva concepción exigía algún tipo de información que pasara mediante células, sexuales o no, de una generación a la siguiente, es decir, algún tipo de herencia. Por tanto, la teoría de Darwin nacía, al igual que la de Lamarck, con dos dimensiones de cambio: una en el espacio, de adaptación al medio; y otra en el tiempo, de formación de nuevas especies por reproducción diferencial de las más aptas.

En Darwin, el cambio en las especies producido a lo largo del tiempo no busca ningún fin, ni es el resultado de ningún programa de desarrollo como ocurre en la ontogenia; de acuerdo con Haeckel, la ontogenia recapitula la filogenia, pero esta es impredecible –no hay camino, solo las estelas de lo ya navegado– y está a merced de la contingencia medioambiental. De hecho, Darwin no utilizó el término evolución en su Origen de las especies sino la idea de “descendencia o herencia con modificación”.

La importancia de los genes relacionados con el control del plan corporal u homeoboxes (que no presentan ninguna característica genética distintiva respecto a los denominados genes estructurales) radica en las proteínas que codifican y en la secuencia espaciotemporal de interacciones que estas proteínas establecen durante el desarrollo. Quizá la diferencia esté en la posible flexibilidad o plasticidad de las proteínas relacionadas con uno u otro tipo de genes: menor para los estructurales y mayor para los reguladores, donde la interacción entre proteínas desordenadas y estos genes está sometida a mayores variaciones ambientales, tanto internas como externas.

En todos los niveles biológicos (supramolecular proteico, celular y pluricelular) se da cierta plasticidad fenotípica frente al ambiente, como la que hace que, bajo determinadas circunstancias ambientales, no se manifiesten las mutaciones en la conformación de las proteínas. En este fenómeno, la coherencia funcional y estructural de las proteínas que interactúan impone las conformaciones anteriores a las mutaciones, de manera que estas se acumulan de forma silente con la ayuda de proteínas de choque térmico (HSP), que actúan como “capacitors” (condensadores o almacenadores de mutaciones), y también con la intervención de priones que, además, actúan como propagadores de conformaciones, hasta llegar a un periodo de cambio ambiental drástico (estrés) donde todas las mutaciones almacenadas pueden liberarse y expresarse a la vez. 

Este fenómeno podría considerarse como la explicación molecular de la teoría de los equilibrios intermitentes (Punctuated equilibria) de Gould y Eldredge, en la que proponen que las especies son estables durante la mayor parte de su existencia (estasis), salvo en momentos de crisis, donde se producen etapas de evolución rápida (a escala geológica) asociadas a la formación de nuevas especies.

Para llegar a una teoría general de la información, debemos tener siempre en cuenta que todos los niveles energético-materiales de la realidad están interconectados y que no hay ningún ser que tenga una existencia independiente en sí mismo. Los seres vivos no son sin su medio, y la vida es un auténtico telar con su urdimbre y su trama.