Teoría materialista de la evolución de Juan M. O. Alberdi (página 6)
Enviado por Yunior Andrés Castillo S.
Los que sostienen ese punto de vista, rechazan en forma anticientífica el orden regular del proceso que infiltra origen a la vida, pues consideran que esta realización, el más importante acontecimiento de la vida de nuestro planeta, es puramente casual y, por tanto, no pueden darnos ninguna respuesta a la pregunta formulada, cayendo inevitablemente en las creencias más idealistas y místicas que aseveran la existencia de una voluntad creadora primaria de origen divino y de un programa determinado para la creación de la vida.
Así, en el libro de Schroedinger '¿Qué es la vida desde el punto de vista físico?', publicado no hace mucho; en el libro del biólogo norteamericano Alexander: 'La vida, su naturaleza y su origen', y en otros autores extranjeros, se afirma muy clara y terminantemente que la vida sólo pudo surgir a consecuencia de la voluntad creadora de Dios. En cuanto al mendelismo-morganismo, éste se esfuerza por desarmar en el plano ideológico a los biólogos que luchan contra el idealismo, esforzándose por demostrar que el problema del origen de la vida -el más importante de los problemas ideológicos- no puede ser resuelto manteniendo una posición materialista.
Idéntica posición que Lysenko y Oparin defendió en los años treinta el biólogo italiano Mario Canella, que calificó al mendelismo como una "jerga esotérica". El gen, afirma Canella, ni material ni funcionalmente puede ser una unidad autónoma: "Nuestra ignorancia es lo bastante grande como para justificar las más dispares hipótesis", concluye (607b). El 19 junio de 2007 la agencia de noticias canadiense Science Presse titulaba así una información: "Ni siquiera sabemos lo que es un gen" (608).
Lysenko no ha sido, pues, el único en cuestionar el estatuto científico del concepto "gen". Las dudas sobre la naturaleza y la existencia misma de los genes fueron muy frecuentes entre los científicos de
todo el mundo hasta mediados del siglo XX, y nunca se han solventado satisfactoriamente. No solamente no se le puede reprochar nada a Lysenko sino que, desde la perspectiva actual, lo que cabe discutir es si avanzó lo suficiente en ese terreno, es decir, si insertó adecuadamente dicho concepto en el contexto de una crítica más general al conjunto de la teoría sintética y del concepto de herencia. El concepto de gen es uno de los fantasmas sobre los que se ha articulado la teoría sintética, su misma médula. No es extraño, por tanto, que mostrando sus lagunas algunos lleguen a pensar que el fundamento de la genética naufraga. Si suponemos que heredamos algo de nuestro ancestros, ¿qué es eso que se hereda? ¿heredamos genes? ¿heredamos únicamente genes? Los verdaderos científicos son los que plantean preguntas. Por eso, en la edición correspondiente a 1948 de su obra sobre la herencia, el genetista suizo Émile Guyénot insertó un epígrafe titulado "¿Existen los genes?", donde reconocía que los genetistas no sabían nada cierto sobre la naturaleza de los genes: "La existencia misma del gen, al menos tal y como se le concibe generalmente, se comienza a poner en duda". Añade también que aunque los cromosomas se pueden dividir en unidades que preservan cierta autonomía, esas posiciones diferenciables no son necesariamente genes (608b). Esa era la posición de un genetista suizo en 1948, justo cuando Lysenko lee su informe en la Academia.
Pero la diferencia entre Guyénot y Lysenko es que éste era soviético. Parece claro, en consecuencia, que la postura de Lysenko sobre los genes era compartida por una parte importante de la genética mundial, hoy censurada. En su conocida obra, escrita en 1943, Schródinger habla más de los cromosomas que de los genes, porque la existencia de éstos era puramente hipotética: los definía como un "hipotético transportador material de una determinada característica" (609). ¿Qué fue de aquella hipótesis? ¿En qué momento se convirtió en una tesis?
A diferencia de otros conceptos capitales de la biología molecular, como las enzimas, por ejemplo, los genes no fueron un descubrimiento sino un invento, una hipótesis presumida por las modificaciones que se observaban en el exterior o, en expresión de Darwin, "tinta invisible". Como afirma Le Dantec, poner un nombre a algo que no existe es un "error de método" porque parece concederle una realidad fáctica que no tiene (610). Se inventó una causa por sus efectos; se postuló su existencia en la misma forma que se postula la existencia de un virus, aún sin conocer su realidad, cuando se manifiestan determinadas enfermedades y se le pone el mismo nombre al virus (la causa) que a la enfermedad (el efecto). Del mismo modo, cuando se apreciaban cambios en los caracteres externos se atribuían a causas internas, de donde se extrajeron las nociones de mutación génica, alelo, polimorfismo, etc. Según el manual de Suzuki, Griffiths, Miller y Lewontin, sólo se puede detectar un gen cuando hay un cambio en los rasgos físicos externos del individuo; a medida que se descubran más cambios, se descubrirán también más genes. La variación es la materia prima de la genética: si todos los ejemplares de una especie fueran iguales, no existiría esta ciencia. Los autores definen precisamente la genética como el estudio de los genes a través de su variación (611).
La argumentación de Morgan es también sintomática de la manera confusa en que se introdujo el concepto de gen a mediados del pasado siglo: "La prueba de que los genes son las unidades esenciales de la herencia no reposa sobre la observación directa, ya que la dimensión de los genes es inferior a los límites de la visión en los más poderosos microscopios, sino que se deduce de los fenómenos de la herencia". Por lo tanto, en primer lugar, la existencia de los genes no se apoyaba en los hechos; aunque no lo querían reconocer, no era más que una de esas hipótesis tan poco gratas a los empiristas. Pero además, añadía Morgan, los genes son "entidades" con dos propiedades fundamentales: la primera la expone de una manera muy confusa diciendo que los genes tienen capacidad para crecer y multiplicarse, aunque luego dice que lo que en realidad se divide es el cromosoma, para acabar sosteniendo que "el gen se divide cuantitativamente y luego crece hasta adquirir el volumen del gen original". La segunda facultad de los genes, continúa Morgan, es la de provocar cambios en la actividad química y física del protoplasma. No obstante, esta tesis, reconoce Morgan, también "carece de una base de observación directa, pero reposa sobre deducciones lógicas de los resultados del análisis genético. Esta prueba genética muestra que cuando un gen sufre una mutación, sin perder su capacidad de autoperpetuarse, provoca cambios en el carácter del individuo resultante. El argumento, en realidad, está basado en una relación inversa entre el gen y el carácter o de una serie de caracteres, y luego, por el análisis, referimos este cambio del carácter a un cambio de gen. Pero lo importante es que el cambio puede ser analíticamente referido a un punto particular o locus de uno de los cromosomas, es decir, a un solo gen. Admitido que el cambio de un carácter depende de alguna propiedad del nuevo gen, surge la cuestión de saber cómo el nuevo gen produce su efecto sobre el protoplasma celular, pues es en el protoplasma donde el carácter se manifiesta".
Más adelante Morgan sigue tambaleándose en la cuerda floja: "Es posible pensar que el efecto puede ser debido a alguna acción dinámica del gen sobre el protoplasma circundante. Esta posibilidad no puede hasta el presente ser demostrada ni rechazada, pero, como la mayor parte de los cambios celulares son de naturaleza química, parece plausible aceptar que los genes ponen en libertad alguna sustancia química -quizá un catalizador- que provoca ciertos cambios químicos en el protoplasma" (612). En suma, muchos argumentos y ningún apoyo fáctico; en Morgan, las conjeturas, posibilidades y "deducciones lógicas" se encadenaban una tras otra. Sin embargo, el tiempo, la historia de la ciencia, volvería a demostrar que una mala teoría siempre es susceptible de empeorar; los seguidores de Morgan dejarían de lado sus reservas, preocupaciones y circunloquios teóricos. Las hipótesis del gen debía convertirse en la tesis del gen.
Los mendelistas seguían reconociendo su vacuidad empírica en una fecha tan tardía como 1951 en una cita de Sinnott, Dunn y Dobzhansky que merece la pena recordar porque ilustra bien claramente el verdadero tras fondo del estado de la genética en aquel momento: "Conviene hacer resaltar que no estamos seguros de la existencia de genes porque los hayamos visto o analizado químicamente (hasta ahora la genética no ha conseguido hacer ninguna de estas dos cosas) sino porque las leyes de Mendel sólo pueden interpretarse satisfactoriamente admitiendo que existen los genes" (613). Fue un arrebato de sinceridad poco frecuente en los mendelistas que no se ha vuelto a repetir, pero conducía a un flagrante círculo vicioso: las leyes de Mendel se demuestran por la existencia de los genes y, a su vez, la existencia de los genes por las leyes de Mendel. El concepto de gen se introduce por las necesidades explicativas de la síntesis neodarwinista y no tiene sentido fuera de ella. Como dice Ruse: "Hoy en día ningún genetista mendeliano duda que existan los genes" (614).
Se trata de exactamente de eso: de las reverencias de los mendelianos por los genes, y no de otra cosa. La suerte de los genes y del mendelismo corren parejas. Forman una teoría que se apoya en una hipótesis y una hipótesis que se apoya en una teoría, es decir, un castillo de naipes.
A la cuestión se le podría, pues, dar una vuelta de tuerca empezando a plantearla desde el punto de vista de las "leyes" de Mendel, respecto de las cuales el propio Mayr acabó reconociendo lo siguiente: "Las 'leyes' de Mendel tuvieron una utilidad didáctica en el primer periodo del mendelismo, que ya no tienen en la actualidad: han sido reemplazadas por otras" (615).
Procediendo de un portavoz cualificado como Mayr, es un reconocimiento muy importante que sería bueno desarrollar con algo más de detenimiento para averiguar qué otras "leyes" han sustituido a aquellas viejas de Mendel que sólo tuvieron una "utilidad didáctica". Dado que los conceptos tienen un carácter práctico y contextual, es decir, que se forman y evolucionan con su uso dentro de un conjunto teórico de inferencias y argumentaciones, hubiera sido imprescindible que Mayr explicara cuáles son las nuevas "leyes" para saber cómo se insertan los genes en ellas, es decir, si el concepto de gen sigue siendo necesario y si se mantiene inalterado dentro del nuevo contexto teórico de la biología molecular. No hay ninguna respuesta a esas dudas. Sin embargo, cualquiera que fuera la respuesta, lo cierto es que el estatuto epistemológico del gen no se puede deducir sólo de la elección de definiciones retóricas o verbales que la teoría sintética ha propuesto sucesivamente sino de la propia práctica científica que ha desplegado, esto es, del uso del concepto gen en su contexto de inferencias, su funcionalidad dentro de la teoría sintética, es decir, la manera en que un concepto falso se articula dentro de una teoría también falsa, definida por varios rasgos característicos:
– el genoma se compone de genes
– su origen: los genes proceden verticalmente de los ancestros
– la estabilidad: el gen no cambia ni cualitativa ni cuantitativamente (el valor C), salvo mutaciones excepcionales
– el culto a la pureza, a lo incestuoso y endogámico, lo único que tiene un carácter definitorio de lo propio frente a lo ajeno o ambiental, que es infeccioso, parasitario o pernicioso
– la autosuficiencia: los genes son unidades determinantes pero no determinadas por nada ajeno a ellos mismos
– la funcionalidad: la tarea de los genes es la de fabricar proteínas; a cada gen le corresponde una proteína y a la inversa
El concepto de gen, como otros en biología, es panglósico, lo mismo que el de "selección natural".
Lo explica todo, o lo que es lo mismo: no explica nada. En una entrevista concedida a la revista "El Basilisco" Ayala decía que había 27 definiciones diferentes de lo que es un gen (616). Si la lingüística dijera que hay 27 definiciones distintas de lo que es una metonimia o la física que hay 27 definiciones de lo que es la energía cinética, dudaríamos seriamente de su carácter científico. Lo significativo no es que una ciencia pueda proporcionar un número tan abundante de definiciones para un mismo concepto. Incluso en el habla coloquial es difícil que el diccionario disponga de 27 acepciones distintas para una misma voz, siendo preocupante e insólito que en un lenguaje más preciso, como el científico, ello sea siquiera imaginable, teniendo en cuenta, además, no sólo que el concepto de gen desempeña un papel capital dentro de la disciplina, sino que esas definiciones son diferentes entre sí, e incluso contradictorias.
En lo que sigue me limitaré a exponer cuatro de esos conceptos distintos de lo que es un gen que tienen relación con la manera en que se introdujo la hipótesis dentro de la biología y su crisis posterior: el gen como una unidad estructural o partícula, el gen como unidad funcional, el gen como unidad de mutación y el gen como unidad de recombinación. Estas definiciones tienen en común que el gen es una "unidad", es decir, una entidad biológica en sí misma capaz de reconducir una multiplicidad de fenómenos y explicarlos coherentemente. Una ciencia no tiene por qué centrar su investigación en torno a una única unidad nuclear de la realidad sino que, en función de sus necesidades epistemológicas, puede desarrollar varias unidades. No obstante, la teoría sintética pretendió imponer el gen como única unidad de la genética, excluyendo de la misma al genoma, es decir, que consideró que el genoma carecía de entidad propia, reduciéndolo a una mera colección o suma de genes.
Inicialmente, hacia 1900, De Vries utilizó la voz "pangen" en el mismo contexto en el que Darwin desarrolló su teoría de la pangénesis, hoy descartada. Si se examina su teoría de las mutaciones se observa que nada tenía que ver con genes sino con los cambios en el número de cromosomas, lo que los botánicos llaman poliploidía. Después apareció la definición que dio Johannsen, el inventor de la palabra, que nada tenía que ver con la anterior: "El gen se debe utilizar como una especie de unidad de cálculo. De ninguna manera tenemos derecho a definir el gen como una unidad morfológica en el sentido de las gémulas de Darwin o de las bioforas, de los determinantes u otras concepciones morfológicas especulativas de esa especie" (617). Ahora ya nadie sostiene que los genes son conceptos estadísticos. También se descartó este concepto, por lo que del contexto teórico en el que se gestó la palabra "gen" sólo quedó eso, la palabra, para la cual hubo que seguir buscando definiciones, imponiéndose precisamente lo que Johannsen pretendía evitar: una
definición morfológica. El gen se definió como una partícula determinante de la herencia, o peor, de un solo rasgo hereditario. Era una hipótesis construida sobre el modelo atómico de la física y al mismo tiempo que ese modelo se desarrollaba, dando lugar al nacimiento de la mecánica cuántica.
El gen era una especie de átomo y su mutación consistía en la sustitución de un átomo por otro distinto. Las tentaciones en esa línea abundaban. En la primera mitad del siglo XX era muy común relacionar -e incluso confundir- a los genes con virus que se acababan de descubrir por aquella misma época. Lo mismo que los átomos o los virus, los mendelistas imaginaron que los genes eran unidades indivisibles, una especie de seres con entidad por sí mismos, una molécula (618). El tamaño de los virus oscila entre los 0,03 mieras del virus de la fiebre añosa a los poxvirus, que miden diez veces más: 0,3 mieras. Como los virus, los genes también eran partículas físicas de las que se podrían calcular sus dimensiones, peso y volumen. Ahora la moda ha pasado pero en la primera mitad del siglo anterior era frecuente que los mendelistas hicieran cálculos sobre el tamaño de los genes que hoy nadie se atrevería. Así Morgan aseguraba que existían "cientos" de genes en cada cromosoma, cada uno de los cuales estaba fuera del alcance del microscopio, porque no eran más pequeños que algunas de las moléculas orgánicas más grandes (619). Según Muller un cromosoma era un cilindro que encerraba el material genético con un volumen de 2 mieras y 0,25 mieras de diámetro, mientras que el gen era una esfera con un diámetro inferior a 0,25 mieras. Por su parte, Watson calculó que un gen debía tener un peso molecular del orden del millón, es decir, que estaría formado por 1.500 nucleótidos, lo que correspondería a un polipéptido de 500 aminoácidos (620). En los años setenta Luria decía que "cabía esperar" que los genes tuvieran una estructura unidimensional (lineal) o quizá bidimensional porque sólo de esa manera podían servir como patrones para obtener nuevas copias (621). Schródinger sostenía que la "fibra cromosómica", a la que calificaba como "portador universal de la vida", era un cristal aperiódico. Enumeraba varios métodos de estimación del tamaño de los genes. Uno de ellos consistía en dividir la longitud media del cromosoma por el número de características que determina y multiplicarla por la sección transversal. Refería investigaciones que calculaban el volumen de un gen como un cubo de 0,03 mieras (300 angstrom) de arista. Luego afirmaba "con toda seguridad" que un gen no contiene más que un millón o unos pocos millones de átomos, aunque posteriormente reducía el tamaño: sólo cabrían unos 1 .000 átomos y posiblemente menos (623). Este tipo de fantasías ya no son tan frecuentes.
Con las mutaciones los interrogantes no sólo no acababan sino que se multiplicaban exponencialmente: no sabemos lo que es un gen, pero ¿qué es una mutación? Y sobre todo ¿cómo saber lo que es una mutación si no sabemos qué es lo que muta? ¿Es posible llegar a saber siquiera lo que es la mutación de un gen sin saber lo que es un gen? El concepto de gen como unidad de mutación (mutón) significa exactamente eso: que lo que muta es un gen, que aparece un gen nuevo o que se modifica la composición bioquímica de otro ya existente, permaneciendo idénticos los genes vecinos. Se trata, pues, de un concepto derivado de su noción corpuscular. Con las mutaciones sucede lo mismo que con los genes: cuando De Vries introduce el concepto de mutación no se refiere a los genes sino a los cromosomas. Se trata de un fenómeno corriente en botánica: la poliploidía o aparición de nuevos cromosomas en cantidades múltiples de los anteriores. Sin embargo, no es ese el significado con el que ha perdurado. Del concepto original no ha vuelto a quedar más que el vocablo. Al ignorarlo todo respecto a los genes hubo que añadir otro componente enigmático suplementario, el de "mutación aleatoria", que no es más que un reconocimiento casi explícito de ese desconocimiento. Los experimentos con radiaciones ionizantes de Timofeiev- Ressovski y Delbrück en Berlín trataban de demostrar que se podía alterar un gen aplicando radiaciones, para lo cual desarrollaron la "teoría de la diana", es decir, la probabilidad de acertar lanzando una radiación contra una determinada partícula. Era una especie de acupuntura radiactiva.
La teoría deriva de la magischen Kuger (bala mágica), elaborada por Paul Ehrlich en 1909 para denominar al fármaco capaz de eliminar selectivamente a los microbios sin efectos secundarios para el organismo anfitrión (463b). Es una expresión que aún se utiliza muy frecuentemente en farmacia y medicina para buscar el remedio que ataque la enfermedad sin dañar al enfermo. Timofeiev- Ressovski y Delbrück creían que se podría alcanzar a un gen, dejando intactos a los demás, demostrando así experimentalmente, según expresión de Timofeiev-Ressovski, la composición "monomolecular" del gen.
Las balas mágicas nunca aparecieron pero, curiosamente, por aquellas mismas fechas, se descubría que el ADN citoplasmático sí se componía de partículas que se habían podido observar al microscopio. Por ejemplo, Sonneborn había calculado que las partículas kappa medían 0,4 mieras de diámetro aproximadamente y estaban envueltas en una membrana. Nada de esto podían decir los mendelistas de sus genes. Es otra de esas absurdas paradojas de la historia de la genética: en la herencia citoplasmática sí se podía hablar de genes como de unidades constitutivas de la misma, físicamente observables; el problema estaba en que a la genética mendelista no le interesaba ese tipo de herencia, entre otros motivos porque no respondía a las "leyes" de Mendel.
Hasta 1944 se pensaba que los genes estaban en los cromosomas pero no en qué parte de ellos o, mejor dicho, si su función transportadora la cumplían los ácidos nucleicos o las proteínas. Incluso casi todos optaban por relacionarlos con las proteínas. No se sabía, por tanto, algo tan trascendente como su constitución bioquímica, de qué material estaban formados. El descubrimiento de la vinculación de los genes al ADN en lugar de a las proteínas fue un choque tan grande que no resultó fácilmente aceptado, hasta que volvió a comprobarse en 1952. No obstante, nadie fue capaz de replantear el concepto de gen; se saltó al otro extremo, se impuso el dogma central y las proteínas vieron rebajada su importancia epistemológica: las proteínas no eran genes sino producto de los genes.
Como los genes, las leyes de Mendel también se desmoronaron una tras otra, pero eso no condujo a un replanteamiento de los fundamentos de la teoría sino al remiendo de la misma: no se trataba exactamente de la falta de validez empírica de tales leyes sino de excepciones a las mismas. No obstante, llegó un momento en el que las excepciones se acumularon y fueron más numerosas que las reglas. A medida que se observaban excepciones los mendelistas tuvieron que inventar sobre la marcha nuevas variantes de genes y de funcionamiento de los genes, lo cual no era difícil porque se iban elaborando hipótesis sobre hipótesis. El artificio era más que evidente y aparece con meridiana claridad en el manual de Sinnott, Dunn y Dobzhansky, verdadera obra de referencia en su momento (incluso en la URSS, donde era el libro de texto utilizado en la enseñanza) cuando alude a aquellos casos en que no aparecían las leyes previstas. En tales casos una argumentación característica presentaba este curioso aspecto:
Aunque las leyes de Mendel de la segregación y la transmisión independiente se confirmaron inmediatamente después de su redescubrimiento en 1900, no estaba probado que estas leyes tuvieran que aplicarse universalmente a la herencia en todos los organismos. En efecto, parecía como si la herencia mendeliana constituyera más bien una excepción y que, en general, la herencia fuese del tipo mezclado, en que las herencias de ambos padres se mezclasen en los descendientes […]
No obstante pronto se vio que la mayor parte de las excepciones aparentes podían explicarse admitiendo que muchos caracteres estaban influidos por dos o más parejas de genes cuyas expresiones interactúan. Según las formas de la interacción, las proporciones fenotípicas se modifican de distintas maneras, pero las leyes fundamentales de la transmisión hereditaria siguen siendo las mismas (624).
Esto significa el siguiente modo de proceder "científico": ante el fallo de una hipótesis acerca de algo que se ignora, no había que cambiar de hipótesis sino aparentar que sabemos algo acerca de eso de lo que no sabemos nada. Así, los mendelistas no se conformaron con asegurar que había genes sino que inventaron también los poligenes para aquellos casos en que fallasen los anteriores.
Ahora bien, los poligenes son lo mismo que los genes… sólo cambian un poco… Entonces los genes se servían a la carta: el menú dependía de las necesidades que hubiera que cubrir. Más en concreto, los poligenes se inventaron para tapar los agujeros de los genes. La herencia poligénica se llama ahora "multifactorial" a causa de la "intervención casi constante de factores ambientales" (625).
Mayr comparó la concepción corpuscular del gen con una bolsa llena de bolas de colores, relatando así su fracaso:
El procedimiento de la genética mendeliana clásica de estudiar cada locus de gene por separado y con independencia fue una simplificación necesaria para determinar las leyes de la herencia y conseguir una información básica sobre la fisiología del gene […] El mendelismo permitía comparar los contenidos genéticos de una población con una bolsa llena de bolas de colores. La mutación era el cambio de un tipo de bola por otra. Esta conceptualización se ha designado como 'genética de la bolsa de bolas'. Estamos familiarizados con los conceptos atomistas de tal periodo […]
La genética poblacional y la genética del desarrollo han mostrado que pensar en términos de la genética de la bolsa de bolas conduce muchas veces a graves errores.
Considerar los genes como unidades independientes carece de sentido, tanto desde el punto de vista fisiológico como evolutivo. Los genes no sólo actúan (con respecto a ciertos aspectos del fenotipo) sino que interactúan […] Esta interacción se ha descrito de una forma obviamente exagerada, por la aseveración: cada uno de los caracteres de un organismo está afectado por todos los genes y cada gene afecta a todos los caracteres. El resultado es una integración funcional íntimamente entretejida de todo el genotipo (626).
El descubrimiento de la doble hélice en 1953 demostró que en cada cromosoma el ADN es una molécula única y aunque se componía de unidades más pequeñas, éstas no eran precisamente genes.
Se trataba de la más contundente demostración de la falsedad de la naturaleza corpuscular del gen, pero se reinterpretó de la manera más conveniente para la teoría sintética, produciéndose esa asociación característica entre los genes y el ADN que llega hasta la actualidad. Incluso pareció que la doble hélice confirmaba la hipótesis del gen. Una teoría no podía subsistir con dudas indefinidamente, de modo que en lugar de acabar con la teoría había que acabar con las dudas. Los mendelistas ya podían hablar de la tesis del gen. Una teoría tuerta se transformó en una teoría ciega.
En el siglo XIX la tendencia dominante en biología suponía que la materia viva, a diferencia de la inerte, era un coloide de partículas bastante grandes dispersas en agua. Cuando en 1893 Albrecht Kossel inició sus investigaciones acerca de los ácidos nucleicos introdujo la noción de Baustein o ladrillos, según la cual los gigantescos compuestos orgánicos, como los ácidos nucleicos, se componían de unidades más pequeñas que se repetían enlazadas entre sí por medio de enlaces químicos, entonces no bien conocidos aún. En el ADN Kossel no encontró genes sino un polímero, es decir, una larga cadena molecular cuyos eslabones elementales son los monómeros o nucleótidos que, a su vez, están formados por tres partes integrantes unidas entre sí:
a) un tipo de azúcar que Levene identificó (en 1909 la ribosa del ARN y en 1929 la desoxirribosa del ADN), también llamado pentosa porque adopta la forma de un pentágono en cuyos vértices hay cinco átomos de carbono; ocupa el centro de la molécula, sirviendo de bisagra con los otros dos componentes
b) un compuesto del fósforo, el ácido fosfórico, también denominado ortofosfórico, cuya fórmula
química es H 3 P0 4 que marca la condición acida del ADN
c) una base nitrogenada cíclica, es decir, cuyos componentes (adenina, guanina, citosina y timina) se repiten siguiendo determinadas secuencias a lo largo de la molécula de ADN constituyendo el elemento diferencial: mientras la dexorribosa y el ácido fosfórico son siempre iguales, las bases nitrogenadas cambian de un nucleótido a otro.
Hasta mediados del siglo pasado la historia del ADN es ajena por completo a la hipótesi del gen, con la diferencia de que el ADN tenía el respaldo de una práctica científica y el gen sólo era una especulación teórica. Uno de los mayores químicos del siglo pasado, Proebus Aaron Levene (1869- 1940), un ruso que trabajó en Estados Unidos, propuso la "hipótesis del tetranucleótido" según la cual las cuatro bases se repartían uniformemente en los ácidos nucleicos. En 1950 Chargaff demostró que esa hipótesis era errónea porque las proporciones de bases púricas (adenina y guanina) y pirimidínicas (citosina y timina) eran iguales, por lo que se cumplía la ecuación:
A+G/C+T=l.
Esto significaba que las bases se emparejaban, que la adenina se unía a la timina y la guanina a la citosina, es decir, las bases púricas (largas) con las pirimidínicas (cortas) en la forma A- T y G-C. Ahora bien, la ecuación A+T / G+C que define el coeficiente de Chargaff es poco homogéneo en el genoma de una misma especie, de tal modo que esa distribución desigual forma segmentos dentro del ADN denominados isocoras, en las que predominan o bien el par AT o bien el GC. Tampoco es homogéneo entre diferentes especies, lo cual se utiliza, especialmente entre bacterias, como factor de clasificación.
Ninguno de los integrantes del ADN es un gen por sí mismo, por su composición química, ni agrupados entre ellos. La división molecular del ADN, por consiguiente, no permite hablar de genes sino de átomos y de compuestos atómicos específicos, el más pequeño de los cuales es un nucleótido y que se diferencian entre sí según la base. El esclarecimiento de la estructura del ADN dio otro de esos giros vergonzantes a la genética. A partir de entonces se dejó de sostener que mutaban los genes para decir que mutaban las bases, sustituyéndose unas a otras. Por su forma, la molécula de ADN es una doble cadena cuyos ramales paralelos están unidos por las bases, a la manera de los peldaños de una escalera. Por consiguiente, las bases están unidas, por un lado, a las pentosas en uno de los ramales y, además, están unidas entre sí en los peldaños. De ahí que se hable de pares de bases, que se utiliza como unidad de medida de la longitud de la molécula de ADN y, a partir de ahí, como supuesta unidad de medida de la cantidad de información que puede albergar.
Si la teoría sintética pretendía equiparar la genética a la mecánica cuántica podía haber llevado sus pretensiones hasta el final. Hubiera podido asociar el gen a la "función de onda", es decir, no sólo a nociones discontinuas sino también a las continuas. Del mismo modo que el átomo es una partícula y una onda a la vez, el gen podría haberse desarrollado en torno a nociones como las de "campo" (electromagnético, gravitatorio), lo cual nos hubiera transmitido una batería de inferencias mucho más ricas que el esquema simplón de la teoría sintética. Por ejemplo, no se ofrecen explicaciones acerca de los motivos por los cuales un gen necesita miles de bases para su expresión, mientras que otro sólo necesita cientos, es decir, las razones por las cuales un determinado gen ocupa mucho más "espacio" que otro dentro de la misma molécula de ADN.
El ocaso del dictador benévolo
El concepto de "información génica" también ha servido para acercar la genética a la física, proporcionando así una fachada de consistencia teórica. La noción de código genético fue impulsada por George Gamow inmediatamente después de proponer la estructura de doble hélice del ADN, con el añadido de que Gamow consideraba que el código genético es "secreto" (627). La guerra fría brotaba por los poros de la teoría sintética, equiparando a los genetistas con los espías: la apasionante tarea de ambos consiste en descifrar códigos secretos. Los genes "codifican" proteínas, dicen aún los manuales, es decir, que el "secreto" de las proteínas está en los genes. La genética no ha podido desligarse de ese lenguaje criptográfico heredado de la guerra fría que desvela las raíces (y subvenciones) militares que han sostenido a la teoría sintética.
El fundamento del código génico está en la concepción atómica de los genes, en los mapas génicos de los tiempos de Morgan y Sturvevant, en los genes como partículas alineadas en los cromosomas, uno de tras otro. Pronto nadie se acordó de que la hipótesis secuencial de Crick no era más que eso, otra hipótesis donde predominaba la linealidad, tanto del ADN como de las proteínas. Todo era lineal en la teoría sintética. Un gen era una secuencia lineal de bases de ADN. La especificidad del ADN radica en ese alineamiento secuencial de sus bases; esa secuencia de bases del ADN determina la secuencia de aminoácidos en las proteínas y, a su vez, esta última determina las estructuras subsiguientes de plegamiento tridimensional de la proteína. La arquitectura tridimensional de las proteínas está en función de la linealidad de la secuencia de aminoácidos. Por consiguiente cada gen codificaba linealmente una proteína. Por eso aún se utiliza el término "secuenciar" cuando se intenta averiguar la composición de nucleóticos de un genoma humano, quedando fuera del foco de interés cualquier componente del genoma que no sea la pura linealidad, su secuencia de bases. Sin embargo, aunque habitualmente no se tiene en cuenta, el ADN no siempre se presenta con la misma forma tridimensional: sus moléculas pueden formar cadenas dobles o sencillas, lineales o circulares. La configuración que en 1953 describieron Watson y Crick es sólo una de ellas, la que se denomina como ADN-B.
Lo mismo que los genes, la "información génica" (y expresiones parecidas que se utilizan habitualmente de manera alternativa o simultánea, tales como "programa" o "código") es una burda metáfora de una sociedad jerarquizada y dividida en clases. La teoría sintética lo ha explicado de maneras muy gráficas y muy variadas, pero coincidentes: el ADN manda y las proteínas obedecen.
El ADN es, en expresión de Orgel, un "dictador benévolo": ordena lo que hay que hacer, imparte las instrucciones; las proteínas con componentes pasivos y sumisos. En las células ocurre como en la sociedad unos mandan y otros se resignan a la obediencia. Según un manual los genes son "semejantes al programa de una computadora: dicen qué cosas hay que hacer y el orden en que deben hacerse" (628). Son distintas variantes del viejo preformismo, según el cual todo está ya predeterminado y escrito en alguna parte. Si hay evolución no hay "código" y si hay "código" no puede haber evolución. Los "códigos" no evolucionan, constituyen otra referencia más a algo que no cambia, un guión establecido de una vez para siempre. Luria consigna así este carácter antievolucionista del "código":
El hecho sorprendente es que el código, expuesto en el diagrama, es el mismo en todos los organismos, desde los virus a las bacterias y al hombre. Sería razonable esperar que en miles de millones de años los caracteres del código hubieran cambiado muchas veces, que algunos de los términos del diccionario que traduce el lenguaje del gen al lenguaje de las proteínas se hubiesen desarrollado en el sentido de una mayor perfección, pero no es el caso (629).
En otra obra Luria empeora su argumentación al reconocer que el código no es exactamente universal sino "casi" (629b), ya que debe ser idéntico para cualquier especie en cualquier etapa de la evolución. Sin embargo, el "código" falla muchas veces en el ADN extracromosómico y en muchos microbios, en cuyo ADN aparecen bases calificadas a veces como "raras", como la hipoxantina, dihidrouridina, pseudouridina o ribotimidina. Por consiguiente, hay más de cuatro bases en el ADN. Hay moléculas de ADN, por ejemplo la del fago PBS1, que se componen de uracilo, los fagos T2, T4 y T6 tienen hidroximetil citosina, etc. Incluso en un mismo organismo el "código" es ambiguo, es decir, que en unas ocasiones elabora determinados aminoácidos y en otras ocasiones otros. Por ejemplo, casi todos los organismos las bases UGA elaboran el aminoácido cisteína, excepto en el protozoo Euplotes crassus, en el que, además, fabrica también selenocisteína.
En Escherichia coli las bases UGA elaboran selenocisteína en unas ocasiones y en otras es una señal de parada. En otros casos el "código" es redundante, es decir, el ADN tiene múltiples posibilidades de elaborar un mismo aminoácido mediantes distintas combinaciones de bases.
No hay un único código genético sino 17 códigos genéticos distintos. Por consiguiente, no hay nada más ajeno a un código que el denominado código genético. El intento de descifrar "el" código genético de los seres humanos destapó las consecuencias de esa concepción errónea, con los sucesivos anuncios de que, por fin se había completado, seguidos por otros tantos desmentidos. El genoma sobre el que trabajaron los secuenciadores procedía de varias personas distintas, hombres y mujeres de los cinco continentes. Aquella universalidad de los genomas fue lo que quebró el proyecto, al comprobar que los genomas de dos individuos eran mucho más diferentes de lo que se suponía al principio, lo que ha dado lugar a un nuevo concepto: el de "variaciones estructurales" del genoma, que afectan a más de 1.000 secuencias, concentradas en tres cromosomas. A su vez esto ha repercutido en el propio concepto de mutación. Hasta ahora la genética se atenía a la noción de mutación como cambio de un solo nucleótido del genoma, cuando las observaciones indican, por un lado, cambios en tramos enteros del mismo y, por el otro, cambios en la manera en la que se ensamblan los nucleótidos. Habían buscado un patrón, una universalidad que no existe; no hay un único genoma de referencia para el conjunto de la humanidad. El genoma no necesita mutar para ser diferente.
Las extrapolaciones mecánicas de las que procede la terminología genómica siempre juegan malas pasadas. La noción de los genes como "programa" se acercaba peligrosamente al denostado finalismo, aunque algunos como Monod se apresuraron a declarar que en el "programa" no hay finalidad alguna; para huir del mecanicismo otros autores, como Atlan, prefieren hablar de "memoria" en lugar de "programa" (629c). Pero la memoria es una facultad de los organismos vivos de muy difícil concreción en biología y, desde luego, no se ciñe al hombre ni a las facultades intelectuales sino a otros mecanismos, como el sistema inmunitario. De cualquier manera, parece que por esta vía la teoría sintética retorna a la definición original de Johannsen, a los genes como "unidad de cálculo", un recuerdo indirecto de su pretendida naturaleza inmaterial. Como el alma, la información es algo deletéreo que trasciende a una molécula material como el ADN.
Alternativa o simultáneamente otras veces lo que dicen los manuales es que el ADN no es exactamente información sino el almacén donde se recopila esa información, un especie de libro, una biblioteca, un manual de instrucciones u otra imagen gráfica equivalente que, en defintiva, transmiten una noción pasiva y mecánica. La molécula de ADN no es un disco duro, ni un CD, ni un pen drive. Si eso fuera así, habría que preguntar quién -o qué- ha depositado allá esa información, quién ha escrito ese libro o formado esa biblioteca. La teoría de la información de
Shannon de donde procede este paralelismo plantea a la genética tres problemas distintos:
a) analiza la información desde el punto de vista del signo, no del significado
b) no es una teoría de la información sino de la medida de la información, de la "cantidad de información"
c) tampoco estudia la creación de la información sino su transmisión
En cuanto al primer punto, que es el fundamental, hay que tener en cuenta que el concepto de "información" que emplea Shannon no tiene nada que ver con la "información" génica (630). La cibernética es una teoría matemática formal; desde su punto de vista es indiferente que la secuencia de bases sea GTT o TGT porque no tiene nada que ver con la semántica (631), algo que en genética es decisivo. No obstante, también es preciso apuntar que el término "señal" se utiliza cada vez más en genética, en citología, en inmunología y en otras disciplinas próximas, lo que atestigua que se va introduciendo el carácter reactivo del genoma con un claro componente semiológico: no sería el lugar donde se lee sino el lector.
Con la información génica ha sucedido lo mismo que con la encefalización en la evolución del hombre. Una proyección puramente ideológica radica en el intelecto -y por tanto en el cerebro– la especificidad humana; a partir de ahí creyó que el aumento de la capacidad intelectual -y por tanto del tamaño físico del cerebro- era lo que singularizaba la evolución del hombre. Pero esa cadena de argumentos es errónea: el hombre no es intelecto y un intelecto más desarrollado no significa una mayor masa cerebral. Del mismo modo, más cromosomas, cromosomas más largos o moléculas más largas de ADN no significan más información génica o mayor capacidad de almacenamiento.
Es absolutamente infundado sostener, como hace Maynard Smith, que los genes transportan la información precisamente "en forma digital" y que el genoma tiene 10 bits de información (632).
Las imágenes físicas e informáticas son engañosas porque conducen a concebir la información y los programas informáticos como información o programas digitales o digitalizados, en ningún caso analógicos; ya no asociamos la información al disco de vinilo o a la tarjeta perforada. En relación a la ecología Deléage ha remarcado los riesgos de esta equiparación:
Cuando los ingenieros de los Laboratorios Bell pusieron en marcha la teoría de la información, buscaban analizar el funcionamiento de las redes complejas a través de las cuales se desliza la información. Cuando los ecologistas retoman por su parte la medida de la información de Shannon, no se ciñen a adoptar una descripción de la diversidad de especies de la biocenosis, cómoda porque permite incluir en la misma fórmula el número y la abundancia o escasez de estas últimas. Al mismo tiempo plantean una analogía seductora pero arriesgada. En efecto, la teoría de la transmisión de la información da una medida de la diversidad de canales de transmisión y de la estabilidad que pueden garantizar a la transmisión de las señales. Transpasar esta relación al mundo vivo significa asociar la estabilidad de los ecosistemas a su diversidad a menudo confundida con su complejidad, imaginando intuitivamente que si una especie desaparece de un ecosistema complejo, inmediatamente otro puede tomar su lugar, ocupar su nicho. Según Paul Colinvaux, este razonamiento presenta una falla mayor. Por un lado, la teoría de la información afirma que las redes son tanto más estables en cuanto que sus nudos son capaces de abrir canales de sustitución abundantes.
Por otro lado, las cosas suceden de otra manera en las redes tróficas. Los animales y las plantas que constituyen los nudos de esas redes no se comportan como los canales de una red telefónica, más bien al contrario. Se utilizan para bloquear la circulación del nutriente, haciendo lo que pueden por guardarla e impedir a sus concurrentes apoderarse de ella. 'Los verdaderos individuos, escribe Colinvaux, son de hecho barreras en las rutas que frenan la circulación de los nutrientes. Y éste es el punto que hace el modelo no solamente irreal sino absurdo' (633).
Cualquiera que sea el vínculo del ADN con la información, el código o el programa, no es algo que pueda definir con propiedad a los genes porque, según comienzan a defender ahora determinados investigadores, las moléculas se pueden clasificar entre las que que portan "información" (proteínas, aminoácidos, ácidos nucleicos) y las que no lo hacen (lípidos, polisacáridos) (634), mientras que otros sostienen que los azúcares también son capaces de "transmitir información" (635). Hay proteínas, como los priones, que pueden desempeñar esa misma función. Parece ser que los priones "transmiten información" heredable que ha tenido un papel esencial en la formación de la memoria a largo plazo, la memoria de la transcripción y de los patrones de expresión del genoma. La capacidad de almacenamiento de memoria así como su fiabilidad se basa en que los priones tienen una resistencia notable a las proteasas, las enzimas encargadas de destruir las proteínas. Además, el prión también es resistente a las radiaciones ionizantes, al calor, siendo capaz de mantenerse estable en una amplia variedad de medios hostiles. Por ello, mientras la forma normal de la proteína entra dentro del ciclo metabólico normal, el prión no se destruye. A partir de este descubrimiento, varios autores sostienen que los priones crean una memoria molecular citoplasmática capaz de "transmitir información" con independencia del ADN, puesto que se auto-replican. Incluso el finlandés C.P.J.Maury ha lanzado una nueva hipótesis, que denomina como "herencia de la información adquirida" que se basa no sólo en los priones sino en las proteínas amiloides funcionales, es decir, en todas aquellas configuradas con pliegues de tipo [3 (636).
El concepto de información hizo entrar a la teoría sintética en contradicción consigo misma, lo que se puso de manifiesto con la denominada "paradoja del valor C", en donde C es la cantidad de ADN por gameto o célula haploide. En 1948 Roger y Colette Vendrely advirtieron que para cada especie la cantidad de ADN es constante o característica. Dos años después Hewson Swift denominó como valor C a esa constante. Lo que cabía esperar es que dado el ingente número de proteínas que deben elaborar los organismos más complejos en comparación con los que no lo son tanto, tuvieran un número mayor de genes y, por consiguiente, que su genoma fuera mayor, que tuviera mayor capacidad de almacenamiento de información o un valor C más elevado que los más simples. Si la información génica tuviera un significado exclusivamente físico, representado por la sucesión ordenada de las bases, una mayor cantidad de información necesitaría más bases y, por consiguiente, más genes, moléculas de ADN más largas o más moléculas de ADN, es decir, más cromosomas. ¿Cuántos genes tienen los seres vivos? Por ejemplo: ¿cuántos genes tiene un ser humano?
Estas preguntas pudieron tener respuesta a finales del siglo pasado… pero se quedaron sin responder, a pesar de que las expectativas creadas en torno a la secuenciación del genoma fueron exageradas hasta el paroxismo. La secuenciación del genoma era el punto final del análisis que lo iba a permitir explicar todo, especialmente las enfermedades. Según Schródinger "podemos estar acercándonos al fin de una callejón sin salida, quizá hayamos llegado ya" (637). Por su parte, Walter Gilbert afirmó con entusiasmo que "la secuencia completa del genoma humano constituye el Santo Grial de la Genética Humana". Cuando se le concedió el premio Nobel repitió que "las secuencias del DNA son las estructuras definitivas de la Biología Molecular. No hay nada más primitivo. Las preguntas se formulan allí en último término" (638). Fue un espejismo de los mendelistas, que corrían detrás de una ilusión sobre la que habían proyectado sus fantasías ideológicas. De ahí sólo podían surgir frustraciones.
En diciembre de 1998 se secuenció el genoma de Escherichia coli, una minúscula lombriz intestinal o bacilo del colon: tenía 19.098 genes. La lombriz intestinal está formada por 959 células, de las cuales 302 son neuronas cerebrales. Los humanos tienen 100 billones de células en su cuerpo, incluidas 100.000 millones de células cerebrales. Por lo tanto, un organismo más grande y complejo, como el ser humano, debía tener muchos más genes. Algunos calcularon que 750.000 era un número razonable, pero pronto empezaron a bajar la cifra. Randy Scott pronosticó en septiembre de 1999 que el hombre tendría exactamente 142.634 genes. Para descifrar el genoma humano se formaron dos equipos. Uno de ellos, dirigido por Craig Venter, encontró 26.383 genes codificadores de proteínas y otros 12.731 genes "hipotéticos" (sic). El otro equipo dijo que existen aproximadamente 35.000 genes, aunque posiblemente la cifra podía acercarse a 40.000. Por tanto, aunque se había secuenciado el genoma los datos no cuadraban; en realidad, no había tales datos. A pesar de la secuenciación del genoma humano, el mapa del tesoro, no sabemos ni siquiera cuántos genes tenemos. El baile de cifras acerca del número de genes humanos no ha cesado. Lo peor de toda esta patraña es que sólo tenemos el doble de genes que una lombriz intestinal. Por consiguiente, parece de sentido común concluir que lo que diferencia a un hombre de un gusano no son los genes precisamente.
Volvió a suceder todo lo contrario de lo que los mendelistas tenían previsto. En 1971 CA.Thomas calificó como "paradoja" la falta de correlación entre la cantidad de ADN y la complejidad del organismo que lo contiene. La teoría sintética no podía explicar los motivos por los cuales la cantidad de ADN no aumenta con la complejidad del organismo, ni tampoco los motivos por los cuales organismos cercanos con el mismo nivel de complejidad poseen genomas cuyo contenido de ADN difiere en muchos órdenes de magnitud. La paradoja del valor C no se circunscribe al aspecto de la complejidad del organismo sino al propio genoma, al aspecto cuantitativo. Los genomas de los organismos eucariotas, los más evolucionados, contienen más ADN del necesario para un número determinado de genes, es decir, de la "información génica" que necesitan. Además, sólo una parte del genoma está activo en cada fase de desarrollo. Por consiguiente, la mayor parte del genoma (en proporciones superiores al 99 por ciento del ADN) no son genes, no se materializan en la elaboración de proteínas. A fecha de hoy la función precisa de este ADN excedentario resulta desconocido, pero no por ignorancia sino por una quiebra de los postulados sobre los que se ha edificado la genética mendelista. Lo que sabemos es que en el ADN existen secuencias repetidas, que conservamos duplicados de "la misma" información que derrochan gran parte del "espacio" que podríamos utilizar para aumentar nuestra capacidad de almacenamiento.
Un número tan insignificante de genes no puede rendir cuenta ni siquiera del número de anticuerpos que necesita fabricar un organismo a lo largo de su vida para defenderse de las agresiones exógenas.
Un anticuerpo sólo es necesario producirlo cuando se produce el ataque, por lo que si hubiera secuencias de ADN que sólo sirven para ese tipo de tareas, las moléculas deberían prolongarse hasta longitudes casi infinitas. La explicación es -una vez más- que el funcionamiento de las secuencias de ADN es dinámico, tanto discreto como continuo, digital como analógico, es decir, que no existe esa supuesta "unidad de la herencia" de que ha venido hablando la teoría sintética desde 1900. Pero eso es insuficiente si, al mismo tiempo, no se retorna al estado de la genética previo a 1944, cuando se asoció la herencia al ADN exclusivamente. Tenían razón quienes pensaban que el ADN era una molécula demasiado simple y que la herencia necesitaba también, entre otras cosas, de el ARN y de las proteínas, es decir, del resto del cuerpo.
Los genes no son autosuficientes. Sin embargo, el paralelismo del gen con el átomo (con una concepción reducccionista del átomo) fue tan estrecho que los mendelistas creyeron que el gen nunca perdía su identidad. Un átomo de sodio siempre es igual a sí mismo, no cambia nunca por más que unido a otro de cloro forme una molécula distinta, la sal común (cloruro de sodio). Una vez censurada la teoría de los fluidos era fácil concluir que el gen, como cualquier otro sólido, no se diluye, no se mezcla y, además, tiene capacidad de replicación y expresión autónomas. La unidad supone autosuficiencia, es decir, contar con todos aquellos componentes que son imprescindibles para reproducirse por sí mismos y cumplir su función, a saber, determinar la elaboración de proteínas de manera también autónoma. Lo que hay que demostrar, por consiguiente, es si tanto la reproducción como la expresión son autónomas.
Así lo creían Watson y Crick en el artículo publicado el 25 de abril de 1953 en el que proponían la estrutura de doble hélice del ADN: "No se nos ha escapado que el apareamiento específico que hemos postulado sugiere de inmediato la existencia de un posible mecanismo de copiado del material genético". El ADN se autorreplicaba a sí mismo abriéndose la doble hélice como una especie de cremallera, según confirmaron ambos con más claridad el 30 de mayo en otro artículo en el mismo medio: "La operación exacta de un material genético como ese es realizar una copia exacta". La alegría sólo duró tres años. En 1956 Arthur Kornberg descubrió una enzima, la polimerasa, que es imprescindible para la duplicación del ADN: la polimerasa es, pues, una proteína que fabrica ADN. El ADN no puede cumplir su función por sí mismo de manera autosuficiente, necesita de las proteínas a las que está asociado en los cromosomas. Ambos componentes, el ADN y las proteínas interaccionan continuamente, lo mismo que con el ARN. Las proteínas cromosómicas cumplen dos funciones priomordiales: mantienen la estructura molecular del ADN y activan y desactivan el funcionamiento de sus secuencias (639). La polimerasa también se encarga de la reparación del ADN asociada a la replicación. El ADN no puede desempeñar su función ni reproducirse sin una enzima como la polimerasa. Sin ella es una molécula muerta. Es la que preserva su estructura, la repara y corrige sus defectos de funcionamiento. El ADN también requiere el concurso de los tres tipos de ARN. Pero no se trata sólo de que el ADN necesite el auxilio de otros componentes bioquímicos para su funcionamiento, sino de que la expresión de la información genómica está siempre sujeta a influencias externas al propio ADN, de que el genoma es un regulador regulado, causa y efecto a la vez.
Los genes indivisibles se dividen. La fragilidad del ADN es tan grande que lo más frecuente es que la molécula se rompa para volver a juntarse posteriormente. Como observó Janssens, en el proceso de división celular los cromosomas homólogos se unen entre sí en unos puntos llamados "quiasmas", a causa de la apariencia de aspa que adoptan, similar a la letra griega % (khi), en donde se aprecia uno (o varios) puntos de unión por los que se rompen para reunificarse de forma tal que saltan de un cromosoma a su par homólogo. Luego la reproducción genética supone su división, que se produce tanto a lo largo como a lo ancho de la molécula de ADN. Pero las recomposiciones de la molécula de ADN no se limitan sólo al momento de la división celular. Como ya he expuesto, Barbara McClintock demostró que las secuencias de ADN, llamadas hoy transposones, son móviles (640), que se desplazan de un lugar a otro del genoma. Esa movilidad es una reacción del genoma ante determinados factores ambientales. En su nueva ubicación el transposón modifica el ADN de sus inmediaciones, rompiendo la secuencia molecular o haciendo que desaparezca del todo. En ocasiones, el desplazamiento provoca una nueva soldadura en la secuencia originaria de la que procede el fragmento, lo que ocasiona disfunciones por partida doble. El denominado splicing o empalme alternativo es otro ejemplo de ruptura y recomposición de las moléculas de ácido nucleico que demuestra la equivocación de la hipótesis secuencial de Crick. En las especies superiores las secuencias de ADN que elaboran proteínas (exones) no se encuentran una detrás de la otra sino separadas por regiones que no desempeñan esa función (intrones). Al transcribir la información génica, el ARN elimina los intrones y tiene que volver a empalmar de nuevo los exones. No siempre ese empalme coincide exactamente y, por lo tanto, la producción resultante diferirá en cada caso (641). En fin, actualmente la ruptura y posterior unión de las moléculas de ADN se ha convertido en una práctica rutinaria de laboratorio.
Los genes tampoco están alineados a lo largo de la molécula de ADN, en fila unos detrás de otros.
No acaba un gen en un determinado punto (un nucléotido) y empieza otro en el siguiente sino que las diferentes secuencias se superponen unas con otras, por lo que en ocasiones se habla del solapamiento de los genes y de la existencia de "un gen dentro de otro gen" (642). Sanger confirmó el solapamiento de los genes en 1977 cuando observó que el virus 174 posee una misma secuencia de ADN que elabora dos proteínas distintas. El virus SV40 también fabrica cinco proteínas diferentes con sólo dos secuencias de su ADN. Este fenómeno explica el pequeño tamaño de los genomas en comparación con las funciones que son capaces de desempeñar. Todo esto contradice las leyes de Mendel, significa que la herencia sí se mezcla y que el gen no es ninguna partícula y, por consiguiente, que la herencia no es un fenómeno discreto sino continuo y discreto a la vez.
La cartografía génica, los mapas que los mendelistas creyeron observar en los cromosomas, fueron una influencia tardía de la frenología del siglo XIX y debe correr la misma suerte que ella. El gigantesco tamaño de una sola molécula de ADN hubiera debido resultar suficiente para llegar a una concepción más ajustada de su funcionamiento, de no ser por la interposición distorsionadora de un erróneo punto de partida. Incluso aunque podamos desembarazarnos de "todo lo demás", del ARN, de las proteínas, de la distribución del ADN en diferentes cromosomas, etc., tres mil millones de bases hubieran debido mover a la reflexión: ¿cómo se organizan esas bases? ¿Cómo se distribuyen a lo largo de la molécula? Pero la propia formulación de la pregunta ya echaba por tierra la concepción aleatoria de la teoría sintética. Del mismo modo que el cerebro no sólo ha aumentado de tamaño sino que se ha reorganizado, también cada molécula de ADN está ordenada de una determinada forma, de la cual la localización espacial es sólo una de ellas. La frenología no era un seudociencia sino que tenía un cierto fundamento porque el cerebro presenta áreas específicas en las que, como sostenía Pavlov (643), se localizan determinadas funciones. Lo mismo cabe decir de cada molécula de ADN, de manera que tan erróneo es subestimar la autonomía de sus diferentes secuencias, como incurrir en la teoría de la diana de Timofeiev-Ressovski o el bricolage transgénico.
El fracaso de la concepción del gen como unidad hereditaria condujo a otro giro, pasando a redefinirlo de una manera funcional (644). Aunque cada molécula de ADN se puede fragmentar en secuencias que preservan cierta autonomía funcional cada una de ellas, se trata de comprobar, como decía Guyénot, si esos fragmentos diferenciables pueden calificarse de genes, es decir, de alguna forma de unidad indivisible. La respuesta es negativa. En 1925 Alfred Sturtevant, un discípulo de Morgan, comprobó el efecto de posición que tenían los genes dentro de los cromosomas, aunque se consideró excepcional hasta que los soviéticos Dubinin y Sidorov lo generalizaron en 1934, calificándolo de "vecindad genética". El genoma es sinérgico, las secuencias de ADN no funcionan independientemente unas de otras y, por consiguiente, el efecto que producen no sólo depende de su composición bioquímica sino de su posición dentro de la molécula, de las demás secuencias que la rodean, entre otros múltiples factores. Cada secuencia de ADN es contextual, tiene expresiones diferentes según el lugar que ocupe dentro del genoma y, por consiguiente, no pueden ser consideradas como una unidad, no determinan por sí mismas su función sino que es necesario conocer su inserción dentro de la totalidad de la que forma parte. Las distintas secuencias de ADN operan como herramientas multiusos: por sí mismas no permiten deducir cuál es su función. Aun secuenciando un genoma completo no disponemos de información suficiente para saber cuáles son las proteínas que fabrican cada uno de sus fragmentos. Ni siquiera es posible concebir al cromosoma como esa unidad ya que muy probablemente los cromosomas también influyen unos sobre otros y probablemente también influye el número de cromosomas, la forma de cada uno de ellos, así como sus movimientos. Habrá que tener en cuenta el genoma completo para dotar de sentido a la dotación hereditaria, incluyendo en él al ARN, cuyas funciones -según se está demostrando- son cada vez más importantes. También habrá que incluir las mitocondrias y cloroplastos y plásmidos del citoplasma porque su replicación es autónoma, cuentan con su propio ADN, que codifica una serie de proteínas. Finalmente, aunque se alude al genoma en singular, cada genoma es tan diferente en cada especie y en cada individuo que el estudio de sus variaciones acabará convirtiéndose en una rama de la genética con sustantividad propia.
Las definiciones funcionales son erróneas en cualquiera de sus versiones sucesivas. Inicialmente los mendelistas afirmaron que la tarea de los genes consistía determinar la expresión de los rasgos característicos. En 1943 los experimentos de G.W.Beadle y E.L.Tatum remendaron esa tesis, sustituyéndola por otra que se expresó en el axioma "un gen, una proteína" que pretendía indicar que la función de cada gen consiste en controlar una reacción metabólica concreta. Cada gen dirige la elaboración de una proteína (o una enzima). La teoría sintética encajaba otro golpe sin inmutarse: bastaba poner proteína en lugar de carácter para que todo siguiera en su sitio y nadie hiciera preguntas. Pero no era así. Entre una proteína y un rasgo característico, como dice Mae Wan Ho, hay "un gran salto conceptual" que los mendelistas tampoco han explicado (645).
Los genes no elaboran proteínas. La gran cantidad de proteínas que se conocen están formadas por 20 aminoácidos diferentes y cada aminoácido lo elaboran una determinada secuencia de ADN compuesta por tres bases, denominados tripletes o codones. Como hay cuatro tipos distintos de ellas (A,G,U,C), hay 4 3 , es decir, 64 combinaciones posibles de bases para elaborar sólo 20 aminoácidos.
De ahí que el código se llame redundante o degenerado, porque hay varias combinaciones diferentes para elaborar un mismo aminoácido. No hay, pues, una relación biunívoca entre triples de bases y aminoácidos, como se observa gráficamente en el siguiente cuadro, según el cual hay más combinaciones de las necesarias para conservar la información genética:
aminoácido
triplete
aminoácido
triplete
alanina
GCU, GCC, GCA, GCG
leucina
UUA, UUG, CUU, CUC,
arginina
CGU, CGC, CGA, CGG,
Usina
CUA, CUG
asparagina
AGA, AGG
metionina
AAA,AAG
aspártico
AAILAAC
fenilalanina
AUG
cisteína
glicina
glutamina
glicina
histidina
isoleucina
GAU, GAC
UGU, UGC
CAÁ, CAG
GAA, GAG
GGU, GGC, GGA, GGG
CAU, CAC
AUU, AUC, AUA
UUU, UUC
prolina CCU, CCC, CCA, CCG
serina UCU, UCC, UCA, UCG,
treonina AGU, AGC
triptófano ACU, ACC, ACÁ, ACG
tirosina UGG
valina UAU, UAC
GUU, GUC, GUA, GUG
inicio
AUG
parada
UAG, UGA, UAA
El axioma "un gen, una pro teína" tampoco duró mucho. Hay proteínas a cuya elaboración concurren varias secuencias de ADN simultáneamente, los poligenes a los que ya me he referido; y a la inversa, hay secuencias que pueden codificar proteínas distintas, fenómeno conocido como pleiotropía (646). Finalmente, hay genes cuya función no consiste en codificar proteínas sino en regular a otros genes (operones); los hay que anulan la expresión de otros, fenómeno conocido como epístasis, etc. Incluso una misma secuencia de ADN puede desempeñar funciones contradictorias. Para cumplir estas funciones el genoma debe debe ser capaz de interpretar y responder a múltiples señales externas. Por lo tanto, hoy está asentado el criterio de que la fisiología genómica no depende sólo de las secuencias de ADN y, en consecuencia, que los genes no son una unidad funcional ni son capaces de explicar por sí mismos, de manera autónoma, la producción de proteínas.
La mayor parte del ADN no cumple la función prevista de elaboración de proteínas, de manera que desde 1977 sus fragmentos se dividen en funcionales (exones) y no funcionales (intrones), por lo que en ocasiones se entiende por gen sólo a los fragmentos funcionales. Al no romper con los fundamentos que la sostienen, la terminología genética vuelve a sumirse en la confusión, porque los fragmentos de ADN considerados como "no funcionales" no es que no cumplan ninguna función, sino que no cumplen las funciones previstas por la teoría, es decir, no contribuyen a la elaboración de proteínas. Es una manera de encubrir el fiasco de la teoría. Crick calificó el descubrimiento de los intrones como una "minirevolución" en la genética y otros autores lo han expresado aún más gráficamente diciendo que se trataba de una patada al dogma que Crick había formulado (647). La conclusión de este recurrido es que en el genoma no hay genes, una afirmación que es tanto más cierta en los organismos superiores. A medida que la evolución ha ido trepando por la escala de la clasificación de las especies, el genoma ha cambiado su fisiología cualitativamente de modo que lo que diferencia a los organismos superiores son los intrones.
Un siglo después la ciencia no puede ofrecer no ya un concepto unívoco de gen sino ni siquiera uno aproximado. En 1957 a las nociones corpusculares y funcionales del gen Benzer añadió otras. Junto al gen, rebautizado como cistrón, apareció el mutón, la unidad de mutación, y el recón, la unidad de recombinación. El gen no era una entidad única, sino tres diferentes; tampoco había una unidad de herencia, pero la teoría sintética no era capaz de salir ni del atomismo, ni de los corpúsculos… La confusión aumentó de grado porque las cuatro definiciones (genes, cistrones, mutones, recones) no coinciden entre sí. Desde que en 1947 Joshua Lederberg y Edward L. Tatum descubrieron la transferencia horizontal de ADN entre bacterias, sabemos que la herencia no está necesariamente ligada a la recombinación génica. El descubrimiento acabó con mito de la identidad genómica; no sólo los organismos no se pueden identificar por sus genomas sino que eran intercambiables, al menos en parte.
Mayr constata esta paradoja permanente entre genes, cistrones, mutones y recones y, aunque no es capaz de ofrecer ninguna solución posible, opta por mantener la terminología, es decir, por seguir naufragando en la confusión:
Definir el gene como unidad de herencia, ya no es suficiente. Se han hecho tentativas para reemplazar esta definición por una más precisa o por una definición operativa que no despierte oposición ni incite controversia. Hasta recientemente, el modo de abordar el gene era muy indirecto, por lo que tendía a ser muy especulativo. La mayoría de los autores antiguos consideraban el gene como un corpúsculo en un cromosoma, con tres características: una función definida, capacidad de mutarse y ser la unidad más pequeña de recombinación. Durante los últimos decenios se han acumulado cada vez más datos que indican que estas tres características definidoras del gene no coinciden necesariamente […]
A pesar de estas duras dificultades, es posible esbozar lo esencial de nuestro conocimiento actual. Afortunadamente, la mayoría de las cuestiones en debate tienen tal naturaleza que, desde el punto de vista de la biología evolucionista, carece de alcance cuál de las alternativas propuestas resulte correcta. La selección natural, después de todo, se ocupa de los fenotipos, en tanto que la mutación y la recombinación meramente colman la reserva de variación genética.
Resulta ahora evidente por qué ha sido tan difícil, si no imposible, definir el gene […]
En resumen, es ahora evidente que el concepto clásico del gene, considerado como entidad que sirve simultáneamente como unidad de mutación, como unidad de recombinación, y como unidad de función, no es correcto […]
Es curioso que la mejor comprensión de la naturaleza del gene y de la mutación no haya contribuido a la comprensión de los fenómenos evolutivos. En la mayoría de los problemas de biología evolucionista, particularmente en los organismos superiores, es correcto seguir usando la terminología clásica de genes (loci) y aleles" (648).
En las demás obras de Mayr las paradojas se manifiestan en plenitud, sin ninguna voluntad de aclarar la confusión:
El entrecruzamiento desigual muestra que el gen unidad de función no era forzosamente la unidad de recombinación. El análisis de las mutaciones (particularmente en los microorganisnos) mostraron que podía haber varios sitios mutacionales en el seno de un mismo gen unidad de función. Los efectos de posición (diferencias cis-tra) mostraron que el gen no era necesariamente una unidad de función. Había que abandonar la idea original, muy simple, de que el gen era a la vez una unidad de recombinación, de mutación y de función (648b).
La teoría sintética acabó metiéndose de lleno en un callejón sin salida. Después de preguntarse lo que es un gen y de enredarse entre cistrones, mutones y recones, Buettner-Janusch concluye: "Lo que no se sabe es si todavía mañana se puedan sustentar estas mismas opiniones" (649). Es preferible no hacer preguntas; si no hay preguntas es porque tampoco hay dudas.
No obstante, las expresadas incongruencias y otras muchas que podrían exponerse, tampoco ayudan a comprender lo que, sin duda, es el núcleo central de la genética, el que verdaderamente pone manifiesto la ausencia de fundamento del mendelismo, a saber, que el genoma, como cualquier otra parte de un organismo vivo, sólo tiene sentido evolutivo si se lo comprende una manera dinámica y cambiante (649b), algo que cabe extender no sólo a las especies sino al desarrollo concreto de cada organismo vivo a lo largo de su corta existencia. Como cualquier otra parte del cuerpo, el genoma también cambia con el tiempo y eso es precisamente lo que le confiere plasticidad y capacidad para desempeñar sus funciones, que también cambian con el tiempo.
El gen es otro de esos dogmas de la biología que, de una manera solapada, hace tiempo que empezó a perder terreno y, junto a las viejas, como codones, cistrones, recones, mutones, etc., se comienzan a utilizar expresiones nuevas como hox, supergenes, seudogenes y otros, aunque el panorama está muy lejos de aclararse. Como afirmaba recientemente Wayt Gibbs, se observa una tendencia, disimulada pero cada vez más insistente, a evitar el empleo del vocablo gen (649c). Todo apunta a que no pasará mucho tiempo antes de que sea definitivamente desechado de la ciencia. La genética está reclamando a gritos un nuevo fundamento que llegará con la consideración del genoma como parte integrante de un organismo vivo y, por lo tanto, como algo igualmente vivo, dinámico y cambiante, no una foto fija.
Timofeiev-Ressovski, un genetista en el gulag
En toda referencia a la URSS hay que reservar un capítulo (al menos uno) para hablar a las persecuciones, purgas y fusilamientos; de lo contrario no podríamos decir que estamos aludiendo a la URSS. Aunque hablemos de ciencia, también hay que realizar este tipo de inserciones porque la represión tiene que aparecer como el aspecto más sobresaliente (y a veces único) de la historia soviética. La receta ideológica debe quedar de esta manera: como la genética estuvo totalmente prohibida, los genetistas fueron perseguidos, encarcelados y fusilados. Cualquier otra conclusión resultaría sorprendente. Una vez que Lysenko impuso el canon científico, los que no lo aceptaron pagaron su atrevimiento con la vida. En una cuestión científica como ésta, la rentabilidad ideológica de tales afirmaciones es mucho mayor porque comienza con la imposición de una mentira (Lysenko) frente a la verdad castigada (todos los demás). Así la estatura científica de éstos se agiganta mientras que la de Lysenko cae por los suelos. El crimen es mucho mayor cuando no se encarcela a un científico "cualquiera" sino a un gran científico.
Cae por su propio peso que los genetistas fueron fusilados por sus concepciones científicas. Por consiguiente, aunque la condena del tribunal afirme que se trataba de un saboteador, un espía o cualquier otro delito, son subterfugios que encubren los verdaderos motivos, que son exclusivamente científicos. Nadie en su sano juicio concede la más mínima credibilidad al policía soviético que detiene, al fiscal que acusa, al testigo que declara o al tribunal que sentencia. En otros países los trabajos de investigación histórica sobre este tipo de procesos político-judiciales, como los casos de Joe Hill, Sacco y Vanzetti o el matrimonio Rosenberg en Estados Unidos, al menos suelen acabar en dudas sobre el fundamento de las condenas. A ningún historiador se la ha ocurrido tampoco revisar la ejecución de Lavoisier durante la etapa de terror de la revolución francesa; nadie ha sostenido que la acusación fuera un montaje y que posiblemente Lavoisier fuese condenado por su crítica de la teoría del flogisto. El fundador de la química moderna, además, de científico era miembro de Xaferme genérale, una corporación privada que recaudaba los impuestos, con delitos que hoy podrían equipararse a la usura o la malversación (650). Sin embargo, sobre la historia de la URSS se ha impuesto una negación absoluta: no es posible que de ella derivara nada transparente, ni nada positivo. Ningún juicio político de los habidos en la URSS merece credibilidad; es un asunto incuestionable: fueron una patraña organizada para encubrir la represión política, lo cual significa exactamente eso: represión por la defensa de unas determinadas convicciones.
En el caso de los científicos ese tipo de argumentaciones tiene una enorme dificultad que superar, por el siguiente motivo: antes, durante y después de la URSS, el sistema punitivo era concentracionario. Así, el tendido de los más de 9.000 kilómetros de la red ferroviaria del transiberiano, una obra que se prolongó desde 1891 a 1905, lo llevaron a cabo miles de convictos.
En Rusia no existían cárceles cerradas, cuyo surgimiento es muy reciente. En la historia penitenciaria, mientras la cárcel cerrada está ligada a la ociosidad del recluso, en el sistema abierto o campo de concentración, está ligada al trabajo forzoso que, lejos de ser una sanción en retroceso, se va generalizando a todos los sistemas penitenciarios modernos. En el caso de los científicos condenados durante el periodo soviético, el trabajo forzoso comportaba el ejercicio de su disciplina científica en el sharashka, que es el apelativo que daban los propios reclusos a los centros específicos creados para reunir en ellos a los investigadores, ingenieros y científicos. Por tanto, si el penado era profesor universitario debía impartir lecciones en el campo y si era investigador se le integraba en un laboratorio dentro del propio recinto. La conclusión paradógica que se obtiene de esto es la siguiente: que el condenado por expresar determinadas convicciones científicas debía seguir difundiendo esas mismas convicciones científicas.
El absurdo relato canónico de los hechos es tan uniforme y monótono como carente de datos precisos. ¿Por qué no hay un listado de genetistas perseguidos y encarcelados por su oposición a Lysenko? Los actuales libros de genética deberían insertar en su primera página unas líneas de agradecimiento a aquellos colegas que sacrificaron su vida en defensa de esta ciencia, avasallada por el malvado Lysenko. Sería una obligación moral hacia ellos. Quizá pretendan aseverar que todos fueron a la cárcel excepto el propio Lysenko. Quizá no dispongamos de datos precisos por lo siguiente: porque fueron tan numerosos que no se puede detallar cada uno de ellos; entonces el plumífero recurre al expediente de aludir a cientos, miles o millones, según su desparpajo.
Página anterior | Volver al principio del trabajo | Página siguiente |