Descargar

En celebración de la Publicación de El Origen de Las Especies (página 6)

Enviado por Felix Larocca


Partes: 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14

La nueva política de subvenciones favorable a la genética fue impulsada por el matemático Warren Weaver, que en 1932 fue nombrado director de la División de Ciencias Naturales del Instituto Rockefeller, cargo que ejerció hasta 1959 y que era simultáneo a la dirección de un equipo de investigación militar. Una de las primeras ocurrencias de Weaver nada más tomar posesión de su puesto fue inventar el nombre de "biología molecular", lo cual ya era una declaración de intenciones de su concepción micromerista. En la posguerra Weaver fue quien extrapoló la teoría de la información más allá del área en la que Claude Shannon la había concebido. Junto con la cibernética, la teoría de la información de Weaver, verdadero furor ideológico de la posguerra, asimilaba los seres vivos a las máquinas, los ordenadores a los "cerebros electrónicos", el huevo (cigoto) a las antiguas cintas magnéticas de ordenador que archivaban la memoria, al tiempo que divagaba sobre "inteligencia" artificial y demás parafernalia adyacente. Si el hombre era una máquina, las máquinas también podían convertirse en seres humanos: "No hay una prueba concluyente de una diferencia esencial entre el hombre y una máquina. Para cada actividad humana podemos concebir una contrapartida mecánica" (232).

Rockefeller y Weaver no financiaron cualquier área de investigación en genética sino únicamente aquellas que aplicaban técnicas matemáticas y físicas a la biología. Otorgaron fondos a laboratorios y científicos que utilizaban métodos reduccionistas, cerrando las vías a cualquier otra línea de investigación diferente (233). A partir de entonces muchos matemáticos y físicos se pasaron a la genética, entre ellos Erwin Schrödinger que escribió al respecto un libro que en algunas ediciones tradujo bien su título: "¿Qué es la vida? El aspecto físico de la célula viva". La mayor parte eran físicos que habían trabajado en la mecánica cuántica y, por tanto, en la fabricación de la bomba atómica. Junto con la cibernética y la teoría de la información, la física de partículas fue el tercer eje sobre el que desarrolló la genética en la posguerra. La teoría sintética es, pues, el reverso de la bomba atómica de modo que los propios físicos que habían contribuido a fabricarla pasaron luego a analizar sus efectos en el hombre.

El destino favorito de las subvenciones de Rockefeller fue el laboratorio de Thomas H. Morgan en Pasadena (California), que se hizo famoso por sus moscas. El centro de gravedad de la nueva ciencia se trasladó hasta la orilla del Pacífico y la biología dejó de ser aquella vieja ciencia descriptiva, adquiriendo ya un tono claramente experimental. Generosamente becados por Rockefeller y Weaver, numerosos genetistas de todo el mundo pasaron por los laboratorios de Morgan en Pasadena para aprender las maravillas de la teoría mendelista. Entre los visitantes estaba uno de los introductores del mendelismo en España, Antonio de Zulueta, que tradujo al castellano algunas de las obras de Morgan. Los tentáculos de Rockefeller y Morgan alcanzaron a China: Tan Jiazhen, calificado como el "padre" de la genética de aquel país, también inició sus experimentos con moscas embotelladas en California.

Morgan respaldó la llamada teoría cromosómica que había sido propuesta en 1903 por Sutton y Boveri en Estados Unidos y Alemania respectivamente. Tuvo un éxito fulminante porque suponía un apoyo a la ley de la segregación de Mendel, una de sus primeras confirmaciones empíricas. Los cromosomas aparecen normalmente por parejas homólogas, unos procedentes del padre y otros de la madre. Se estableció un paralelismo entre cromosomas y factores génicos: el factor dominante se alojaba en uno de los cromosomas y el recesivo en el homólogo suyo. Como los cromosomas, los genes también aparecían por pares. Fue como una repentina visualización de lo que hasta entonces no había sido más que una hipótesis nebulosa.

Como suele ocurrir con algunos descubrimientos, la teoría cromosómica fue víctima de sí misma y condujo a sostener que los determinantes hereditarios se alojaban exclusivamente en aquellos filamentos del núcleo. Los cromosomas, sostiene Morgan, "son las últimas unidades alrededor de las cuales se concentra todo el proceso de la transmisión de los caracteres hereditarios" (234). En ellos se conserva el monopolio de la herencia; el citoplasma celular (el cuerpo) no desempeña ninguna función reproductiva. A partir de entonces los mendelistas dieron un sentido físico y espacial a los genes, presentados como los eslabones de las cadenas de cromosomas. Un gen es un "lugar" o una posición dentro de un cromosoma, empleando en ocasiones la expresión latina loci como sinónimo y llegando a elaborar "mapas" con su distribución. De esta manera concretaban en los cromosomas el plasma germinal de Weismann así como los enigmáticos factores de Mendel. Vistos al microscopio los cromosomas aparecían, además, segmentados en diferentes tonalidades de color, cada una de las cuales bien podía ser un gen; parecía como una especie de collar en el que las perlas (genes) se anudaban una detrás de la otra.

La teoría cromosómica de Sutton, Boveri y Morgan era errónea en su misma génesis porque ya se conocía con anterioridad la herencia citoplasmática, descubierta en la variegación vegetal por Correns en 1908. Es una teoría errónea en cuanto que, como la mayor parte de los postulados de la teoría sintética, es unilateral y otorga un valor absoluto a fenómenos biológicos que sólo son parciales y limitados. A diferencia de la teoría cromosómica de Sutton, Boveri y Morgan, que concede la exclusiva de la dotación hereditaria al núcleo de la célula, la herencia citoplasmática no habló nunca de exclusividad, es decir, de que la herencia sólo se encuentre en el citoplasma, sino que ambos, núcleo y citoplasma, participan en la transmisión hereditaria. La herencia citoplasmática demuestra la falsedad de los siguientes postulados fundamentales de la teoría sintética:

a) el citoplasma forma parte del "cuerpo" de la célula, por lo que no existe esa separación estricta entre plasma y cuerpo de la que hablaba Weismann b) no se rige por el código genético de los cromosomas nucleares c) contradice las leyes de Mendel (235) d) su origen no está en los progenitores sino en virus, es decir, en factores ambientales exógenos

La herencia citoplasmática presenta un carácter muy diferente del modo en que habitualmente argumenta la genética mendeliana. Demuestra que estamos conectados a ambos progenitores exclusivamente mediante los cromosomas, mientras que a nuestras madres a través de los cromosomas y el citoplasma. El ADN cromosómico es diferente entre padres e hijos, mientras que el citoplasmático es idéntico entre la madre y todos los hijos. Este último se agota en los hijos, que no lo transfieren a su descendencia, mientras que continúa en las hijas.

Como consecuencia de ello, la herencia citoplasmática fue marginada en los medios académicos oficiales. Al principio ocupaba muy poco espacio en los libros de genética, unas pocas páginas en el último capítulo; se hablaba de ella casi de forma vergonzante, como si se tratara de un fenómeno residual. Aún en la actualidad la clonación se presenta como una duplicación exacta de un organismo, cuando se trata sólo del trasplante del núcleo, es decir, que no se realiza sobre todo el genoma y, por lo tanto, nunca puede ser idéntica.

El error de la teoría cromosómica conduce a descubrir el error de los "mapas" génicos. El primer golpe a la cartografía génica llegó también pronto, en 1944, cuando el canadiense Oswald T. Avery (1877-1955) descubrió que el "lugar" de los genes no estaba exactamente en los cromosomas sino sólo en el ADN. Un descubrimiento tan importante nunca mereció la recompensa del Premio Nobel. El segundo llegó casi al mismo tiempo con el descubrimiento de los "genes móviles" o transposones por Barbara McClintock (1902-1992): si se podían dibujar "mapas" de genes, en ellos también se debían modificar las fronteras continuamente. Aunque la transgénesis es hoy conocida por la desconfianza que suscita su manipulación artificial en animales y plantas, los seres vivos modifican su genoma continuamente y se intercambian entre sí secuencias de ADN. La transgénesis no sólo se produce dentro de los cromosomas de una misma célula sino de unos seres vivos a otros. Desde 1948 se sabe que existe ADN extracelular o circulante, segregado por las células y que circula fuera de ellas, por ejemplo en los fluidos corporales, la orina y el suero sanguíneo (236), pudiéndose incorporar horizontalmente a cualquier organismo vivo. Pero los mendelistas prefirieron saltar por encima de McClintock, mantenerla en el ostracismo durante décadas y seguir defendiendo sus posiciones a capa y espada. Para no quedar en evidencia -como expondré luego- tuvieron que darle varios quiebros a la teoría cromosómica con su discreción característica.

No fueron las únicas censuras trabadas por los mendelistas sobre determinados fenómenos genómicos que afean sus dogmas. En 1906 Edmund B. Williamson descubrió los cromosomas B y en 1928 Randolph estableció sus diferencias con los cromosomas A u ordinarios. También denominados supernumerarios, son un supuesto de aneuploidía o cambio en el número de cromosomas, en este caso añadido al número habitual. En los seres humanos el supuesto más conocido es el que da lugar al síndrome de Down, cuya causa es la existencia de un tercer cromosoma (trisomía) en el par 21 de cromosomas ordinarios. Pues bien, los cromosomas B tampoco responden a las leyes de Mendel ya que no se segregan durante la división celular, por lo que tienden a acumularse en la descendencia, especialmente en las plantas. Estos fenómenos dan lugar a otros de tipo también singular que poco tienen que ver con los postulados de la teoría sintética, tales como:

— la formación de mosaicos especialmente en plantas, es decir, de células con distinto número de cromosomas dentro del mismo organismo vivo — la fecundidad de los cruces entre personas con síndrome de Down, pese a disponer de un número diferente de cromosomas

La teoría cromosómica también es errónea porque, como afirmó Lysenko, conduce a excluir la posibilidad de cualquier clase de hibridación que no sea de origen sexual, algo que Darwin y Michurin ya habían demostrado que no era cierto con sus experimentos de hibridación vegetativa. Pero sobre este punto, uno de los más debatidos en 1948, también volveré más adelante.

Uno de los descubrimientos de Morgan fue consecuencia de su consideración del cromosoma como una unidad y con ello demostró uno de los principales errores derivados de las leyes de Mendel: que los genes no son independientes sino que aparecen asociados entre sí (linkage). Los genes interactúan, al menos consigo mismos. Un discípulo de Morgan, Alfred Sturtevant, también empezó a observar muy pronto el "efecto de posición" de las distintas secuencias cromosómicas, lo que refuerza la vinculación interna de todos ellos. Pero Morgan se cuida de no poner de manifiesto la contradicción de su descubrimiento y del efecto de posición con las leyes de Mendel, que "se aplica a todos los seres de los reinos animal y vegetal" (237). Morgan tapaba un error colocándole otro encima. No había otro remedio porque desde un principio las grietas del mendelismo aparecieron al descubierto.

De la teoría cromosómica se han retenido sus aspectos erróneos, descuidando lo que antes he reseñado, algo verdaderamente interesante y que es, además, lo más obvio: la noción de que, en definitiva, lo que se hereda no son los genes sino los cromosomas, y si en ellos -como hoy sabemos- hay tanto ADN como proteínas, esto quiere decir que no existe una separación absoluta entre el plasma germinal y el cuerpo; si las proteínas son el cuerpo hay que concluir que también heredamos el cuerpo. Esto resulta aún más contundente habida cuenta -repito- de que en la fecundación preexiste un óvulo completo, que no es más que una célula con su núcleo y su citoplasma, por lo que se obtiene la misma conclusión: si el citoplasma del óvulo forma parte del cuerpo, volvemos a comprobar por esta vía que también heredamos el cuerpo.

Las conclusiones que se pueden extraer de la teoría cromosómica no se agotan en este punto. Como observó el belga Frans Janssens en 1909 y el propio Morgan más tarde, en la división celular siempre se produce un entrecruzamiento (crossing over) de determinados fragmentos de los cromosomas homólogos. De modo que no solamente no es cierto que recibamos los genes de nuestros ancestros; ni siquiera recibimos sus cromosomas íntegros sino exactamente fragmentos entremezclados de ellos, es decir, que se produce una mezcla de los procedentes del padre con los de la madre. Por consiguiente, la ley de segregación de los factores establecida por Naudin y Mendel no es absoluta sino relativa: la segregación no es incompatible con la mezcla. La segunda de las leyes de Mendel tampoco se mantiene incólume, incluso en el punto fuerte al que el mendelismo se contrae: la reproducción sexual. En la herencia coexisten tanto la continuidad como la discontinuidad, la pureza como la mezcla y, lo que es aún más importante, se crean nuevos cromosomas distintos de los antecedentes y, a la vez, similares a ellos. La herencia es, pues, simultáneamente una transmisión y una creación; los hijos se parecen a los padres, a ambos padres, al tiempo que son diferentes de ellos. Pero esto no es suficiente tenerlo en cuenta sólo desde el punto de vista generacional, es decir, de los descendientes respecto de los ascendientes. En realidad, cada célula hereda una información genética única y distinta de su precedente. Como en cada organismo vivo las células se están dividiendo, también se están renovando constantemente. El genoma de cada organismo cambia continuamente en cada división celular: se desarrolla con el cuerpo y no separado de él. Un niño no tiene el mismo genoma que sus progenitores y un adulto no tiene el mismo genoma que cuando era niño. No existen las copias perfectas.

Para acabar, el entrecruzamiento tampoco se produce al azar sino que obedece a múltiples influencias que tienen su origen en el medio interno y externo (sexo, edad, temperatura, etc.), que son modificables (238). Ese es el significado exacto de la herencia de los caracteres adquiridos: desde la primera división que experimenta el óvulo fecundado, el embrión adquiere nuevos contenidos génicos y, por lo tanto, nuevos caracteres que no estaban presentes en la célula originaria y que aparecen por causas internas y externas.

Pero no fueron esas las conclusiones que obtuvo Morgan de su descubrimiento, sino todo lo contrario: creó la teoría de la copia perfecta, que llega hasta nuestros días constituyendo la noción misma de gen como un componente bioquímico capaz de crear "copias perfectas de sí mismo" (239). Esta concepción está ligada a la teoría de la continuidad celular: las células se reproducen indefinidamente unas a otras y cada una de ellas es idéntica a sus precedentes. La evolución ha desaparecido completamente; el binomio generación y herencia se ha roto en dos pedazos incompatibles. La herencia es un "mecanismo" de transmisión, algo diferente de la generación; eso significa que sólo se transmite lo que ya existe previamente y exactamente en la misma forma en la que preexiste.

Esta concepción es rotundamente falsa. Está desmentida por el propio desarrollo celular a partir de unas células madre indiferenciadas, hasta acabar en la formación de células especializadas. Así, las células de la sangre tienen una vida muy corta. La de los glóbulos rojos es de unos 120 días. En los adultos los glóbulos rojos se forman a partir de células madre residentes en la médula ósea y a lo largo de su proliferación llegan a perder el núcleo, de modo que, al madurar, ni siquiera se puede hablar de ellas como tales células. Pero además de glóbulos rojos, en su proceso de maduración las células madre de la sangre también pueden elaborar otro tipo de células distintas, como los glóbulos blancos. Por tanto, a lo largo de sus divisiones un mismo tipo de células se transforma en células cualitativamente distintas. A su vez, esas células pueden seguir madurando en estirpes aún más diferenciadas. Es el caso de un tipo especial de glóbulos blancos, los linfocitos, que al madurar reestructuran su genoma para ser capaces de fabricar un número gigantesco de anticuerpos. Al mismo tiempo que se diferencian, hay células que persisten indiferenciadas en su condición de células madre para ser capaces de engendrar continuamente nuevas células. Por tanto, nada hay más lejos de la realidad que la teoría de la copia perfecta.

El artificio positivista de Morgan es el que impide plantear siquiera la heredabilidad de los caracteres adquiridos, lo que le condujo a considerar que sus descubrimientos habían acabado con el engorroso asunto del "mecanismo" de la herencia de manera definitiva, a costa de seguir arrojando lastre por la borda: "La explicación no pretende establecer cómo se originan los factores [genes] o cómo influyen en el desarrollo del embrión. Pero éstas no han sido nunca partes integrantes de la doctrina de la herencia" (240). De esta manera absurda es como Morgan encubría las paradojas de la genética: sacándolas de la genética, como cuestiones extrañas a ella. Si antes la sicología había desaparecido escindida de la biología, Morgan estableció otra separación ficticia entre genética (transmisión de los caracteres) y embriología (expresión de los caracteres) (241), en donde esta última no tiene ninguna relevancia para la biología evolutiva. Este tipo de concepciones erróneas tuvieron largo aliento en la biología moderna, de modo que sus estragos aún no han dejado de hacerse sentir. A su vez, son consecuencia de la ideología positivista, que se limita a exponer el fenómeno tal y como se desarrolla delante del observador, que se atiene a los rasgos más superficiales del experimento. No cabe preguntar de dónde surge y cómo evoluciona eso que observamos antes nuestros órganos de los sentidos (242).

La teoría cromosómica es consecuencia del micromerismo, una de sus formas especiales, característica de finales del siglo XIX. En 1900 el micromerismo celular de Virchow pasaba a convertirse en el micromerismo molecular de Sutton, Boveri y Morgan. Este último defiende con claridad:

"El individuo no es en sí mismo la unidad en la herencia sino que en los gametos existen unidades menores encargadas de la transmisión de los caracteres.

La antigua afirmación rodeada de misterio, del individuo como unidad hereditaria ha perdido ya todo su interés" (243).

El micromerismo le sirve para alejar un misterio… a cambio de sustituirlo por otro: esas unidades menores de las que nada aclara, y cuando se dejan las nociones en el limbo es fácil confundir las unidades de la herencia con las unidades de la vida. Naturalmente que aquella "antigua afirmación rodeada de misterio" a la que se refería Morgan era la de Kant; por tanto, el misterio no estaba en Kant sino en Morgan. Con Morgan la genética perdió irremisiblemente la idea del "individuo como unidad" a favor de otras unidades más pequeñas. A este respecto Morgan no tiene reparos en identificarse como mecanicista: "Si los principios mecánicos se aplican también al desarrollo embrionario, el curso del desarrollo puede ser considerado como una serie de reacciones físico químicas, y el individuo es simplemente un término para expresar la suma total de estas reacciones, y no habría de ser interpretado como algo diferente de estas reacciones o como más de ellas" (244).

Morgan no era un naturalista. Su método era experimental; no salía de su laboratorio y sólo miraba a través de su microscopio. Un viaje en el Beagle le hubiera mareado. Ya no tenía sentido aludir al ambiente porque no había otro ambiente que una botella de cristal. Aquel ambiente creaba un mundo artificial. Morgan no cazaba moscas sino que las criaba en cautividad, sometiéndolas a condiciones muy distintas de las que encuentran en su hábitat natural, por ejemplo, en la oscuridad o a bajas temperaturas. De esa manera lograba mutaciones que cambiaban el color de sus ojos. Pero esas mutaciones eran mórbidas, es decir, deformaciones del organismo. Sólo una de cada cinco mil o diez mil moscas mutantes con las que Morgan experimentaba era viable (245). Tenían los ojos rojos y él decía que las cruzaba con moscas de ojos blancos. Ahora bien, no existen moscas de ojos blancos en la naturaleza sino que las obtenía por medios artificiales. Por lo tanto, no se pueden fundamentar las leyes de la herencia sobre el cruce de un ejemplar sano con otro enfermo. Como bien decía Morgan con su teoría de los genes asociados, esas mutaciones no sólo cambian el color de los ojos a las moscas sino que provocan otra serie de patologías en el insecto. Una alteración mórbida es excepcional y no puede convertirse la excepción en norma, es decir, en un rasgo fenotípico de la misma naturaleza que los rasgos morfológicos habituales: color del pelo, estatura, etc.

Morgan era plenamente consciente de que las leyes que regulan la transmisión hereditaria de la salud no son las mismas que las de la enfermedad y la manera en que elude la crítica es destacable por la comparación que establece: también en física y astronomía hay experimentos antinaturales. De nuevo el reduccionismo y el mecanicismo juegan aquí su papel: las moscas son como los planetas y la materia viva es exactamente igual que la inerte. Las moscas obtenidas en el laboratorio (sin ojos, sin patas, sin alas) son de la misma especie que las silvestres y, en consecuencia, comparables (246). Morgan confundía una variedad de una especie con una especie enferma y no tuvo en cuenta aquello que dijo D"Alembert en el "Discurso Preliminar de la Enciclopedia": que los monstruos en biología sirven "sobre todo para corregir la temeridad de las proposiciones generales" (247).

Por aquellas fechas, a comienzos del siglo XX, es cuando se establecen las primeras asociaciones entre algunas enfermedades y la constitución genética de los pacientes. La noción de patología hereditaria comienza a consolidarse. La primera alteración génica conocida capaz de producir una patología, la alcaptonuria, fue descrita por el médico británico Archibald E. Garrod (1857-1936). La alcaptonuria es un oscurecimiento de la orina después de ser excretada, a causa del contacto con el aire. En 1902 Garrod publicó The incidente of alkaptonuria: A study of chemical individuality, donde expone el origen genético de la alcaptonuria. Amigo de Garrod, Bateson se interesó especialmente por esta enfermedad, ya que se detectaba con mayor frecuencia en los hijos de padres emparentados consanguíneamente. Es más, fue Garrod quien relacionó por vez primera a los genes con las enzimas de una manera característica: una mutación génica provocaba que el organismo no fabricara en cantidad suficiente la enzima responsable de la conversión del ácido homogentísico en anhídrido carbónico y agua; aunque una parte de dicho ácido se elimina a través de la orina, el resto se acumula en determinadas partes, provocando una coloración negruzca (ocronosis). Se estableció entonces la primera versión del dogma "un gen, una enzima" que triunfaría medio siglo después. A mayor abundancia, no se puede descuidar la metodología micromerista de Garrod, presente en su noción de "individualidad química", según la cual "hemos concebido la patología en términos de célula, pero ahora empezamos a pensar en términos de molécula". Para acabar, parece preciso aludir al título de otra de las obras de Garrod, escrita en 1931: The inborn factors in disease, es decir, "Los factores innatos de la enfermedad".

El error de cruzar ejemplares enfermos con sanos ya había sido comprobado experimentalmente en varias ocasiones. El biólogo francés Lucien Cuenot fue uno de los primeros que, tras el redescubrimiento, trató de comprobar la aplicación de las leyes de Mendel a los animales. Lo hizo con ratones albinos, pero tuvo el cuidado de advertir que el albinismo no es un carácter sino la ausencia de un carácter. En 1909 Ernest E. Tyzzer, patólogo de la Universidad de Harvard, realizó cruces entre ratones sanos con otros denominados "japoneses valsantes", que deben su nombre al padecimiento de una mutación recesiva. Durante dos generaciones la descendencia fue inoculada con un tumor, observando que la patología se desarrollaba en la primera de ellas en todos los casos y en ninguno de la segunda, por lo que se pensó que el fenómeno no obedecía a las leyes de Mendel. Sin embargo, Little demostró que la no aparición de ningún supuesto tumoral en la segunda generación se debía al empleo de un número escaso de ejemplares, de manera que utilizando un volumen mayor descubrió que aparecía en un uno por ciento aproximadamente, porcentaje que posteriormente se afinó, obteniendo un 1"6 por ciento de tumores en la segunda generación, cifra que variaba en función del tipo de ratones utilizados y del tumor inoculado. El desarrollo posterior de los experimentos comprobó que ese porcentaje también era válido si en lugar de una enfermedad se trasplantaban a los ratones tejidos sanos (248) porque dependía del sistema inmune, que es diferente para cada especie y para cada tipo de enfermedad.

El antiguo método especulativo, decía Morgan, trataba la evolución como un fenómeno histórico; por el contrario, el método actual es experimental, lo cual significa que no se puede hablar científicamente de la evolución que hubo en el pasado. La evolución significa que los seres vivos que hoy existen descienden de los que hubo antes: "La evolución no es tanto un estudio de la historia del pasado como una investigación de lo que tiene lugar actualmente". El reduccionismo positivista tiene ese otro componente: también acaba con el pasado y, por si no fuera suficiente, también con el futuro, es decir, con todas las concepciones finalistas herederas de Kant: la ciencia tiene que abandonar las discusiones teleológicas dejándolas en manos de los metafísicos y filósofos; el finalismo cae fuera de la experimentación porque depende exclusivamente del razonamiento y de la metafísica (249). Como no hay historia, no es necesario indagar por el principio ni tampoco por el final. Paradójicamente la evolución es un presente continuo, el día a día.

Tampoco hay ya lucha por la existencia, dice Morgan: "La evolución toma un aspecto más pacífico. Los caracteres nuevos y ventajosos sobreviven incorporándose a la raza, mejorando ésta y abriendo el camino a nuevas oportunidades". Hay que insistir menos en la competencia, continúa Morgan, "que en la aparición de nuevos caracteres y de modificaciones de caracteres antiguos que se incorporan a la especie, pues de éstas depende la evolución de la descendencia". Pero no sólo habla Morgan de "nuevos caracteres" sino incluso de nuevos factores, es decir, de nuevos genes "que modifican caracteres", añadiendo que "sólo los caracteres que se heredan pueden formar parte del proceso evolutivo" (250).

Sorprendentemente esto es un reconocimiento casi abierto de la tesis de la heredabilidad de los caracteres adquiridos. En realidad, las investigaciones de Morgan confirmaban la tesis lamarckista, es decir, que al cambiar las condiciones ambientales, las moscas mutaban el color de sus ojos y transmitían esos caracteres a su descendencia. No hay acción directa del ambiente sobre el organismo; la influencia es indirecta, es decir, el mismo tabú que antes había frenado a Weismann. No es la única ocasión en la que Morgan se deja caer en el lamarckismo, al que critica implacablemente. También al tratar de explicar la "paradoja del desarrollo" incurre en el mismo desliz. Morgan reconoce la existencia de la paradoja y esboza sucesivamente varias posibles explicaciones, que no son -todas ellas- más que otras tantas versiones de la heredabilidad de los caracteres adquiridos. Según Morgan quizá no todos los genes entren en acción al mismo tiempo; a medida que el embrión pasa por las sucesivas fases de desarrollo diferentes baterías de genes se activan una después de la otra: "En las diferentes regiones del huevo tienen lugar reacciones distintas que comprenden diferentes baterías de genes. A medida que las regiones se diferencian, otros genes entran en actividad y otro cambio tiene lugar en el protoplasma, el cual ahora reacciona nuevamente sobre el complejo de genes. Este punto de vista presenta una posibilidad que debemos tener en consideración".

Luego esboza otra posible explicación de la paradoja: en lugar de suponer que todos los genes actúan siempre de la misma manera y de suponer que los genes entran en acción de manera sucesiva, cabe imaginar también que el funcionamiento de los genes "sufre un cambio como reacción a la naturaleza del protoplasma donde se encuentran" (251). De ahí se desprende que los genes no regulan sino que son regulados, que es el citoplasma, el cuerpo de la célula, el que reacciona sobre los genes y los pone en funcionamiento en función del estadio de desarrollo alcanzado por la célula.

En otro apartado Morgan vuelve a reconocer la herencia de lo adquirido. Hay casos -dice- en los que "queda demostrado que el ambiente actúa directamente sobre las células germinales por intermedio de agentes que, al penetrar en el cuerpo, alcanzan dichas células". Pone el ejemplo de las radiaciones. Las células germinales son especialmente sensibles a ellas; afectan más a los cromosomas que al citoplasma y causan esterilidad en los embriones. La debilidad y los defectos que provocan en los organismos pueden ser transmitidos a generaciones posteriores, aún por una progenie que aparentemente es casi o completamente normal. Pero este hecho evidente no se puede emplear como prueba de la herencia lamarckiana: "No cabe duda que esos efectos nada tienen que ver con el problema de la herencia de los caracteres adquiridos, en el sentido que se le ha atribuido siempre a este término". ¿Por qué? Morgan no lo explica. Quizá la clave esté en ese enigmático "sentido" que "siempre" se le ha atribuido (¿quién?) a dicho término: bastaría, pues, atribuirle otro "sentido" distinto y ya estaría solucionada la cuestión. Pero Morgan ni siquiera se atreve a entrar en ese galimatías lingüístico. No obstante, se despacha a gusto con la herencia de los caracteres adquiridos: se trata de una superstición derivada de pueblos antiguos, teoría frágil y misteriosa, una pesadilla de lógica falsa sustentada en pruebas sin consistencia ninguna.

Resulta desmoralizante -añade Morgan- perder tanto tiempo en refutar esta teoría que "goza del favor popular" y tiene un componente emotivo envuelto en un misterio. Precisamente el papel de la ciencia consiste en destruir las supersticiones perniciosas "sin tener en cuenta la atracción que puedan ejercer sobre los individuos no familiarizados con los métodos rigurosos exigidos por la ciencia" (252). Ningún científico apegado a los "métodos rigurosos de la ciencia" puede incurrir en tamaña superchería; eso sólo es propio de los advenedizos, aficionados y autodidactas, incapaces de comprender las maravillas de un método tan especial que está al alcance de muy pocos iluminados.

Es bien cierto que desde su mismo origen la noción de herencia de los caracteres adquiridos es extraordinariamente confusa y que una de las estrategias implementadas para desacreditarla ha sido crear una mayor confusión, retorcerla periódicamente para que no quepa reconocer nunca las influencias ambientales. Un biólogo marxista español, Faustino Cordón, defendía el neodarwinismo de la forma siguiente: "En el organismo, bien resguardadas de influencias externas, se encuentran las células germinales sobre las cuales no pueden influir "coherentemente" las modificaciones que experimente durante su vida el cuerpo del animal (esto es, los caracteres adquiridos no se heredan). Pero si es inconcebible, como de hecho lo es, que el organismo adulto, al irse modificando por su peripecia, moldee de modo coherente con ésta sus células embrionarias, hay que deducir, como conclusión incontrovertible, que el medio de una especie no ha podido ajustarlas a él moldeando directamente los cuerpos de los individuos adultos" (253). Es lo mismo que defienden los Medawar cuando escriben: "No es pertinente que la mutación pueda inducirse por un agente externo, sobre todo radiaciones ionizantes, como rayos X; esto no es pertinente porque no existe relación funcional o adaptante entre el carácter del mutante y la naturaleza del mutágeno que lo causó: las mutaciones no se originan en respuesta a las necesidades del organismo y tampoco, excepto por accidente, las satisfacen" (254). Por lo tanto, en un caso, se exige a la herencia de los caracteres adquiridos que el medio ejerza una influencia "coherente" y, en el otro, que sea "adaptativa", circunstancias ambas que nunca formaron parte de la teoría. Como proponía Morgan en este mismo asunto, siempre es posible definir los conceptos de manera tal que sea imposible reconocerlos bajo ninguna circunstancia, esto es, un juego con las cartas marcadas de antemano. Lo que la teoría siempre sostuvo es que el medio ejerce una influencia directa e indirecta sobre el cuerpo y, por tanto, sobre el genoma como parte integrante del cuerpo, así como que dicha influencia se transmite hereditariamente.

Este argumento de los mendelistas tiene varios aspectos subyacentes que conviene realzar explícitamente. Así, por ejemplo, no tiene un carácter general en cuanto que, a efectos inmunitarios, las influencias ambientales son adaptativas: cada patógeno induce la formación de un anticuerpo específico. Pero quizá lo más importante es que lo que la crítica pretende es separar artificialmente el lamarckismo del darwinismo de tal manera que al introducir los factores ambientales y la herencia de los caracteres adquiridos queda excluida la selección natural. No hay ningún argumento para pensar que eso pueda suceder de esa manera y, desde luego, Darwin se fundamentó en todo lo contrario al combinar ambos aspectos. Efectivamente es cierto que las influencias ambientales, como cualquier otra clase de mutaciones, no desarrollan adaptaciones perfectas de manera mecánica. Lo único que explican es la variabilidad; la adaptación o inadaptación es obra, según Darwin, del uso y desuso y de la selección natural. Para que haya selección antes tiene que haber una diversidad entre la cual poder elegir. Al negar la influencia de los factores ambientales la teoría sintética negaba la unidad del organismo con el medio y al exigir adaptación niega la contradicción entre ambos. Lo que la biología tiene demostrado es que cada ser vivo forma una unidad con su hábitat, lo cual no excluye, al mismo tiempo, la contradicción entre ambos. Sólo en las teorías creacionistas la adaptación aparece instantáneamente como algo ya dado. En cualquier teoría de la evolución la adaptación es un proceso dilatado en el tiempo.

El francés Maurice Caullery es otro exponente del doble rasero con el que los mendelistas abordan la herencia de los caracteres adquiridos, tanto más significativa en cuanto que Caullery se inició en las filas del lamarckismo. El biólogo francés se enfrenta al problema de explicar las enfermedades hereditarias, un ejemplo de que se hereda tanto el plasma como el cuerpo, en este caso las patologías corporales. Sostiene lo siguiente: "Todo lo que pasa de una generación a la siguiente no dimana de la herencia propiamente dicha. Algunas enfermedades, que son seguramente transmisibles, son a menudo falsamente llamadas hereditarias, como la sífilis hereditaria. Se trata, en realidad, de una contaminación del germen por un agente infeccioso, independiente del organismo mismo. Todos los hechos de ese orden no entran en el cuadro de la herencia, incluso cuando se presentan con una generalidad y una constancia perfectas". El argumento no puede ser más sorprendente: las enfermedades hereditarias no son hereditarias porque no se transmite un plasma auténtico sino un plasma contaminado. Pasemos por alto la validez de este argumento. Caullery lo lleva más allá e incluye dentro de ese plasma contaminado a toda la herencia citoplasmática, de la que llega incluso a poner en duda su existencia. También haremos la vista gorda ante esta segunda afirmación y, por tanto, supondremos que si las patologías no valen como ejemplo de herencia de los caracteres adquiridos tampoco valen como ejemplo de herencia mendeliana. Sería la única tesis coherente que podríamos esperar… Pero no es así porque Caullery acaba de la siguiente manera: "Los hechos que en el hombre revelan más claramente la herencia mendeliana son los de orden patológico, relativos a la transmisión de bastantes enfermedades constitucionales, o de malformaciones" (255). Las enfermedades valen para el mendelismo pero no valen para el lamarckismo. Con tales trucos parece natural que no haya ninguna forma de demostrar la herencia de los caracteres adquiridos.

La genética formalista siguió implacable a la caza de Lamarck y los restos que quedaban de las tesis ambientalistas. El 7 de agosto de 1926 Gladwyn K. Noble publicó en la revista Nature un informe denunciando que los experimentos realizados por el biólogo austriaco Paul Kammerer con sapos parteros criados en el agua para demostrar la influencia sobre ellos del cambio de medio, eran fraudulentos. El suicidio de Kammerer pocos días después ejemplificaba la suerte futura de este tipo de teorías. Kammerer fue arrojado al basurero de la historia. También Mendel había falsificado las suyas pero un fraude no se compensa con otro (al menos en la ciencia). Por lo demás, estaba claro que el mendelismo tenía bula pontificia y el supuesto fraude de Kammerer pareció cometido por el mismísimo Lamarck en persona.

En los libros de texto las menciones a esos fraudes deberían ir acompañadas de unas buenas comillas tipográficas porque en 2009, volviendo a mostrar su más implacable rostro, la historia empezó a sacar a Kammerer del pozo negro en el que le habían introducido.

La revista Journal of Experimental Zoology publicó un artículo del investigador chileno Alexander Vargas en el que afirmaba que los experimentos del austriaco no sólo no eran un fraude sino que tenemos que considerar a Kammerer como el fundador de la epigenética (256). Nada de esto es, en realidad, novedoso porque poco después del suicidio de Kammerer ya se descubrió un espécimen silvestre de sapo partero con almohadillas nupciales, lo que demostraba que los sapos parteros tenían el potencial para desarrollarlas. Kammerer y los lamarckistas tenían razón, pero la razón tuvo que volver a esperar 80 años y nunca podrá recuperar al científico austriaco de su amargo final; deberá conformarse con reivindicar su memoria. Era un anticipo de lo que le esperaba a Lysenko. Al fin y al cabo Kammerer era socialista y se aprestaba a instalarse en la URSS cuando se pegó un tiro en la cabeza.

Kammerer no era el único lamarckista; en aquella época, cuando Estados Unidos no había logrado aún la hegemonía ideológica que obtuvo en 1945, era bastante frecuente encontrar biólogos que realizaron ensayos parecidos. A partir de 1920 el británico MacDougall inició un concienzudo experimento que duró nada menos que 17 años con ratones albinos para demostrar la heredabilidad de una conducta aprendida. MacDougall adiestró 44 generaciones de ratones para que lograran salir de una fuente rectangular llena de agua con dos rampas laterales simétricas, una de las cuales estaba fuertemente iluminada y conectada a un circuito eléctrico que lanzaba una descarga al ratón que pretendiera escapar por ella. Sometía a cada animal a seis inmersiones diarias a partir de su cuarta semana de vida, cesando la operación cuando el ratón demostraba haber averiguado la ruta de salida, diferenciando de entre las dos rampas, aquella que le permitía huir sin recibir una luz cegadora ni una fuerte descarga eléctrica. La prueba terminaba cuando salía 12 veces sin vacilar por la rampa inocua. El número de errores se tomaba como medida del grado de aprendizaje adquirido y a partir del recuento MacDougall obtenía un promedio generacional con las sucesivas estirpes. Para evitar los efectos de la selección natural tomó la precaución de utilizar en cada generación a la mitad que había demostrado mayor torpeza; también eligió otros ratones al azar para el mismo experimento y utilizó a algunos de ellos como "testigos neutrales" y cruzó ratones ya adiestrados con otros "testigos" para evitar cualquier posibilidad de intervención de factores ajenos al aprendizaje. Los resultados fueron bastante claros: el promedio de errores descendía (aunque no de manera uniforme), pasando de 144 en la primera generación a 9 en la última. La conclusión de MacDougall es que el aprendizaje se había convertido en hereditario (257).

Morgan criticó los resultados de MacDougall, con los "argumentos" demagógicos que acostumbraba. Naturalmente este tipo de experimentos suscitan dudas; nunca son concluyentes no sólo porque cambian las condiciones del experimento, sino la estadística, la manera de deducir los resultados cuantitativos, se presta a la desconfianza. Existen demasiados "medios" interpuestos, demasiados factores que no siempre se tienen en cuenta, etc. Se han intentado repetir, aunque nunca de una manera tan exhaustiva, y los resultados no son coincidentes.

Stockard fue otro de aquellos investigadores obsesionados por demostrar la tesis de la herencia de los caracteres adquiridos con experimentos de laboratorio. Hizo inhalar vapores etílicos a sus cobayas durante seis años, sucediéndose varias generaciones en las que observó taras hereditarias, especialmente en los ojos e incluso en los cromosomas (258).

El catedrático de zoología de la Sorbona, Frédéric Houssay, sometió a gallinas a una dieta de carne; en varias generaciones sucesivas observó que disminuía el tamaño del hígado y la molleja, pero a partir de la sexta generación las gallinas morían o quedaban estériles…

El azar considerado como una de las bellas artes

A causa del "redescubrimiento" de Mendel, en la época de Morgan el darwinismo había sido eliminado tanto como el lamarckismo. Con ellos había desaparecido la evolución misma. No obstante, las evidencias eran lo suficientemente fuertes como para forzar a los mendelistas a intentar una conciliación de sus leyes con la evolución. Ese es el significado de la teoría de las mutaciones que, habitualmente, se presenta con la muletilla de "mutaciones al azar", la esencia misma de la teoría sintética y el denominado neodarwinismo. Las mutaciones que explican la evolución eran saltos cualitativos, discontinuos, que hacían aparecer nuevas especies diferentes de las anteriores. La argumentación es de tipo genético: lo que mutaban eran los genes y, a su vez, estas mutaciones engendraban especies diversas. No existían cambios graduales y, desde luego, ningún papel desempeñaba el entorno ni nada ajeno a los genes mismos. El azar es el dios creador de los mendelistas. Las mutaciones se conciben como auto mutaciones génicas y, por supuesto, no explican nada, como tampoco nada habían explicado los cataclismos de Cuvier cien años antes o el diluvio universal de la Biblia. La biodiversidad se explicaba por las mutaciones pero las mutaciones carecen de explicación porque en la teoría sintética hablar del azar es hablar de la nada (y de todo al mismo tiempo). En la literatura neo darwinista el azar desempeña el papel del nóumeno kantiano, lo incognoscible. No conozco ningún mendelista que, después de acudir al azar como pócima milagrosa para justificar toda clase de desaguisados, haya definido lo que entiende por tal (259). El azar es objeto de un debate secular a lo largo de la historia del pensamiento científico, pero el positivismo quiere -pero no puede- permanecer al margen de polémicas, por lo que recurre a una noción vulgar del azar como casualidad o accidente. Ese recurso sistemático a una noción vulgar del azar es una deserción de la ciencia, la negación misma de la posibilidad de la experimentación científica, de la capacidad para reproducir una y otra vez los mismos fenómenos, en la naturaleza y en el laboratorio. Como ha escrito Israel, "no existen fenómenos aleatorios por naturaleza porque los fenómenos físicos se rigen por el principio de razón suficiente" (260). Añado por mi parte que lo mismo sucede en los fenómenos biológicos.

El abuso del azar, contrapartida paradójica del determinismo "ciego", ha reconfigurado la teoría de la evolución para acoger sus tabúes favoritos: el finalismo, el progreso, el perfeccionamiento o la existencia de unos seres más desarrollados que otros. Se presta al antilamarckismo fácil y, por tanto, al tópico: en la evolución no se observa una línea ascendente en dirección a ninguna parte, sino la adaptación de cada ser vivo a sus condiciones locales. Este es otro de esos aspectos en los que los neo darwinistas son anti darwinistas. De nuevo la reconstrucción del pensamiento de Darwin sobre su propio pedestal revela muchas sorpresas. En primer lugar, las mutaciones al azar y el azar mismo son absolutamente ajenas a Darwin, quien dejó bien claro su punto de vista precisamente en el momento mismo de iniciar el capítulo de "El origen de las especies" titulado "Leyes de la variación":

Hasta aquí he hablado a veces como si las variaciones -tan comunes y multiformes en los seres orgánicos en domesticidad, y en menor grado en los que viven en estado de naturaleza- fuesen debidas a la casualidad. Esto, por supuesto, es una expresión completamente incorrecta, pero sirve para reconocer llanamente nuestra ignorancia de la causa de cada variación particular. Algunos autores creen que producir diferencias individuales o variaciones ligeras de estructura es tan función del aparato reproductor como hacer al hijo semejante a sus padres. Pero el hecho de que las variaciones y monstruosidades ocurran con mucha más frecuencia en domesticidad que en estado natural, y de que se de mayor variabilidad en las especies de áreas extensas que en las de áreas restringidas, llevan a la conclusión de que la variabilidad está generalmente relacionada con las condiciones de vida a que ha estado sometida cada especie durante varias generaciones sucesivas (261).

En segundo lugar, el determinismo "ciego" es una expresión ajena a Darwin pero no a Lamarck, quien considera que la naturaleza tiene un poder limitado y ciego que no tiene intención, ni voluntad ni objetivos (262). De nuevo la historia de la biología aparece completamente distorsionada en este punto, como en tantos otros, por lo que retornamos a la polémica finalista, cuyas raíces reaparecen en la biología por varias esquinas distintas. Darwin es tan finalista (o tan poco finalista) como Lamarck, por lo menos. El británico se apoya en Von Baer y la teoría de la recapitulación (habitualmente atribuida a Haeckel, a pesar de que también tiene su origen en Lamarck) porque es quien "ha dado la mejor definición que se conoce del adelanto o progreso en la escala orgánica, diciendo que descansa sobre la importancia de la diferenciación y la especialización de las distintas partes de un ser". El naturalista británico sostuvo, pues, que existe progreso en la evolución, que se realiza mediante "pasos lentos e ininterrumpidos", que el progreso consiste en la complejidad (diferenciación y especialización) y, por fin, que "el punto culminante lo tiene el reino vertebrado en el hombre". Eso no significa -continúa Darwin- que los seres más evolucionados reemplacen a los predecesores o que estén en mejores condiciones que éstos para sobrevivir: "Debemos guardarnos mucho de considerar a los miembros ahora existentes de un grupo de organismos inferiores como si fueran los representantes perfectos de sus antiguos predecesores" (263).

Es cierto que, por influencia de Aristóteles, la evolución se interpretó no sólo de una manera direccional sino, además, en una dirección lineal, continuamente ascendente. Se puede exponer con mayor o menor fortuna pero la propia palabra "evolución" se compadece muy mal con el ciego determinismo, sea quien sea el que lo propugne. Por ejemplo, Piaget no quiere hablar de finalidad pero utiliza la palabra "vección" para transmitir la misma idea direccional (264). Los seres vivos más simples son los más antiguos y los más complejos son los más recientes, hasta llegar al hombre, que es donde acaban todas las clasificaciones biológicas que se han hecho. Es cierto que este hecho ha favorecido determinadas interpretaciones místicas o simplemente antropomórficas, que se han dedicado a extrapolarlo, pero la interpretación contraria que lo niega ha redoblado sus energías. Las bacterias son seres de una única célula; los mamíferos se componen de billones de ellas. Las células anucleadas son anteriores a las que disponen de núcleo. La reproducción sexual es posterior a la vegetativa en la evolución. La evolución experimenta retrocesos y no es unidireccional pero empezó por las bacterias y acaba por los mamíferos (de momento).

Las ciencias están trufadas de conceptos de origen oscuro, especialmente teológico. Muchos de ellos fueron abandonados y otros, como el de "impulso" en física o "afinidad" en química, han logrado sobrevivir porque responden a fenómenos empíricos contrastados y han sido definidos de manera crecientemente precisa. Así, la noción de afinidad química también fue discutida porque parecía introducir en la naturaleza un componente antropomórfico: los elementos se atraían o repudiaban lo mismo que las personas. Se observaba el fenómeno pero no existía una expresión lo suficientemente precisa para explicar cabalmente las razones de ello, así que también se plantearon numerosas discusiones al respecto. Del mismo modo, la teoría sintética rechaza hoy infundadamente la noción de progreso y ese rechazo se extiende a toda la teoría de la evolución, incluida la paleontología, empleando caricaturas grotescas, ridiculizando a Lamarck de manera grosera, como en el caso de "La especie elegida", el reciente éxito editorial de ventas de Arsuaga y Martínez, dos de los investigadores de Atapuerca (265). Posiblemente sea aún más incorrecto que la inmunología utilice la expresión "memoria" o que Dawkins hable de genes egoístas y altruistas, pero su uso no levanta tantas ampollas.

El azar de los mutacionistas no sólo es ciego sino sordo: no se sabe por qué, cómo, dónde ni cuándo se producen. Además de no saber sus causas (si es que tiene causas) tampoco saben sus consecuencias (son imprevisibles). Lo único que pueden decir es que no tienen relación con el medio externo: son un "puro accidente químico" (266). La evolución marcha sin rumbo: "La evolución tiene su origen en el error" (267). Las mutaciones son errores de duplicación. Si no hubiera errores tampoco habría evolución, que es como un error en cadena. Esta forma extrema de determinismo es otra extrapolación ideológica cuya pretensión es la negación del progreso y el avance en la sociedad. La traslación de los fenómenos biológicos a la historia del hombre jugó una mala pasada a sus propios autores. No sólo demostraba que era posible mejorar y perfeccionar las lacras económicas y sociales sino que era inevitable que eso sucediera. Para seguir sosteniendo una imagen biológica de las sociedades humanas había que erradicar la idea de progreso en la evolución de las especies. Pero el hombre como especie biológica también ha evolucionado y sigue evolucionando, de modo que a partir de cualquiera de sus precedentes históricos, la especie actual es un desarrollo gigantesco, un verdadero salto adelante respecto de cualquier otro homínido. Esa evolución no sólo se aprecia en un sentido físico sino desde cualquiera de los ángulos que se pretenda adoptar, como en el caso del propio conocimiento, cuyo avance progresivo es espectacular. Por el contrario, el recurso al azar y al error de los mendelistas es buena prueba de la inconsistencia interna con que apareció la teoría de las mutaciones, ya que contrastaba poderosamente con otros dos componentes de la teoría sintética:

a) el determinismo estricto que se otorgó al plasma germinal en la configuración del cuerpo b) la teoría de la copia perfecta (error de copia o de transcripción del ADN)

¿Por qué el mendelismo es determinista a unos efectos y recurre al azar a otros? Como suele suceder, no obtenemos ninguna clase de explicaciones. Es un completo absurdo científico que conduce al túnel del tiempo, al pensamiento medieval. Este retroceso tiene su origen en un error: el de considerar que en la naturaleza el error es aquel fenómeno que aparece con una frecuencia baja mientras que lo "normal", la "copia perfecta", emerge habitualmente. Ahora bien, si la evolución tiene su origen en el error, lo "normal" es precisamente el error y lo extraordinario sería conocer un caso en el cual la reproducción lograra obtener una "copia perfecta" del original, una criatura idéntica a su progenitor. Cualquier manual de pasatiempos matemáticos está repleto de ese tipo de paradojas acerca de lo que concebimos como "normal" o "excepcional", lo que podemos extender a todas aquellas expresiones ligadas a lo contingente: fortuito, afortunado (desafortunado), coincidencia, casualidad, accidente, suerte, etc.

Todos los discursos en torno a estas cuestiones conducen, además, a una tautología: lo infrecuente es aleatorio y lo aleatorio es infrecuente. La versión extrema de ese tipo de planteamientos son los "casos únicos", los realmente insólitos, aquellos que sólo han aparecido una vez. Es una concepción estética del azar que, por supuesto, nada tiene que ver con la ciencia. No hay nada más irrepetible que una obra de arte, el refugio de lo exclusivo y lo inimitable, por contraste con el repudio que provoca lo rutinario y lo monótono, aquello que se repite. La concepción absoluta del azar, como la que expone Monod, no es más que una concepción decorativa trasladada a la genética.

El imaginario mendelista está edificado sobre una noción fantástica de azar, en el que éste es consustancial a una no menos fantástica noción de la libertad humana, que contrasta con el marxismo, negador de esa misma libertad, como corresponde una ideología dogmática. Huxley sostuvo la tesis de que la genética soviética había repudiado el mendelismo porque el marxismo, a su vez, como doctrina dogmática, repudia el azar:

Es posible que detrás del pensamiento de los dirigentes políticos e ideológicos de la U.R.S.S. exista el sentimiento de que no hay lugar para el azar o para la indeterminación en la ideología marxista en general ni, en particular, en la ciencia, tal como la concibe el materialismo dialéctico, el sentimiento de que en un sistema que pretende la certeza no hay lugar para la probabilidad o el accidente.

No sé si esa es o no la respuesta correcta. Para descubrir las razones fundamentales del ataque a la teoría de las probabilidades, sería necesario leer, digerir y analizar todo lo que ha sido publicado en Rusia sobre el tema, y aunque valdría la pena hacerlo, debo dejarlo para otros (268).

Efectivamente, el biólogo británico no tenía ni la más remota idea de lo que estaba hablando, pero no por eso guardó silencio, como corresponde a cualquier persona que es consciente de su falta de información, máxime si se trata de un científico. Pero cuando se alude a la URSS la ignorancia importa menos, de manera que la pretensión de Huxley de extender la crítica al mendelismo al cálculo de probabilidades, es una auténtica aberración que pone al desnudo su falta de honestidad intelectual. Entre otros datos, Huxley ignoraba que la primera obra de Marx en defensa de la teoría del "clinamen" de los átomos de Epicuro no es, en definitiva, más que una crítica del estricto determinismo de Demócrito y, por consiguiente, una defensa del papel del azar (269). Ignoraba también que el azar fue introducido en 1933 en la matemática moderna por el soviético Kolmogorov, junto con Jinchin autor de los manuales más importantes de esta disciplina en el siglo pasado (270). Sin desarrollar la estadística, la econometría y el cálculo de probabilidades, la planificación socialista no hubiera sido posible, ni tampoco fabricar cohetes balísticos intercontinentales o satélites espaciales.

Del azar cabe decir lo mismo que del alma y demás conceptos teológicos introducidos en la biología sin mayores explicaciones por la puerta trasera. En la antigüedad clásica su presencia se imputaba a la intervención en los fenómenos naturales de entes inmateriales o sobrenaturales que desviaban el curso esperado de los acontecimientos. Las situaciones indecisas se resolvían echándolo a suertes, es decir, por sorteo. Era una forma de que los dioses decidieran donde los humanos no eran capaces. Así eludimos nuestra propia responsabilidad por las decisiones erróneas que adoptamos: hemos tenido mala suerte. No hemos previsto todas las consecuencias posibles que se pueden derivar de nuestros actos y a ese resultado le llamamos azar. A causa de ello, en nuestra vida nos ayudamos de amuletos que nos traen buena suerte. Los espíritus deciden las situaciones inciertas haciendo que la suerte sonría a los más fieles, aquellos que rezan o pasean en romería imágenes sagradas para que llueva y las cosechas sean abundantes. Las causas inexplicables se atribuyeron primero a la fortuna, que era una diosa, y luego al azar, el reducto en el que la ciencia jamás podrá penetrar.

A partir del siglo XVII, como en tantos otros fenómenos, se demostró que no hay nada incognoscible y nació el cálculo de probabilidades, cuyo desarrollo constata que no existe una muralla infranqueable entre los fenómenos deterministas y los aleatorios, que no hay fenómenos absolutamente causales, por un lado, ni fenómenos absolutamente fortuitos, por el otro: "Un fenómeno absolutamente casual significaría algo no necesario, algo sin fundamento, en cualquier tipo de relación. Sin embargo, esto destruiría el determinismo, la unidad material del mundo. Reconocer la casualidad absoluta significa reconocer la existencia de milagros, por cuanto éstos, precisamente, son fenómenos que no obedecen a causas naturales" (271). El azar absoluto (esencial lo llama Monod) es idéntico al determinismo absoluto; el destino fatal. Más bien al contrario, el azar se manifiesta conforme a determinadas leyes que no son, en esencia, diferentes de las que rigen los fenómenos causales hasta el punto de que se puede calcular la probabilidad de que determinados acontecimientos casuales se produzcan.

Como cualquier otra disciplina científica, el cálculo de probabilidades nace de la práctica como una ciencia aplicada para resolver problemas muy concretos sobre contratos mercantiles de aseguramiento. Lo seguro nace de lo inseguro. En su origen fue una curiosidad que entraba en la matemática como una disciplina menor que tomó los juegos de azar como campo de pruebas. Para fijar las primas en los seguros de vida las empresas elaboraron complejas tablas de defunción cada vez más precisas y detalladas, es decir, que el cálculo se basaba en una previa experiencia práctica real. El azar no es, pues, un problema de información porque el volumen de ésta es relativa: tanto da hablar de información como de falta de información. No hay nada de lo que no sepamos nada; tampoco de lo que lo sepamos todo. Cuando se dice que el azar es una medida de nuestra ignorancia, también se podría expresar lo mismo diciendo que el azar es una medida de nuestro conocimiento. ¿Está la botella medio llena o medio vacía? Por otro lado, aunque conociéramos la mayor parte de los parámetros de la realidad, no podríamos operar con ellos, especialmente en biología porque la materia viva responde a leyes más complejas que la inerte; en cada fenómeno confluyen muchas causas, algunas de ellas de tipo subjetivo y totalmente impredecibles. Por eso cualquier modelo teórico constituye una simplificación deliberada de la realidad concreta que, o bien implica una pérdida de información, o bien introduce hipótesis irreales (el punto a dimensional de masa finita sobre el que se apoya la mecánica clásica) o, en definitiva, la sustitución de unos supuestos de hecho por otros más sencillos o más manejables (272).

La información acerca de una determinada parcela de la realidad es siempre progresivamente creciente. De esta manera los fenómenos meteorológicos, antes imputados al azar, se conocen mejor porque los condicionantes que tienen relación con la presión atmosférica, la lluvia, la temperatura, los vientos, etc., están más definidos y porque hay más información acerca de su desenvolvimiento. Si el azar dependiera de nuestro conocimiento, la tendencia general sería a disminuir la aplicación del cálculo de probabilidades. A pesar de ello, los modelos probabilísticos se aplican cada vez con mayor frecuencia a fenómenos de lo más diverso, incluidos aquellos considerados generalmente como de tipo determinista. De este modo la estadística se ha convertido en una gran coartada ideológica, en pan estadística, pasando algunos a sostener que todo en la naturaleza es estadístico, aleatorio. La generalización del cálculo de probabilidades demuestra, por un lado, el enorme grado de abstracción que ha alcanzado y, por el otro, que los denominados fenómenos aleatorios no son sustancialmente diferentes de los deterministas. Por consiguiente, si bien es cierto que todo en la naturaleza es estadístico, también es igualmente cierto que todo en la naturaleza es, al mismo tiempo, necesario.

La metafísica positivista introduce barreras dicotómicas donde no las hay. A pesar de tres siglos de evolución del cálculo de probabilidades y la estadística se sigue preguntando si el azar existe o si, por el contrario, dios no juega a los dados. Confrontadas a los mismos fenómenos aleatorios pero aisladas entre sí, las ciencias parecen esquizofrénicas. Las hay absolutamente deterministas, como la astrofísica ("mecánica celeste"), y las hay absolutamente estocásticas, como la mecánica cuántica. A partir de fenómenos singulares y teorías locales, extrapolan concepciones generales, imprecisas, a las que otorgan un carácter absoluto.

La imagen distorsionada del azar proviene de la ilusión de pretender alcanzar un conocimiento exhaustivo de los fenómenos, de todos los factores que conducen a la producción de un determinado evento, lo cual no es posible ni tampoco necesario. La ciencia no avanza por impulsos teóricos sino prácticos. Sus pretensiones tampoco son teóricas sino prácticas. Nace de la práctica y tiene la práctica como destino final. Sabemos aquello que necesitamos y en la medida en que lo necesitamos. En un muestreo electoral no importa a qué candidato vota cada cual, sino el voto del conjunto. El comportamiento de un componente aislado puede resultar aleatorio, pero el del conjunto no lo es. Tomados de uno en uno, los seres vivos individuales como el jugador de bacarrá, son imprevisibles. Sin embargo, considerados en su generalidad, como fenómenos masivos, sí son previsibles. La ciencia puede determinar un cierto número de condicionantes, los más importantes y los más directos, pero nunca la totalidad de ellos. Normalmente, cuando en ciertos fenómenos se descubre una ley determinista, tal como la ley de la gravedad o la de Boyle-Mariotte, se dice que una o un reducido número de causas producen siempre un cierto efecto de manera necesaria, quedando todo lo demás como fortuito o casual. La producción de resultados imprevistos pone de manifiesto la complejidad de un determinado fenómeno, la operatividad, junto a los condicionantes inmediatos, de otros más débiles o remotos. En ocasiones el cálculo de probabilidades sirve para poner de manifiesto la trascendencia de esos condicionantes remotos. Como decía Hegel, la tarea de la ciencia consiste precisamente en aprehender la necesidad oculta bajo la apariencia de la contingencia (273).

Para los positivistas, que no gustan de las formulaciones filosóficas, se puede recurrir a expresar la misma noción citando a un matemático contemporáneo de Hegel como Laplace quien, por otra de esas paradojas absurdas de los libros de bolsillo, aparece como el paladín de un cierto "determinismo", cuando se trata, en realidad, del impulsor del cálculo de probabilidades. Laplace recuerda el principio de razón suficiente para defender que todo acontecimiento tiene una causa. Sin embargo, sostiene, existen acontecimientos "pequeños" que parecen no sujetarse a las leyes de la naturaleza y cuyos lazos con el resto del universo no conocemos exactamente. No habría incertidumbre si existiera una inteligencia capaz de realizar todos los cálculos relativos al cambio de cada estado en el universo, afirma Laplace en cita muy repetida. Pero el conocimiento humano es sólo un pálido reflejo de ese intelecto hipotético. No obstante, el incesante avance del conocimiento le acerca hacia él, si bien nunca llegará a tener su misma capacidad omnisciente. Ese intelecto hipotético de Laplace es, pues, dinámico, no queda restringido a un momento determinado del saber sino a su avance incesante a lo largo de la historia del conocimiento científico.

Del mismo modo, para Laplace la probabilidad matemática es un concepto dinámico, una aproximación: "En medio de las causas variables y desconocidas que comprendemos bajo el nombre de azar y que convierten en incierta e irregular la marcha de los acontecimientos, se ve nacer a medida que se multiplican, una regularidad chocante […] Esta regularidad no es más que el desarrollo de las posibilidades respectivas de los sucesos simples que deben presentarse más a menudo cuanto más probables sean […] Las relaciones de los efectos de la naturaleza son mucho más constantes cuando esos efectos se consideran en gran número […] La acción de causas regulares y constantes debe prevalecer a la larga sobre la de las causas irregulares" (274).

La introducción del azar en biología corrió paralela a la mecánica cuántica, en donde se produjo un fenómeno parecido al que aquí examinamos: lo que se nos está transmitiendo y, por tanto, lo que identificamos como mecánica cuántica, es una interpretación singular de ella, a saber, la que llevó a cabo la Escuela de Copenhague. Si en genética no hay más que mendelismo y neodarwinismo, en física no hay más que Heisenberg, Born y Bohr. El resto son especímenes seudocientíficos, herejes equiparables a Lysenko. La mecánica cuántica ha vuelto a poner otra vez de moda el azar, como si hubiera planteado algo diferente, algo que no era conocido hasta entonces (275). A pesar de tratarse de una disciplina joven y aún no consolidada, se la ha tratado de convertir en el patrón de todas las demás ciencias, de extrapolar sus principios fuera del ámbito específico para el que han sido concebidos. Parece que todos los fenómenos del universo se rigen por la mecánica cuántica, lo cual es absurdo porque desde comienzos del siglo XX la física ha dejado de ser la ciencia unificada de antaño, es decir, que ni siquiera la mecánica cuántica es toda la física. A pesar de un siglo de esfuerzos, ésta carece de unidad interna, no existe como teoría unificada, cuyos conceptos y leyes eran de validez general. Si la mecánica cuántica no es extensible a todos los fenómenos físicos, con más razón tampoco será extensible a otro tipo de fenómenos diferentes, como los biológicos. Por lo demás, el concepto de azar, como cualquier otro, no se puede perfilar sólo en la mecánica cuántica, ni en la genética, ni en la economía política, ni en la termodinámica, ni en ninguna ciencia concreta de manera exclusiva. Habrá que tener en cuenta todas ellas simultáneamente y, en particular, el cálculo de probabilidades.

En la mecánica cuántica como en genética no hay efecto sin causa ni causa sin efecto que, por lo demás, no son únicos, es decir, un efecto tiene múltiples causas (y a la inversa) y las causas pueden producir efectos contrapuestos. El principio de causalidad dimana del principio de conservación de la materia y la energía: los fenómenos no surgen de la nada. Si, como también he sostenido, las causas se convierten en efectos y los efectos en causas, del mismo modo la necesidad se convierte en azar y el azar en necesidad. Lo que para el casino es una ley determinista que le reporta beneficios inexorablemente, para el jugador de bacarrá que se acomoda en una de sus mesas es puramente aleatorio. No cabe duda de que en los fenómenos materiales existen las probabilidades del mismo modo que a ellas les acompaña el cálculo de esas mismas probabilidades: "El azar es omnipresente, pero se suprime a sí mismo al adquirir la forma de leyes" (276). Muchos de los debates sobre el azar se podrían eliminar teniendo en cuenta que también los fenómenos aleatorios se rigen por leyes, como el teorema de Bayes, que permite calcular la probabilidad de las causas. A partir de ahí es posible comprender que el azar y la necesidad no están separados el uno del otro, que la intervención del azar no excluye la necesidad, y a la inversa. El azar, pues, es el modo en que se manifiesta la necesidad; ambos forman una unidad de contrarios.

La comprensión del azar también ha estado interferida por la eterna cuestión del libre albedrío, de la libertad humana. Se concebía que donde existía determinismo no había lugar para la libertad. Ésta es la libertad de elección, la capacidad de optar entre varias posibilidades diferentes, concebida de forma omnímoda. Pero como bien saben los que han tratado de realizar una tarea de manera aleatoria, libérrima, el azar "puro" es tan inimitable como la obra de arte (277). Cada vez que alguien intenta repetir un acontecimiento aleatorio, emerge la necesidad. Nadie es capaz de elegir números al azar, incluso entre un número finito de ellos. Alguien que anote los números aleatorios que se le vayan ocurriendo del 0 al 99 puede permanecer semanas enteras escribiendo cifras y habría números que nunca aparecerían. Por consiguiente, no todos los números tendrían la misma posibilidad de aparecer.

Lo mismo sucede si pedimos a un colectivo de personas que elija números al azar: siempre habría unos que serán elegidos con mayor frecuencia que otros. Los números obtenidos por medios informáticos se denominan seudo-aleatorios porque no es posible asegurar que verdaderamente sean aleatorios. De ahí la dificultad de las simulaciones, e incluso de algunos sondeos y muestreos: para resultar representativos los datos se tienen que tomar al azar. Por eso nadie puede entrar en un casino con un ordenador o una calculadora, ni siquiera apuntar los resultados; por eso los componentes de una ruleta cambian continuamente, como los dados o los naipes: a largo plazo siempre surge la regularidad en medio de lo que parece caótico. Cualquier criptógrafo conoce los problemas de obtener números verdaderamente aleatorios, cuya secuencia no responda a una lógica interna entre ellos, a lo que Laplace llamaba "función generatriz" y que hoy llamaríamos algoritmo.

De lo que queda expuesto también se deduce otra consecuencia importante, que no siempre se tiene en cuenta: por sí mismo un número aleatorio no existe, solo existe dentro de un colectivo de otros números, de los cuales es independiente (o dependiente). Los juegos de azar tienen sus reglas de juego de tal manera que las partidas se pueden reproducir indefinidamente. Por su parte, uno de los principios esenciales del cálculo de probabilidades es que la suma de las probabilidades de todos los resultados posibles tiene que ser igual a la unidad, por lo que retornamos a la unitas complex: la multiplicidad es tan necesaria como la unidad. A diferencia del arte, en la ciencia no existen "casos únicos". Es otra de las consecuencias de la ley de los grandes números. Una de las diferencias entre la ciencia y la ufología o la parapsicología es que éstas versan sobre fenómenos extraños y raros, mientras que la ciencia es rutinaria: estudia fenómenos que se repiten. Que la teoría sintética haya convertido a las mutaciones génicas en un "error de copia", en un fenómeno tan insólito como los platillos volantes o las psicofonías, es un reflejo de su falta de estatuto científico.

Hace tiempo que los errores forman parte integrante de la ciencia y han tenido, además, una relación directa con el surgimiento mismo de la teoría de probabilidades, a causa de las dificultades surgidas en la medición de distancias astronómicas. Además de su contribución al cálculo de probabilidades, Laplace fue uno de los más distinguidos impulsores del sistema métrico decimal. El azar es, pues, una problema de medida y, por lo tanto, de la transformación de los cambios cualitativos en cambios cuantitativos. Aunque ninguna de las mediciones sea coincidente, los valores obtenidos se aproximan a un cierto punto y esas aproximaciones son tanto mayores cuantas más mediciones se realizan. Los errores no son erráticos sino que siguen una ley de distribución normal o de Gauss.

Gauss mantenía correspondencia epistolar con Napp, el prior del convento en el que ingresó Mendel. Algunas de aquellas cartas versaban precisamente sobre estadística y teoría de los errores, lo cual explica el fraude de Mendel con los guisantes. Mendel expuso en forma de experimento singular lo que no era más que un promedio, un resumen general de la experiencia de muchos resultados distintos (pero aproximados); presentó como un método de investigación lo que no es más que un método de exposición. De ahí que sus resultados fueran tan exactos. Pero en un sentido nominalista estricto, los promedios no existen y, por consiguiente, la probabilidad nunca aparece en la realidad. Es más, a medida que los resultados se acumulan progresivamente, los resultados cada vez divergen más de su probabilidad en términos absolutos (cuantitativos). Por ejemplo, los decimales del número p aparecen aleatoriamente y se conocen ya 200.000 millones de ellos. Cabe esperar, pues, que cada dígito, que tiene una probabilidad de 1/10, aparecerá 20.000 millones de veces. No es así. El cero supera su expectativa en más de 30.000; con la cuarta parte de dígitos, el cero la supera en poco más de 12.000. El error, por lo tanto, se ha duplicado con creces, lo cual significa que al llevar a cabo un experimento real, lo más probable -casi con una seguridad absoluta- es que la probabilidad no aparezca nunca de manera exacta, por más que se repita el experimento. Todo lo contrario: cuanto más se experimenta, más errores aparecen en términos absolutos (cuantitativos). Pero el error, como la probabilidad, no es sólo un número; además de su componente cuantitativo el error y la probabilidad tienen un componente cualitativo. Al transformarse de nuevo en cualidad el error y la probabilidad ya no son un número sino una relación entre dos números, una proporción o, por decirlo de otra manera, una abstracción: lo abstracto y uniforme se pone en el lugar de lo concreto y diverso, lo exacto en lugar de lo inexacto. Esta manera de proceder la conocían muy bien los escolásticos medievales, lo mismo que Mendel. La llamaron suppositio. Transformaba lo probable en improbable. El azar se negaba a sí mismo y se convertía en necesidad. Precisamente un estadístico como Fisher fue quien no lo supo apreciar en Mendel: la suppositio le parecía una pura suplantación, es decir, poner una cosa en el lugar en el que debía estar otra (o mejor dicho, varias).

El índice anual de inflación puede servir como ejemplo. Es un instrumento de medida de las subidas de los precios que cambia de un país a otro, que difiere en la forma de expresar las oscilaciones cuantitativas. Al mismo tiempo, la inflación tiene un carácter general, e incluso oficial, sancionado administrativamente, que sustituye a las subidas de los precios concretos de cada una de las mercancías, como si todos ellos hubieran subido en la misma proporción. Es más: este método es tan poderoso que autoriza a decir que todos los precios han subido un 2"3 por ciento a pesar de que ninguno haya tenido esa subida exactamente, por lo que convierte en representativo de una generalidad a algo que no forma parte de la misma.

La suppositio medieval resume el modo de proceder de la ciencia, la síntesis inherente al método de abstracción, la verdadera médula del nominalismo de Occam, un avance magistral del concepto mismo de ciencia con respecto a Aristóteles: "La ciencia no versa sobre los singulares sino que está constituida por universales que están en lugar de los mismos singulares" (278). El cálculo de probabilidades proporciona las herramientas matemáticas que permiten la generalización científica, unificando dos orientaciones fundamentales en cualquier clase de investigación: "la que va de las propiedades del sistema en su conjunto a las de los elementos y la que pasa de las propiedades de los elementos a las propiedades generales del sistema" (279). Este método contribuye, por un lado, a poner de manifiesto las limitaciones del micromerismo y, por el otro, la falacia empirista según la cual los fenómenos de la realidad se presentan juntos, uno al lado del otro o uno después del otro pero sin vínculos internos entre ellos, conectados pero no conjuntados, que decía Hume (280). La ciencia, según los empiristas, no infiere reglas de tipo causal sino puras correlaciones y coincidencias. Esto lo defienden como la esencia misma de la estadística. Sin embargo, la estadística pone de manifiesto tanto correlaciones como vínculos causales objetivos entre los fenómenos, por más que no se puedan confundir las unas con los otros. En definitiva, una función de distribución estadística expresa la existencia de un ordenamiento interno de los elementos del sistema. El cálculo de probabilidades, además de un método de cálculo es un método de conocimiento.

El cálculo de probabilidades permite el manejo de grandes cantidades de información que serían imposibles sin él. Por ejemplo, el muestreo facilita el estudio del todo en una de sus partes, realizar extrapolaciones sobre un número muy grande de datos, conociendo sólo una parte de ellos, empleando sólo su media y otros conceptos matemáticos derivados, como la varianza. Del mismo modo, el comportamiento de un juego de azar puede parecer errático cuando se llevan disputadas unas pocas partidas; no obstante, cuando el volumen de información aumenta con el número de partidas disputadas, deja de serlo y aparecen las leyes conforme a las cuales se desenvuelve. Por eso, decía Hegel, la necesidad se abre camino en forma de azar. Ese es el significado exacto de la ley de los grandes números. Más de la mitad de los fenómenos considerados aleatorios siguen una de las tres leyes de distribución, uniforme, normal y de Poisson, y otra tercera parte siguen a otras diez leyes de distribución. Por ejemplo, el número de mutaciones de una molécula de ADN después de cierta cantidad de radiación no se produce al azar sino que sigue una distribución de Poisson. Como concluye un matemático: "Uno de los fenómenos más sorprendentes de la teoría de las probabilidades es el pequeño número de leyes a las cuales se reduce la mayor parte de problemas que se les plantean a los probabilistas" (281).

El azar demuestra que la naturaleza está en un desarrollo permanente, cambia y engendra de manera incesante. En su evolución los acontecimientos crean posibilidades nuevas; el efecto siempre contiene algo nuevo en comparación con la causa: "Durante el desarrollo no sólo se realizan las posibilidades existentes en el pasado sino que se crean posibilidades nuevas por principio, no implícitas en los estados anteriores de la materia […] Las nuevas posibilidades no se originan sin causa, sino como una tendencia de los nuevos estados de la materia, antes inexistentes" (282). El cálculo de probabilidades no es sólo un recurso matemático, cuantitativo sino cualitativo. Lo que determina es que:

a) de una misma acción se pueden derivar varios resultados posibles b) es posible medir esas diferentes posibilidades c) hay resultados cuya producción es imposible

El preformismo en biología, lo mismo que la predestinación luterana, son variantes del mecanicismo que desconocen la potencialidad del desarrollo, que en la evolución continuamente se están creando nuevas posibilidades y nuevas potencialidades. A causa de ello, el futuro no está escrito en el pasado; por bien que conociéramos éste nunca podríamos vislumbrar aquel. Los positivistas, para quienes la realidad es un presente continuo, desconfían de las posibilidades y se atienen a lo realmente existente, a las posibilidades ya realizadas. Pero las posibilidades forman parte de la realidad, están en ella, no de una manera subjetiva sino objetiva. La contingencia, decía Hegel, es la posibilidad de otra existencia, no a título de simple posibilidad abstracta sino como posibilidad real, porque la posibilidad es un componente esencial de la realidad: "Esta contingencia hay que reconocerla y no pretender que tal cosa no puede ser sino así y no de otro modo" (283). La ciencia explica la transformación de la posibilidad en realidad. Su objeto no está tanto en relatar lo que ocurrió sino en las razones por las cuales ocurrió, aquellas que lo hicieron posible. Si, como vengo defendiendo, de una determinada causa pueden derivarse diferentes efectos posibles, la tarea de la ciencia consiste en precisar -con verdadera necesidad- el conjunto de posibilidades realmente factibles en cada caso, según determinadas circunstancias, frente a todo aquello que resulta imposible. Los acontecimientos reales tienen que ser posibles, pero un acontecimiento posible puede ocurrir o puede no ocurrir.

La diferenciación de las células embrionarias demuestra que el concepto de posibilidad no es exclusivamente filosófico sino que tiene importantes expresiones en la biología. Los organismos superiores tienen más posibilidades de desarrollo que los inferiores. Las posibilidades se realizarán siempre que se cumplan las leyes que rigen el fenómeno, siempre que se den las condiciones precisas para ello y, por el contrario, no se den las contra tendencias que se le oponen. De ahí que la evolución se deba concebir con un sentido progresivo, hacia una mayor complejidad, hacia formas superiores de materia: de la materia inerte a la materia viva y de ésta hacia la sociedad, la cultura y los fenómenos singularmente humanos. De ahí que quepa concluir que quienes realmente han introducido el azar en la biología de una manera impecable han sido los mismos que han concebido la evolución como un desarrollo potencial, no lineal, entre ellos Lamarck y Lysenko. En efecto, el concepto de potencialidad que ambos utilizan acredita dos cosas al mismo tiempo: que su concepción de la biología no es ni finalista ni actualista (284). Lamarck entiende la naturaleza como "potencia" y habla del "poder de la vida" que, sin embargo, se ve contrarrestado por las "causas modificantes", por lo cual la progresión de los seres vivos no puede ser ni sostenida ni regular (285). Esas "causas modificantes" a las que alude Lamarck son, pues, el fundamento de las regresiones en la evolución y, en última instancia, de las extinciones, otra prueba más de la ausencia de finalismo en la teoría lamarckista.

En su noción vulgar, positivista, el azar excluye la causalidad, no liga el pasado al presente, ni éste al futuro. Por consiguiente, si el azar fuera absoluto no habría evolución porque todo empieza de nuevo; otra vuelta de la ruleta. Su introducción en la genética proviene de la escisión entre la generación y la herencia; al poner todo el énfasis en ésta desaparece cualquier posibilidad de innovación. En este sentido el azar desempeña el papel creador de lo nuevo en la evolución biológica y ese es el verdadero significado de la mutación como salto cualitativo o, como dice René Thom, un auténtico acto de creación a partir de la nada: "En ciencia, lo aleatorio puro, es el proceso markoviano, donde todo vestigio del pasado se elimina en la génesis del nuevo golpe; en cada prueba se reitera el "big bang" creador: lo aleatorio puro exige un hecho sin causa, es decir, un comienzo absoluto.

Pero en la historia de nuestra representación de lo real, no hay otro ejemplo de comienzo absoluto que el de la Creación" (286). La teoría de las mutaciones es, pues, un forma de creacionismo laico, un retorno bíblico bajo nuevas apariencias. Las mutaciones se explican sin necesidad de previos cambios cuantitativos, graduales, evolutivos. En la herencia había continuidad sin cambio y en la mutación había cambio sin continuidad. Monod lo expresó de la manera extremadamente dogmática que acostumbran los mendelistas: "Por sí mismo el azar es la fuente de toda novedad, de toda creación en la biosfera. El azar puro, el azar exclusivamente, libertad absoluta pero ciega, es la raíz misma del prodigioso edificio de la evolución: esta noción central de la biología moderna ya no es hoy una hipótesis entre otras posibles o al menos concebibles. Es la única concebible, la única compatible con los hechos de observación y de experiencia. Y nada permite suponer (o esperar) que nuestras concepciones sobre este punto deban o incluso puedan ser revisadas" (287). Otro punto y final para la ciencia; también aquí no hay nada más que aportar al respecto. La ideología siempre intenta impedir el avance de la ciencia sustituyéndola, necesariamente travestida de dogmatismos de esa pretenciosidad.

Con la teoría de las mutaciones la genética adopta un ademán matemático abstracto o, como diría Lysenko, formal. Ya los trabajos de Mendel presentaban -como ha quedado expuesto- un sesgo estadístico pero fue la propia utilización de Mendel contra Darwin la que impulsó el tratamiento abstracto de la genética. Frente a los mendelistas como Bateson, los biometristas siguieron defendiendo a Darwin. Los primeros empezaron a ganar la partida, pero hacia los años veinte los biometristas lograron imponer su concepción estadística y se produjo la primera síntesis: ambas concepciones no eran incompatibles; Darwin y Mendel podían convivir. Los modelos estadísticos elaborados por los genetistas soviéticos, dados a conocer en los países capitalistas por Fisher, Haldane y Wright como si fueran previos, abrieron la vía a la "genética de poblaciones" y al tratamiento estadístico de la herencia que facilitó la amalgama entre Mendel y Darwin. Engels ya había puesto de manifiesto que "también los organismos de la naturaleza tienen sus leyes de población prácticamente sin estudiar en absoluto, pero cuyo descubrimiento será de importancia decisiva para la teoría de la evolución de las especies". Ahora bien, los modelos estadísticos poblacionales se fundamentaban en dos de las claves de la ideología burguesa en materia biológica: micromerismo y maltusianismo, la "lucha por la existencia" y la competencia entre los seres vivos (288), llegando algunos a aplicar la teoría matemática de juegos a la evolución (289).

Del mismo modo que la aplicación de la teoría de probabilidades a la física estadística estuvo en relación con la introducción del atomismo y, como consecuencia de ello, la noción de "independencia", es decir, a la ausencia de vínculos directos entre las partículas, para introducir sus modelos estadísticos en biología los mendelistas parten de una muestra de sucesos independientes entre sí. El prototipo burgués es Robin Crusoe. Los animales silvestres son como los hombres en la sociedad: están atomizados, enfrentados unos con otros, sin vínculos mutuos de sociabilidad, como las moléculas de gas en un recipiente cerrado, rebotando unas contra otras. Volterra quería elaborar la "teoría matemática de la lucha por la existencia" (290). No existen familias, ni rebaños, ni enjambres, ni manadas. Aquí como en física estadística se produce una paradoja metodológica: mientras, por un lado, se reconoce la existencia de interacciones entre los elementos de los sistemas estudiados, al mismo tiempo, la matemática no admite tal interacción (291). En biología las relaciones sociales no son independientes, bilaterales e iguales. Así, la abeja doméstica (Apis mellifera) es un insecto social que vive en colmenas. Aislada, una abeja muere al cabo de pocos días. Las sociedades apícolas se componen de tres tipos de individuos (reina, obreras y zánganos) que mantienen entre sí una división de tareas y, por consiguiente, una especialización funcional sin ninguna clase de competencia o lucha interna entre ellas ni entre otros animales sociales o, por lo menos, no es ése el comportamiento predominante. Más bien al contrario, la subsistencia de la abeja doméstica se fundamenta en la colaboración y coordinación sinérgica de actividades dentro y fuera de la colmena, hasta el punto de que no se las pueden considerar como seres independientes. El intercambio de alimento es una conducta innata en muchas especies animales. Por ejemplo, los insectos sociales practican la trofalaxis, es decir, la mutua entrega y recepción de nutrientes. Si la colonia pasa hambre, pasan hambre todos sus integrantes por igual. La abeja recolectora ofrece parte del botín a otra obrera que lo demanda sacando su lengua hasta recibir una porción que rezuma de la boca de la primera. Además, mediante la trofalaxis las abejas se traspasan feromonas, que es una forma de comunicación y reparto social de las tareas.

Entre las abejas domésticas el reparto de funciones alcanza también a los dos aspectos vitales de la alimentación y la reproducción. Las obreras se encargan de la parte vegetativa y la reina y los zánganos de la reproductiva. Por lo tanto, la reproducción no se verifica al azar sino conforme a reglas bien establecidas con un fuerte carácter endogámico. Sólo la reina es fecundada y, por lo tanto, es la madre de toda la colonia. Su función es poner huevos toda su vida y sólo sale de la colmena para fecundarse. Los zánganos son los machos y proceden de huevos sin fecundar, es decir, son clones de la reina, a la vez que hijos, medio hermanos también de ella. Por su parte, las obreras no son estériles, como se afirma en ocasiones, sino que la presencia de la reina les impide desarrollar sus órganos genitales. Mientras en la colmena hay una reina activa, las obreras no desarrollan otras que puedan competir con ella. Pero en cuanto empieza a envejecer o muere, las obreras inician la construcción de celdas reales. En la colmena la función de la reina depende de la jalea real; mientras circula por la colmena, las obreras no buscan sucesoras. Dicha sustancia se produce en las glándulas cefálicas de la reina, que al lamerse el cuerpo se empapa con ella, la cual a su vez la lamen las obreras que se encargan de su aseo y éstas, a su vez, la transmiten a otras.

Partes: 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14
 Página anterior Volver al principio del trabajoPágina siguiente