TEORÍA GENERAL DE SISTEMAS
|
La teoría general de sistemas (TGS) o teoría de sistemas o enfoque de sistemas es un esfuerzo de estudio interdisciplinario que trata de encontrar las propiedades comunes a entidades, los sistemas, que se presentan en todos los niveles de la realidad, pero que son objeto tradicionalmente de disciplinas académicas diferentes. Su puesta en marcha se atribuye al biólogo austriaco Ludwig von Bertalanffy, quien acuñó la denominación a mediados del siglo XX.
Contextos
Como ciencia emergente, plantea paradigmas diferentes a los de la ciencia clásica. La ciencia de sistemas observa totalidades, fenómenos, isomorfismos, causalidades circulares, y se basa en principios como la subsidiaridad, pervasibidad, multicausalidad, determinismo, complementariedad, y de acuerdo a la leyes encontradas en otras disciplinas y mediante el isomorfismo, plantea el entendimiento de la realidad como un complejo, logrando su transdisciplinariedad, y multidisciplinariedad.
La Teoría General de los Sistemas (T.G.S.) propuesta, más que fundada, por L. von Bertalanffy aparece como una metateoría, una teoría de teorías, que partiendo del muy abstracto concepto de sistema busca reglas de valor general, aplicables a cualquier sistema y en cualquier nivel de la realidad.
La T.G.S. surgió debido a la necesidad de abordar científicamente la comprensión de los sistemas concretos que forman la realidad, generalmente complejos y únicos, resultantes de una historia particular, en lugar de sistemas abstractos como los que estudia la Física. Desde el Renacimiento la ciencia operaba aislando:
Componentes de la realidad, como la masa.
Aspectos de los fenómenos, como la aceleración gravitatoria.
Pero los cuerpos que caen lo hacen bajo otras influencias y de manera compleja. Frente a la complejidad de la realidad hay dos opciones:
La primera es negar carácter científico a cualquier empeño por comprender otra cosa que no sean los sistemas abstractos, simplificados, de la Física. Conviene recordar aquí la rotunda afirmación de Rutherford: "La ciencia es la Física; lo demás es coleccionismo de estampillas".
La segunda es empezar a buscar regularidades abstractas en sistemas reales complejos. La T.G.S. no es el primer intento histórico de lograr una metateoría o filosofía científica capaz de abordar muy diferentes niveles de la realidad. El materialismo dialéctico busca un objetivo equivalente combinando el realismo y el materialismo de la ciencia natural con la dialéctica hegeliana, parte de un sistema idealista. La T.G.S. surge en el siglo XX como un nuevo esfuerzo en la búsqueda de conceptos y leyes válidos para la descripción e interpretación de toda clase de sistemas reales o físicos.
La T.G.S. puede ser vista también como un intento de superación, en el terreno de la Biología, de varias de las disputas clásicas de la Filosofía en torno a la realidad y en torno al conocimiento:
materialismo v/s vitalismo
reduccionismo v/s holismo
mecanicismo v/s teleología
En la disputa entre materialismo y vitalismo la batalla estaba ganada desde antes para la posición monista que ve en el espíritu una manifestación de la materia, un epifenómeno de su organización. Pero en torno a la T.G.S y otras ciencias sistémicas se han formulado conceptos, como el de propiedades emergentes que han servido para reafirmar la autonomía de fenómenos, como la conciencia, que vuelven a ser vistos como objetos legítimos de investigación científica.
Parecido efecto encontramos en la disputa entre reduccionismo y holismo, en la que la T.G.S. aborda sistemas complejos, totales, buscando analíticamente aspectos esenciales en su composición y en su dinámica que puedan ser objeto de generalización.
En cuanto a la polaridad entre mecanicismo/causalismo y teleología, la aproximación sistémica ofrece una explicación, podríamos decir que mecanicista, del comportamiento "orientado a un fin" de una cierta clase de sistemas complejos. Fue Norbert Wiener, fundador de la Cibernética quien llamó sistemas teleológicos a los que tienen su comportamiento regulado por retroalimentación negativa. Pero la primera y fundamental revelación en este sentido es la que aportó Darwin con la teoría de selección natural, mostrando como un mecanismo ciego puede producir orden y adaptación, lo mismo que un sujeto inteligente.
Desarrollos
Aunque la T.G.S. surgió en el campo de la Biología, pronto se vio su capacidad de inspirar desarrollos en disciplinas distintas y se aprecia su influencia en la aparición de otras nuevas. Así se ha ido constituyendo el amplio campo de la sistémica o de las ciencias de los sistemas, con especialidades como la cibernética, la teoría de la información, la teoría de juegos, la teoría del caos o la teoría de las catástrofes. En algunas, como la última, ha seguido ocupando un lugar prominente la Biología.
Más reciente es la influencia de la T.G.S. en las Ciencias Sociales. Destaca la intensa influencia del sociólogo alemán Niklas Luhmann, que ha conseguido introducir sólidamente el pensamiento sistémico en esta área.
Ámbito metamórfico de la teoría
La teoría general de sistemas en su proposito más amplio, es la elaboración de herramientas que capaciten a otras ramas de la ciencia en su investigacion práctica. Por sí sola, no demuestra o deja de mostrar efectos prácticos. Para que una teoría de cualquier rama científica esté solidamente fundamentada, ha de partir de una sólida coherencia sostenida por la T.G.S. Si se cuentan con resultados de laboratório y se pretende describir su dinámica entre distíntos experimentos, la T.G.S. es el contexto adecuado que premitirá dar soporte a una nueva explicación, que permitirá poner a prueba y verificar su exactitud. Por ello se la encasilla en el ámbito de metateoría.
La T.G.S. busca descubrir isomorfismos en distintos niveles de la realidad que permitan:
Usar los mismos términos y conceptos para describir rasgos esenciales de sistemas reales muy diferentes; y encontrar leyes generales aplicables a la comprensión de su dinámica.
Favorecer, primero, la formalización de las descripciones de la realidad; luego, a partir de ella, permitir la modelización de las interpretaciones que se hacen de ella.
Facilitar el desarrollo teórico en campos en los que es difícil la abstracción del objeto; o por su complejidad, o por su historicidad, es decir, por su carácter único. Los sistemas históricos están dotados de memoria, y no se les puede comprender sin conocer y tener en cuenta su particular trayectoria en el tiempo.
Superar la oposición entre las dos aproximaciones al conocimiento de la realidad:
La analítica, basada en operaciones de reducción.
La sistémica, basada en la composición.
La aproximación analítica está en el origen de la explosión de la ciencia desde el Renacimiento, pero no resultaba apropiada, en su forma tradicional, para el estudio de sistemas complejos.
El contexto en el que la T.G.S. se puso en marcha, es el de una ciencia dominada por las operaciones de reducción características del método analítico. Básicamente, para poder manejar una herramienta tan global, primero se ha de partir de una idea de lo que se pretende demostrar, definir o poner a prueba. Teniendo claro el resultado (partiendo de la observación en cualquiera de sus vertientes), entonces se le aplica un concepto que, lo mejor que se puede asimilar resultando familiar y fácil de entender, es a los métodos matemáticos conocidos como mínimo común múltiplo y máximo común divisor. A semejanza de estos métodos, la T.G.S. trata de ir desengranando los factores que intervienen en el resultado final, a cada factor le otorgar un valor conceptual que fundamenta la coherencia de lo observado, enumera todos los valores y trata de analizar todos por separado y, en el proceso de la elaboración de un postulado, trata de ver cuantos conceptos son comunes y no comunes con un mayor índice de repetición, así como los que son comunes con un menor índice de repetición. Con los resultados en mano y un gran esfuerzo de abstracción, se les asignan a conjuntos (teoría de conjuntos), formando objetos. Con la lista de objetos completa y las propiedades de dichos objetos declaradas, se conjeturan las interacciones que existen entre ellos, mediante la generación de un modelo informático que pone a prueba si dichos objetos, virtualizados, muestran un resultado con unos márgenes de error aceptables. En último paso, se proceden por las pruebas de laboratorio, es cuando las conjeturas, postulados, especulaciones, intuiciones y demás sospechas, se ponen a prueba y nace la teoría.
Como toda herramienta matemática en la que se operan con factores, los factores enumerados que intervienen en estos procesos de investigación y desarrollo no alteran el producto final, aunque sí que pueden alterar los tiempos en obtener los resultados y la calidad de los mismos; ofreciendo una mayor o menor resistencia económica a la hora de obtener soluciones.
Aplicación
La principal aplicación de esta teoría, está orientada a la empresa científica cuyo paradigma venía siendo la Física. Los sistemas complejos, como los organismos o las sociedades, permiten este tipo de aproximación sólo con muchas limitaciones. En la aplicación de estudios de modelos sociales, la solución a menudo era negar la pertinencia científica de la investigación de problemas relativos a esos niveles de la realidad, como cuando una sociedad científica prohibió debatir en sus sesiones el contexto del problema de lo que es y no es la conciencia. Esta situación resultaba particularmente insatisfactoria en Biología, una ciencia natural que parecía quedar relegada a la función de describir, obligada a renunciar a cualquier intento de interpretar y predecir.
Ejemplo de aplicación de la T.G.S.:Teoría del caos
Los factores esenciales de esta teoría se componen de:
Entropía: Viene del griego entrope que significa transformación o vuelta. Su símbolo es la S, y es una metamagnitud termodinámica. La magnitud real mide la variación de la entropía. En el Sistema Internacional es el J/K (o Clausius) definido como la variación de entropía que experimenta un sistema cuando absorbe el calor de 1 Julio (unidad) a la temperatura de 1 Kelvin.
Entalpia: Palabra acuñada en 1850 por el físico alemán Clausius. La entalpía es una metamagnitud de termodinámica simbolizada con la letra H. Su variación se mide, dentro del Sistema Internacional de Unidades, en joule. Establece la cantidad de energía procesada por un sistema y su medio en un instante A de tiempo y lo compara con el instante B, relativo al mismo sistema.
Neguentropía: Se puede definir como la tendencia natural que se establece para los excedentes de energía de un sistema, de los cuales no usa. Es una metamagnitud, de la que su variación se mide en la misma magnitud que las anteriores.
Relación de Hechos |
Hecho 1: Del cual se deriva el concepto de entropía: Las fuerzas se disipan en el espacio. Las consecuencias evidentes de esto, se manifiestan en forma de una tendencia a aumentar la disipación de la energía de forma directamente proporcional al cuadrado de la distancia. Esto fue contemplado por la segunda ley de de la termodinámica, que plantea que la organización en los sistemas aislados (sistemas que no tienen intercambio de energía con su medio, o que el medio no ofrece el entorno apropiado) los lleva al equilibrio perpetuo. |
Hecho 2: del cual se deriva el concepto de entropía: Dentro de un sistema no equilibrado de forma perpetua, hay manifestaciones de energía mínimas, las cuales se hacen evidentes mediante el estudio y cálculo del sistema bajo observación para su cuantización. En los sistemas biológicos, estos paquetes se denominan ATP, en los sistemas físicos magnetoeléctricos se denominana Iones, en los sistemas de Mecánica cuántica, se denomina paquete de Planck; en los sistemas unificados se denominan tensores. Dependiendo del nivel de observación y del sistema observado, la expresión del paquete puede no ser útil, por lo que entonces (por ejemplo) el ATP sin una capacidad de combinación adecuada, es una pérdida de recursos, el Ión que ha disipado su carga en forma de calor inutil, es una pérdida de recursos, el tensor que ha contribuido a la transacción de cargas para un objetivo ajeno al sistema, ha reducido su efectividad; el bibliotecario despistado que se le olvida el libro siempre bajo la silla, está derrochando sus recursos; la oficina que no logra mantener bajo control sus archivos, derrocha recursos en tiempos de reorganización, reduciendo su producción y aumentando su estrés organizativo. |
Integración de hechos |
Si combinamos ambos hechos, nos queda lo siguiente: Cuanta mayor superficie se deba de tomar en cuenta para la transmisión de la información, esta se corromperá de forma proporcional al cuadrado de la distancia a cubrir. Dicha corrupción tiene una manifestación evidente, en forma de calor, de enfermedad, de resistencia, de agotamiento extremo o de estrés laboral. Esto supone una reorganización constante del sistema, el cual dejará de cumplir con su función en el momento que le falte información. Ante la ausencia de información, el sistemá cesará su actividad y se transformará en otro sistema con un grado mayor de orden. Dicho fenomeno está gobernado por el principio de Libertad Asintótica. |
Enumeración de principios |
Principio de libertad asintótica: Cuando el sistema aparenta alcanzar el estado preferente, es indicación de que los medios por los cuales transfiere la información no están capacitados para procesar la suficiente como para adaptarse a las nuevas necesidades impuestas por el cambio de un médio dinámico. Por lo que el medio cambia más rápido de lo que el sistema podrá adaptarse dentro de su periodo de existencia. Esto marca el paso del tiempo de forma relativa al sistema, observando el futuro más lejano para dicho sistema como el estado en el que las propiedades que lo definen como sistema X dejan de expresarse, siendo de uso por otros sistemas que demandan fragmanetos de información útiles. Esto define otro principio base de los sistemas: La simetría. |
Principio de simetría discreta (TGS base): La simetría física es aquella que solo se puede conceptualizar en la mente, pues dicho estado del sistema inhibe todo tipo de comunicación, al ser esta altamente incierta o con un grado de incertidumbre tan extremo, que no se pueden obtener paquetes claros. Por lo que se requiere un estudio profundo del sistema investigado en base a la estadística. |
Proceso de estudio |
Proceso 1: Se registra lo directamente observado, se asocia un registro de causa y efecto, y para aquellas que han quedado huérfanas (solo se observa la causa pero se desconoce el efecto) se las encasilla como propiedades diferenciales. Estas propiedades nacen de la necesidad de dar explicación al porqué lo observado no corresponde con lo esperado. De esto nacen las propiedades emergentes. |
Proceso 2: Se establecen unos métodos que, aplicados, rompen dicha simetría obteniendo resultados físicos medibles en laboratório. Los que no se corroboran, se abandonan y se especulan otras posibilidades. |
Resumen general |
La entropía está relacionada con la tendencia natural de los objetos a caer en un estado de neutralidad expresiva. Los sistemas tienden a buscar su estado más probable, en el mundo de la física el estado más probable de esos sistemas es simétrico, y el mayor exponente de simetría es la inexpresión de propiedades. A nuestro nivel de realidad, esto se traduce en desorden y desorganización. En otras palabras: Ante un medio caótico, la relación tensorial de todas las fuerzas tenderán a dar un resultado nulo, ofreciendo un margen de expresión tan reducido que, por sí solo es inservible y despreciable. |
En la medida que va disminuyendo la capacidad de transferencia, va aumentando la entropía interna del sistema. |
Propiedad 1: Proceso mediante el cual un sistema tiende a adoptar la tendencia más económica dentro de su esquema de transacción de cargas. |
La dinámica del sistema tiende a disipar su esquema de transacción de cargas, debido a que dicho esquema también está sometido a la propiedad 1, convirtiendolo en un subsistema. |
Lo realmente importante, no es lo despreciable del resultado, sino que surjan otros sistemas tan o más caóticos, de los cuales, los valores despreciables que resultan de la no cancelación absoluta de sus tensores sistemáticos, puedan ser sumados a los del sistema vecino, obteniendo así un resultado exponencial. Por lo que se asocian los niveles de estabilidad a un rango de caos con un resultado relativamente predecible, sin tener que estar observando la incertidumbre que causa la dinámica interna del propio sistema. |
En sistemas relativamente sencillos, el estudio de los tensores que gobiernan la dinámica interna, ha permitido replicarlos para su utilización por el hombre. A medida que se ha avanzado en el estudio interior de los sistemas, se ha logrado ir estudiando sistemas cada vez más complejos. |
Aunque la entropía expresa sus propiedades de forma evidente en sistemas cerrados y aislados, también se evidencian, aunque de forma más discreta, a sistemas abiertos; éstos últimos tienen la capacidad de prolongar la expresión de sus propiedades a partir de la importación y exportación de cargas desde y hacia el ambiente, con este proceso generan neguentropía (entropía negativa), y la variación que existe dentro del sistema en el instante A de tiempo con la existente en el B, se denomina variación de la entalpía.
La Neguentropía, la podemos definir como la fuerza opuesta al segundo principio de la termodinámica, es una fuerza que tiende a producir mayores niveles de orden en los sistemas abiertos. En la medida que el sistema es capaz de no utilizar toda la energía que importa del medio en el proceso de transformación, está ahorrando o acumulando un excedente de energía que es la neguentropia y que puede ser destinada a mantener o mejorar la organización del sistema. La neguentropía, entonces, se refiere a la energía que el sistema es capaz de transferir desde el exterior ambiental hacia el interior. En ese proceso, el sistema cuenta con subsistemas para que, con el estímulo adecuado, adquieran inercia suficiente como para mantener su estado origen y cerrar el ciclo con un resultado emergente, exponencial y de valor cualitativo como es la capacidad de adaptarse al medio. La Entropía la podemos relacionar con la materia y sus propiedades, y predice que ésta tiende a desintegrarse para volver a su estado original de simetría primordial.
La neguentropía la podemos relacionar con la sinergia, colateralidad o cualquier otro resultado que dé como expresión la conservación de la energía; cerrando los ciclos de transformaciones posibles en el momento que uno de los resultados finales del sistema bajo observación, exprese una salida no aprovechable por los sistemas colaterales al observado.
En el caso de sistemas abiertos, las bonanzas del medio permiten administrar los recursos internos de forma que la entropía sea cancelada por los excedentes, y de haber aun más, se pueda incluso replicar. Con suficientes unidades, la entropía aportada al sistema quizás tienda a romper la simetría y discreción de dichos desechos, y como es el caso del Sol, sus radiaciones resultantes de sus procesos entrópicos, puedan alimentar a otros sistemas, como por ejemplo la vida en la tierra. Quizás se entienda como un aumento de los niveles de orden, pero no es más que un paso más para el continuo viaje al punto de colapso. En tal sentido se puede considerar la neguentropía como la expresión de fuerzas naturales que nutren ciertos sistemas de comunicación de transferencia dinámica de cargas, que mediante la saturación de las unidades, estas imponen una limitación a la hora de procesar dichas cargas, sirviendo como mecanismo auto-regulador con capacidad de sustentabilidad, es decir, con una capacidad y un poder inherente de la energía de manifestarse de incontables formas y maneras. La neguentropía favorece la subsistencia del sistema, expresándose mediante mecanismos que tratan situaciones caóticas para su beneficio. Mecanismo por el cual el sistema expresa sus propiedades y muestra una estabilidad consecuente con su capacidad de proceso de energía ante una situación caótica. Por ejemplo, la homeostasis en los organismos.
La construcción de modelos desde la cosmovisión de la teoría general de los sistemas permite la observación de los fenómenos de un todo, a la vez se analiza cada una de sus partes sin descuidar la interrelación entre ellas y su impacto sobre el fenómeno general entendiendo al fenómeno como el SISTEMA, a sus partes integrantes como Subsistemas y al fenómeno general como SUPRASISTEMA
Sistema complejo
Un sistema complejo está compuesto por varias partes interconectadas o entrelazadas cuyos vínculos contienen información adicional y oculta al observador. Como resultado de las interacciones entre elementos, surgen propiedades nuevas que no pueden explicarse a partir de las propiedades de los elementos aislados. Dichas propiedades se denominan propiedades emergentes.
El sistema complicado, en contraposición, también está formado por varias partes pero los enlaces entre éstas no añaden información adicional. Nos basta con saber cómo funciona cada una de ellas para entender el sistema. En un sistema complejo, en cambio, existen variables ocultas cuyo desconocimiento nos impide analizar el sistema con precisión. Así pues, un sistema complejo, posee más información que la que da cada parte independientemente. Para describir un sistema complejo hace falta no solo conocer el funcionamiento de las partes sino conocer como se relacionan entre sí.
Características de los sistemas complejos
El todo es más que la suma de las partes: esta es la llamada concepción holística. Como ya se ha dicho, la información contenida en el sistema en conjunto es superior a la suma de la información de cada parte analizada individualmente.
Comportamiento difícilmente predecible: Debido a la enorme complejidad de estos sistemas la propiedad fundamental que los caracteriza es que poseen un comportamiento impredecible. Sólo somos capaces de prever su evolución futura hasta ciertos límites, siempre suponiendo un margen de error muy creciente con el tiempo. Para realizar predicciones más o menos precisas de un sistema complejo frecuentemente se han de usar métodos matemáticos como la estadística, la probabilidad o las aproximaciones numéricas como los números aleatorios.
En este último método se generan series pseudoaleatorias con un ordenador y se supone que son complejas, intrincadas e impredecibles, como algunos hechos de las sociedades humanas. Esta aplicación de la teoría del caos a los imprecisos movimientos por influencias externas o internas en los sistemas dinámicos, contempla las conductas caóticas como mensurables, deterministas y predecibles. Resumiendo los sistemas no lineales, como unidimensionales y predictores.
Emergencia de un sistema: este concepto es el que relaciona el todo con las partes. Se llama complejidad emergente cuando el comportamiento colectivo de un conjunto de elementos da como resultado de sus interacciones un sistema complejo. Este era el caso de la Tierra como se cita en los ejemplos anteriores. Por otro lado también existe la idea de simplicidad emergente. Esto es cuando a partir de una serie de sistemas complejos surge un sistema simple. El ejemplo más claro es el Sistema Solar que surge a partir de sistemas complejos como los planetas y el Sol. Como vemos, un mismo cuerpo se puede comportar de forma simple o compleja según la escala espacial y/o temporal que escojamos. Así la Tierra en el sistema solar puede aproximarse perfectamente al modelo de masa puntual.
Son sistemas fuera del equilibrio: ello implica que tal sistema no puede automantenerse si no recibe un aporte constante de energía.
Autoorganización: Todo sistema complejo emerge a partir de sus partes y fluctúa hasta quedar fuertemente estabilizado en un atractor. Esto lo logra con la aparición de toda una serie de retroalimentaciones (o realimentaciones) positivas y negativas que atenúan cualquier modificación provocada por un accidente externo. Se puede afirmar que el sistema reacciona ante agresiones externas que pretendan modificar su estructura. Tal capacidad sólo es posible mantenerla sin ayuda externa mediante un aporte constante de energía.
Las interrelaciones están regidas por ecuaciones no-lineales: estas no dan como resultado vectores ni pueden superponerse unas con otras. Normalmente todas ellas pueden expresarse como una superposición de muchas ecuaciones lineales. Pero ahí reside justamente el problema. Solo se pueden tratar de forma aproximada cosa que lleva a la imposibilidad de predicción antes citada. Por otra parte tales ecuaciones suelen tener una fuerte dependencia con las condiciones iniciales del sistema lo que hace aún más difícil, si cabe, evaluar su comportamiento.
Es un sistema abierto y disipativo: energía y materia fluyen a través de él. Pues justamente un sistema complejo, en gran medida se puede considerar como una máquina de generar orden para lo cual necesita del aporte energético constante que ya hemos comentado.
Es un sistema adaptativo: como ya se ha dicho antes el sistema autoorganizado es capaz de reaccionar a estímulos externos respondiendo así ante cualquier situación que amenace su estabilidad como sistema. Experimenta así, fluctuaciones. Esto tiene un límite, naturalmente. Se dice que el sistema se acomoda en un estado y que cuando es apartado de él tiende a hacer todos los esfuerzos posibles para regresar a la situación acomodada. Esto ocurre por ejemplo con el cuerpo humano que lucha constantemente para mantener una misma temperatura corporal, o las estrellas cuya estructura se acomoda para mantener siempre una luminosidad casi constante.
Ejemplos
Un ejemplo típico de sistema complejo es la Tierra.
La tierra está formada por varios sistemas simples que la describen:
Campo gravitatorio.
Campo magnético.
Flujo térmico.
Ondas elásticas.
Geodinámica.
Cada uno de estos sistemas está bien estudiado pero desconocemos la forma en que interactúan y hacen evolucionar el sistema 'Tierra'. Hay, pues, mucha más información oculta en esas interrelaciones de sistemas.
Otros sistemas complejos típicos son:
El tiempo atmosférico.
Terremotos y volcanes.
Los ecosistemas.
Los seres vivos.
La conciencia.
Las Sociedades.
La Ciudades.
Autopoiesis
La autopoiesis (del griego a?t?-, auto, "sí mismo", y p???s??, poiesis, "creación" o "producción"), es un neologismo propuesto en 1971 por los biólogos chilenos Humberto Maturana y Francisco Varela para designar la organización de los sistemas vivos. Una descripción breve sería decir que la autopoiesis es la condición de existencia de los seres vivos en la continua producción de si mismos.
Este término nace de la biología, pero más tarde es adoptado por otras ciencias y otros autores, como por ejemplo por el sociólogo alemán Niklas Luhmann.
Es necesario analizar la autopoiesis desde el punto de vista de los anteriores autores.
Maturana y Varela
Según Maturana y Varela son autopoiéticos los sistemas que presentan una red de procesos u operaciones (que lo define como tal y lo hace distinguible de los demás sistemas), y que pueden crear o destruir elementos del mismo sistema, como respuesta a las perturbaciones del medio. Aunque el sistema cambie estructuralmente, dicha red permanece invariante durante toda su existencia, manteniendo la identidad de este. los seres vivos son sistemas autopoiéticos y que están vivos sólo mientras están en autopoiesis (biología del fenómeno social p5)
Los seres vivos son redes de producciones moleculares en las que las moléculas producidas generan con sus interacciones la misma red que las produce.
Maturana:Transformación en la convivencia
Esta propiedad de los sistemas de producirse a sí mismos es la autopoiesis y define el "acoplamiento" de un sistema a su entorno.
Para Maturana, la autopoiesis es la propiedad básica de los seres vivos puesto que son sistemas determinados en su estructura, es decir, son sistemas tales que cuando algo externo incide sobre ellos, los efectos dependen de ellos mismos, de su estructura en ese instante, y no de lo externo. Los seres vivos son autónomos, en los que su autonomía se da en su autorreferencia y son sistemas cerrados en su dinámica de constitución como sistemas en continua producción de sí mismos.
Aunque un sistema autopoiético se mantiene en desequilibrio puede este conservar una permanencia estructural absorbiendo la energía de su medio permanentemente. Al igual que la célula y los seres vivos, los sistemas autopoiéticos tienen la capacidad de conservar la unión de sus partes e interactuar entre ellas. Los sistemas autopoiéticos son autónomos lo que los hace un sistema cerrado autorregulándose continuamente. Sin embargo, Varela considera que todo sistema autopoiético es autónomo, pero que no todo sistema autónomo es autopoiético.
Otros ejemplos de autopoiesis son la conciencia, un organismo, etc. Estos se constituyen de una red de procesos que logran transformar componentes pero en los que el mismo sistema maneja su identidad con relación al entorno. La autopoiesis designa la manera en que los sistemas mantienen su identidad gracias a procesos internos en que auto-reproducen sus propios componentes.
Estos sistemas están abiertos a su medio porque intercambian materia y energía pero simultáneamente se mantienen cerrados operacionalmente, pues sus operaciones son las que lo distingue del entorno. No obstante, son autónomos en sus operaciones debido a la capacidad que tiene el sistema de reaccionar a los estímulos del medio que lo rodea.
La muerte de un ser vivo por ejemplo puede ser considerada como la disrupción de la autopoiesis ya que la muerte puede resultar de mecanismos de la dinámica interna o mecanismos interruptores de origen externo. En cualquiera de los dos casos, el sistema autopoiético no puede compensar más los efectos de esos mecanismos; lo apropiado es que sí los pueda compensar.
Este enfoque de Maturana es mecanicista, pues explica los sistemas vivos en términos de relaciones y no de propiedades de sus componentes.
Nuestro enfoque será mecanicista: no se aducirán fuerzas ni principios que no se encuentren en el universo físico. No obstante, nuestro problema es la organización de lo vivo y, por ende, lo que nos interesa no son las propiedades de sus componentes, sino los procesos y relaciones entre procesos realizados por medio de componentes.(Maturana:De Máquinas y Seres Vivos, autopoiesis de la organización de lo vivo)
Niklas Luhmann
Luhmann ha utilizado la autopoiesis para presentar un nuevo paradigma teórico: el de los sistemas autopoiéticos, como producto de una reflexión interdisciplinaria sobre los exitosos desarrollos de otras disciplinas. La aplicación del concepto de autopoiesis a los sistemas sociales implica que el carácter auto-rreferencial de estos sistemas no se restringe al plano de sus estructuras sino que incluyen sus elementos y sus componentes es decir, que él mismo construye los elementos de los que consiste.
Luhmann afirma que la autopoiesis no se limita a ser una propiedad de sistemas biológicos o físicos, y la define como la "capacidad universal" de todo sistema para producir "estados propios" bien diferenciados enlazando a estos las operaciones propias del sistema gracias a la "auto-organización" de éste.
El sociólogo pasa así el concepto de un nivel físico a un nivel cognitivo. La intención de Luhmann es buscar equivalentes funcionales a la integración normativa para dar solución al problema que afecta la auto-organización y la auto-producción de las sociedades en contextos de contingencia y riesgo. En ese aspecto introduce el nuevo paradigma autopoiético constituido en torno a la distinción entre sistema y entorno como condición de posibilidad para el sostenimiento del límite, el cual permite las operaciones auto-rreferenciales.
Sin embargo, desde el punto de vista de la teoría de los sistemas, la aplicación del concepto de autopoiesis a los fenómenos sociales ha dado lugar a una importante disputa entre Maturana, Varela y Luhmann.
Si lo que hace a un ser vivo ser vivo, es ser un sistema autopoiético molecular, lo que hace al sistema social sistema social, no puede de ninguna manera ser lo mismo, en tanto el sistema social surge como sistema distinto del sistema vivo al surgir en la distinción como sistema social, aún cuando su realización implique el vivir de los seres vivos que le dan origen.(Maturana:De Máquinas y Seres Vivos, autopoiesis de la organización de lo vivo)
No obstante autores como José Maria García, también muestran lo que a su juicio, constituyen los principales aportes del paradigma autopoiético a la teoría sociológica.
Con el devenir de la teoría autopoiética desde que fue formulada, la relación entre Humberto Maturana y Francisco Varela (que fue alumno suyo), se fue mermando poco a poco. Francisco Varela no estuvo de acuerdo con las proyecciones de la teoría autopoiética más allá del ámbito de lo estrictamente biológico, con las que cada vez más Humberto Maturana fue colaborando y apoyando realizando trabajos interdisciplinarios tal y como se refleja en toda su obra. No en vano, se recalca en uno de los últimos prólogos de su primera obra "De máquinas y seres vivos, autopoiesis y la organización de lo vivo", que esta proyección siempre será fructífera si está relacionada con el operar del sistema nervioso y de los fundamentos de la comunicación humana:
… después de todos estos años mi conclusión es que una extensión a niveles "superiores" no es fructífera y que debe ser dejada de lado, aún para caracterizar un organismo multicelular. Por el contrario, el ligar la autopoiesis como una opción epistemológica más allá de la vida celular, al operar del sistema nervioso y de los fundamentos de la comunicación humana, es claramente fructífero.(Maturana:De Máquinas y Seres Vivos, autopoiesis de la organización de lo vivo)
Su libro de referencia más importante para entender el camino que después tomaría la teoría autopoiética es "El árbol del conocimiento", y es donde se plantea la autopoiesis de los sistemas sociales, los cuales Maturana define como seres vivos de tercer Orden.
Página siguiente |