Ante tal perspectiva no parece muy sensato cruzarse de brazos a esperar que la respuesta venga sólo de la ciencia y la tecnología. Nada garantiza que esa respuesta esté allí, y si nos equivocamos será demasiado tarde para corregir nuestro error. Es una apuesta extremadamente arriesgada confiar solo en la salvación que nos prometen los tecnófilos más optimistas. Esta postura no solo minusvalora los efectos secundarios imprevistos que toda tecnología tiene, sino que ignora además el hecho de que las consecuencias políticas y sociales negativas del progreso tecnológico no pueden ser normalmente resueltas de ese modo, puesto que no se cuestiona, sino que se afianza aún más, el poder de la tecnología sobre los individuos y se reduce el ámbito de la participación democrática delegando en los técnicos el poder de decisión. El desarrollo tecnológico se convierte así en objetivo que no tolera más que aquello que proceda de la cultura científico-técnica de la que se alimenta y queda fuera del alcance de toda crítica sobre sus fundamentos. La cuestión de la legitimidad de las exigencias impuestas al ser humano por dicho desarrollo queda, pues, sin plantearse. Este optimismo asume, en definitiva, un punto de vista instrumental según el cual la tecnología es axiológicamente neutra y pertenece sólo al ámbito de los medios. Este punto de vista, sin embargo, ha sido seriamente cuestionado por diversos autores, desde Heidegger a Langdon Winner.2
Por otro lado, la versión pesimista tampoco resulta aceptable. El pesimismo tiene dos vertientes: están los que no creen que los seres humanos sean capaces de abandonar su egoísmo para adoptar a tiempo soluciones eficaces pero sacrificadas, y, en consecuencia, piensan que éstos no querrán hacer nada para evitar la catástrofe; y están los que consideran que la tecnología pone a los hombres en un camino sin retorno en el que, una vez comenzada la marcha, vienen ya determinados el rumbo y el ritmo de los pasos, y piensan que los hombres no podrán hacer nada para evitar la catástrofe. El primer tipo de pesimismo es un juicio de intenciones con un carácter más sentimental que teórico y no posee la fuerza inhibitoria del segundo. Está por ver si en una situación de peligro para la supervivencia de la civilización o de la propia especie humana los hombres serán incapaces de mostrar la determinación necesaria. En todo caso ha habido circunstancias en las que fueron capaces de organizarse y aceptar sacrificios en aras de un fin valioso, aún cuando no les gustara o se mostraran reacios en principio. No se trata, pues, de un obstáculo imposible de vencer, si bien, ciertamente, no puede saberse de antemano qué grado de sacrificio se considerará aceptable y cómo de difícil ha de ser la situación para que se dé esa aceptación.
Otra cosa es el segundo tipo de pesimismo. Éste va unido a un determinismo tecnológico para el cual el desarrollo de la tecnología se rige por una lógica interna que constriñe el campo de posibles actuaciones humanas hasta el punto de que dicho desarrollo termina por hacerse autónomo y es el sistema técnico el que dicta las pautas de funcionamiento a la sociedad, en lugar de al contrario (cf. Ellul, 1954). De acuerdo con eso, la tecnología, al menos en la forma que ha tomado desde la Revolución Industrial, impone al hombre un modo de ver las cosas y de obrar con ellas. Intentar cambiarlo sería tanto como querer abandonar la técnica. Si el desarrollo tecnológico es autónomo y conduce al desastre, es inútil todo esfuerzo de oposición. Sólo queda prepararse para un naufragio digno.3
El pesimismo es tanto o más arriesgado que el optimismo por cuanto que además de a la pasividad conduce a la desesperanza. Nada más contraproducente que utilizarlo, como en ocasiones se ha hecho, para despertar las conciencias ecológicas dormidas. El discurso pesimista puede dar momentáneamente algunos resultados prácticos, pero después dejará paso al desánimo (si se van cumpliendo las predicciones de los pesimistas) o a la desconfianza (si las predicciones no se cumplen).
Además de ser malos consejeros para la acción, el pesimismo y el optimismo descansan sobre supuestos muy débiles o simplemente falsos. El optimismo se equivoca al pensar que la mejor solución (o la única) de los problemas creados por la tecnología unida al crecimiento industrial consiste en más tecnología. Los embotellamientos de tráfico pueden ser paliados produciendo coches más pequeños o haciendo más carreteras y más anchas (ambas soluciones tecnológicas), pero la solución más racional está en que haya menos coches particulares en las calles y mejores transportes públicos. Para eso no basta con meros cambios técnicos, hace falta un cambio de hábitos y de valores. En realidad se trataría en este caso de las mismas tecnologías usadas de otra manera. Por otra parte, incluso aunque el optimista tuviera razón en que una mejor tecnología podría solucionar los problemas más graves creados por la tecnología, ¿podemos confiar en disponer de esa mejor tecnología con tiempo suficiente?
El pesimismo es más sutil porque puede convertirse en una profecía de auto-cumplimiento: si todos nos volvemos pesimistas será verdad que nadie querrá o podrá hacer nada para evitar el deterioro de las condiciones de vida en este planeta. Pero no tenemos por qué ser pesimistas puesto que no es cierto que estemos abocados a la catástrofe. No hay ninguna lógica interna en el desarrollo de la tecnología que nos lleve irremediablemente a ese final. El determinismo tecnológico es falso; la autonomía de la técnica no es tal que imposibilite el control sobre ella. Entre las fuerzas que mueven el desarrollo tecnológico, que son muy variadas y no todas ellas internas, están las de las diferentes políticas sociales que se adoptan frente a él. La técnica actual es ciertamente difícil de controlar, pero en tanto que producto del hombre es susceptible de control por parte de la sociedad, aunque las medidas tengan que ser enérgicas y de aplicación internacional (cf. Ropohl, 1983 y Niiniluoto, 1990 y 1997). Pocos han sabido expresar esto con tanta claridad como Francis Fukuyama, quien, sin embargo, defendió el determinismo con anterioridad. Estas son sus palabras:
[S]encillamente no es cierto que el ritmo y el alcance del desarrollo tecnológico no puedan controlarse. Existen muchas tecnologías peligrosas, o éticamente controvertidas, que se han sometido a un control político efectivo, como las armas nucleares y la energía nuclear, los misiles balísticos, los agentes de guerra química o biológica, los órganos humanos, las sustancias neurofarmacológicas, etc., que no pueden desarrollarse ni circular libremente en los mercados internacionales. La comunidad internacional ha regulado con efectividad la experimentación con sujetos humanos durante muchos años. Más recientemente la proliferación de los organismos modificados genéticamente (OMG) en la cadena alimentaria se ha detenido en seco en Europa, y los granjeros estadounidenses empiezan a abandonar unos cultivos transgénicos que habían incorporado hacía muy poco. Se puede cuestionar la oportunidad de tal decisión desde un punto de vista científico, pero viene a demostrar que el avance de la biotecnología no es un gigante imparable. (Fukuyama 2002. p. 300).
No es recomendable, pues, dejar por entero en manos de científicos y técnicos la solución de los problemas mencionados ni desesperar de toda solución. De hecho hay razones para la esperanza. En la actualidad, por ejemplo, estamos en condiciones de afrontar el debate ecológico en términos menos partidistas y menos demagógicos que hace algunos años. Los países desarrollados se muestran algo más dispuestos – aunque desde luego todavía no lo suficiente– a llevar la parte de la carga que les corresponde sin dejar caer todo el peso en las espaldas de los países pobres. Estos últimos a su vez empiezan a ver que los problemas ecológicos no son problemas de ricos que deben ser resueltos por los ricos, sino algo en lo que todos estamos implicados y cuya solución va también en su beneficio. El protocolo de Kioto, con todas sus limitaciones, fue una consecuencia muy positiva de este cambio de actitud.
Ahora bien, sea lo que sea lo que podamos hacer y sean lo profundo que hayan de ser los cambios a realizar, éstos no deberían venir impuestos desde arriba por una estructura de poder central y autoritaria. Aun cuando resulte mucho más complicado, para ser efectivos y duraderos, los cambios deberían ser establecidos democráticamente. Una restricción de libertades individuales como la que con toda seguridad comportarán algunas de las medidas a tomar sólo contará con la colaboración de los ciudadanos si éstos las sienten como una necesidad legitimada y no como una imposición injusta. La poca experiencia de la que se dispone enseña además que el control democrático de la técnica es mejor que el burocrático o que el tecnocrático.
Es evidente que todo ello exige una modificación radical de muchas de las ideas éticas, económicas, políticas, filosóficas, etc. que inspiran nuestra conducta actual. La tecnología moderna ha aumentado el poder del hombre hasta cotas que pocos se atrevieron a imaginar, y el aumento de poder, como se ha dicho muchas veces, significa un aumento de la responsabilidad. El ámbito de nuestras responsabilidades se ha ampliado como consecuencia de la técnica y todavía, sin embargo, no estamos dispuestos a reconocer como propias esas responsabilidades nuevas. Parafraseando a R. Ingarden (1980), somos responsables de cosas cuya responsabilidad no asumimos. Una de las primeras manifestaciones del cambio de ideas mencionado debería ser el conocimiento y la asunción de nuestras nuevas responsabilidades.
2. LA TECNOLOGÍA TIENDE A DILUIR LA RESPONSABILIDAD
Existen grandes obstáculos para llevar a cabo una tarea semejante. La rapidez de las transformaciones sociales producidas por la tecnología en las décadas recientes ha hecho que muchos individuos no alcancen a entender correctamente lo que sucede a su alrededor e incluso se sientan enajenados de todo el proceso de desarrollo científico-técnico. Han perdido el marco más o menos estable de roles en el que se encontraban y aún no saben cómo responder ante la realidad que se les presenta. Las situaciones creadas por los avances tecnológicos, en especial en el campo de las biotecnologías, son tan diferentes de las que eran factibles hasta hace poco que los legisladores corren tras ellas siquiera sea para proporcionarles una regulación mínima. Ante tales cambios cunde la desorientación y es difícil saber con claridad dónde estamos y a dónde nos dirigimos. Parece como si en el río revuelto del progreso tecnológico lo que de verdad interesara fuera la realización efectiva de todas las posibilidades a nuestro alcance. Aquí como en ninguna otra parte está vigente ese atributo que Vattimo (1986) asigna a la modernidad: el valor de lo nuevo o la novedad como valor. Mientras tanto el análisis de las consecuencias, el reparto de responsabilidades y el señalamiento de las obligaciones queda para un momento posterior. Se podría decir, parafraseando a Napoleón, on invente, puis on voit.
Pero además, cuando llega la hora, si es que llega, de rendir cuentas por los efectos negativos, nadie quiere darse por aludido. Los ciudadanos culpan a los técnicos y científicos, éstos culpan a los políticos, los políticos culpan a los productores y los productores culpan al mercado (es decir, a los ciudadanos), con lo cual el círculo se cierra. Con un espíritu pilatosiano que afecta a todos, la responsabilidad es atribuida siempre a los demás.4
Hay razones de fondo que explican la dilución que la tecnología hace de las responsabilidades. Por sus propias características la tecnología actual proporciona múltiples justificaciones a aquellos que quieren eludirlas a toda costa. Citemos algunas de esas características:
a) La red de relaciones dentro del sistema técnico se ha hecho tan intrincada que las acciones se vuelven impersonales. Entre el agente y el resultado de su acción se interpone una compleja serie de procesos que alejan a aquél de los efectos reales que causa o contribuye a causar, impidiendo incluso que llegue a conocerlos. La mediación de la tecnología sumerge en el anonimato mutuo a los que la producen y los que la usan. En esas condiciones queda muy debilitada cualquier conciencia de responsabilidad. El técnico que elabora un programa de ordenador capaz de decidir cuáles son los mejores objetivos para bombardear en una batalla no se siente particularmente responsable de las víctimas que el bombardeo causa. En definitiva él considera haberse limitado a resolver un problema técnico de conexión de datos; los que quisieron entrar en guerra o lanzaron las bombas fueron otros, y quien eligió los objetivos concretos fue el ordenador (Cf. Shallis, 1986, pp. 183-186).
b) Las acciones técnicas importantes son planificadas, organizadas y ejecutadas por grupos, no por individuos. La investigación científica y técnica es cada día más una labor de equipos "que ejercen un control limitado sobre los recursos que utilizan y no pueden reclamar la autoría personal de lo que tratan de hacer o de lo que consiguen", equipos que a su vez dependen de poderes "colectivos" como el Estado, el ejercito o la industria (Ziman, 1986, pp. 168). La decisión de aplicar los conocimientos obtenidos a través de la investigación es tomada por juntas directivas, consejos de administración, asambleas de accionistas, comisiones gubernamentales, grupos de expertos, etc. La aplicación efectiva de dichos conocimientos es llevada a cabo a través de grandes industrias, divididas en multitud de departamentos, con un elevado personal. En palabras de Rapp (1981, p. 155): "La acción dentro del marco de la moderna técnica industrial, que con sus métodos de la dominación matemático-espiritual de la naturaleza también ha surgido del desarrollo occidental, se basa precisamente en acciones colectivas cuidadosamente planeadas y sistemáticamente realizadas". O sea, que el responsable es Fuenteovejuna, lo cual debería significar que lo somos todos y, sin embargo, se interpreta como que no lo es nadie.
c) La previsión de las consecuencias que las acciones tecnológicas pueden tener a medio y largo plazo en una sociedad altamente tecnificada es sumamente difícil, y siempre hay efectos imprevistos. Los impactos de cualquier innovación técnica se ramifican profusamente y no dependen sólo de sus propiedades intrínsecas, sino de las circunstancias políticas, económicas y sociales. El impacto de la microelectrónica, por ejemplo, depende del potencial económico de un país, de la cualificación de sus trabajadores, de la mentalidad, del clima de opinión pública, etc. Hay ramas de la tecnología, como es el caso de la ingeniería genética, en las que las consecuencias pueden ser particularmente graves pero también enormemente beneficiosas; lo malo es que nadie dispone del método infalible para separar el grano de la paja. ¿Qué ocurre si buscando un beneficio previsto causamos un daño imprevisto? ¿Es lícito responsabilizar a alguien que con buena información y buena intención provoca un mal que no quería, que no pudo prever y que, por tanto, no pudo evitar? Y si no lo fuera, ¿existe alguna tecnología en la actualidad en la que esto no ocurra?
d) Finalmente, hay una manera aún más básica en la que la tecnología impide la asunción de responsabilidades. Cuando la tecnología se convierte en tecnocracia y se deja que los fines sean puestos por la propia técnica, considerándolos como indiscutibles, el margen de maniobra queda reducido a elegir los medios más eficaces para alcanzar esos fines. La política es entonces sólo gestión, y la democracia, elegir cada cierto tiempo un nuevo equipo de gestores. El experto es erigido juez y la técnica es el código. Desaparece la pregunta por el tipo de sociedad que queremos; se da por sentado que se quiere la que nos proporciona el desarrollo científico-técnico continuo, con el consiguiente desarrollo económico. Se pregunta en algunos países por los nombres de los gestores que más agradan y, si acaso, por el tipo de necesidades que gustaría ver cubiertas por la técnica, pero no se pregunta si se está de acuerdo con el mundo que así se construye. Las cuestiones prácticas esenciales, las relativas a fines, quedan excluidas y, puesto que la solución de las tareas técnicas no puede dejarse en manos de la opinión pública, ésta queda sin funciones (cf. Habermas, 1984, pp. 85-91). Cuando todo ello ocurre, cuando los fines son sustraídos de la discusión, cuando sólo cabe discutir sobre los medios porque la técnica ha suplantado a la ética y a la política, hemos abandonado cualquier posibilidad de atribuir y asumir responsabilidades morales, por la sencilla razón de que hemos acabado con la posibilidad de elegir libremente.
He aquí, pues, algunos de los principales obstáculos para un obrar técnico auténticamente responsable. Como puede apreciarse, no son para resolver de la noche a la mañana, ni pueden ser enfrentados con soluciones simples. No es cuestión de sustituir algunos procedimientos técnicos o algunas prácticas aisladas. Se trata más bien de enfocar la tecnología desde un punto de vista ético renovado.
3. BASES PARA UN OBRAR TECNOLÓGICO RESPONSABLE
Desde hace algunos años, sobre todo a partir de la publicación en 1979 del libro de Hans Jonas Das Prinzip Verantwortung (El principio de responsabilidad), se viene produciendo en el campo de la reflexión ética una intensa discusión sobre la necesidad de cambiar nuestros puntos de vista morales para dar cabida a las cuestiones que plantea el impacto de la tecnología sobre los hombres y la naturaleza. Han cobrado así importancia conceptos como el de bioética o el de ética medioambiental. Algunos, como el propio Jonas, hablan de una ética de la responsabilidad que reemplace a la ética centrada en la justicia o en la buena voluntad.5
También se habla de la conveniencia de establecer derechos humanos basados en la solidaridad y de reconocer obligaciones morales no sólo con el prójimo, sino también con las generaciones futuras e incluso con la naturaleza. Se discute si existen responsabilidades colectivas, derechos de los animales o "fines en sí" más allá de la esfera humana (cf. Jonas, 1979; Apel, 1973; Cortina, 1985 y 1990; Durbin (ed.), 1987; Hottois, 1991; Gómez-Heras, 1997 y Riechmann, 2000).
La justificación o desestimación de estas ideas es labor ardua que compete fundamentalmente a los filósofos de la moral. No obstante, creo que pueden enunciarse algunos principios de carácter general que serían fácilmente aceptables con independencia de la justificación filosófica que se les quiera buscar.
1. Tenemos obligación de obrar responsablemente en lo que a la tecnología se refiere, es decir, debemos obrar sabiendo de qué somos responsables y asumiendo la responsabilidad de nuestras acciones tecnológicas y de sus resultados en la medida en que nos corresponda.
2. El obrar responsablemente en tecnología entraña ante todo la obligación de reparar los daños causados por nuestras acciones tecnológicas, aun cuando no fueran previstos ni producidos voluntariamente. Dichos daños incluyen también aquellos que sólo serían sufridos por las generaciones venideras.
3. Asimismo tenemos obligación (aunque menor que la anterior) de que nuestras acciones tecnológicas contribuyan a un mejoramiento neto de las condiciones en que se desarrolla la vida en este planeta, en especial (pero no exclusivamente) la vida humana, y de que ese mejoramiento se haga de manera justa, repartiendo equitativamente los beneficios y los riesgos. Aquí -dicho sea de paso- los conflictos de prioridades están garantizados.
4. Puesto que el obrar responsable debe ser un obrar consciente, tenemos la obligación de prever hasta donde nos sea posible las consecuencias de nuestras acciones tecnológicas, o en otras palabras, tenemos obligación de conocer y de estar informados.
Estas obligaciones básicas llevan aparejados ciertos derechos. Todos los ciudadanos tienen derecho a participar en el control (positivo y negativo6) de aquellos procesos tecnológicos que puedan afectarles de una u otra manera. Todos tienen derecho a no ser dañados por los efectos perniciosos de la tecnología y a tener acceso a sus efectos beneficiosos. Por último, todos tienen derecho a conocer y a ser informados sobre los posibles riesgos de los procesos tecnológicos que les afecten. El reconocimiento de tales derechos es condición indispensable para que los ciudadanos puedan aceptar esas obligaciones, ya que sin ellos no habría participación democrática en la toma de decisiones sobre el desarrollo tecnológico y, por tanto, la responsabilidad recaería sólo en las manos de la minoría que ejerza el poder de decisión. Por eso, en una sociedad tecnocrática son difícilmente exigibles a los ciudadanos comportamientos responsables frente a la tecnología.
No sería ocioso dar ahora un paso más para concretar algunas de las responsabilidades atribuibles a los distintos estamentos que intervienen en el sistema técnico. Entre las responsabilidades de los gobernantes está la de promover el debate público sobre los fines de la investigación científico-técnica y el uso de la tecnología, así como la de promulgar leyes que preserven el medio ambiente, que favorezcan el control público de la tecnología, que protejan los derechos de los ciudadanos frente a sus efectos dañinos y que distribuyan de un modo justo sus costos y sus beneficios. Por su parte, es responsabilidad de los científicos y los técnicos la previsión, tan completa como sea posible, de los posibles daños que puedan producir sus investigaciones y la autolimitación de las mismas cuando sean incapaces de controlar esos efectos dañinos (un ejemplo digno de alabanza fue la moratoria aceptada en 1975 por los biólogos moleculares en la conferencia de Asilomar). También es su responsabilidad informar verazmente de sus trabajos, sin ocultar los riesgos, denunciar los proyectos de investigación potencialmente peligrosos de los que tengan noticia, y no tomar parte en ninguno que pueda acarrear daños irreparables. Los productores tienen la responsabilidad de fabricar productos seguros que no perjudiquen la salud ni el medio ambiente, de evitar modos de producción que esquilmen los recursos naturales, de informar correctamente sobre lo que venden, de no dejarse guiar en exclusiva por criterios económicos y de corregir los daños causados sobre el hombre o la naturaleza en el proceso de producción. Por fin, los consumidores tienen la responsabilidad de colaborar en la preservación del medio ambiente, de abandonar comportamientos incívicos que contribuyen a deteriorarlo, de evitar el despilfarro en el consumo, de participar en el control de la técnica, de exigir sus derechos frente a ella y de denunciar sus abusos.
Como puede apreciarse, el énfasis está puesto aquí en los individuos que forman esos estamentos sociales. Me he referido a los gobernantes, a los científicos, a los técnicos, a los productores y a los consumidores en lugar de hacerlo al Estado, a los laboratorios, a las empresas o al mercado. Hay una razón para ello. Comparto plenamente la tesis de Zimmerli (1988) de que si bien la tecnología ha ensanchado el "foro" de nuestra responsabilidad –introduciendo a las generaciones futuras– así como su ámbito –dejándonos responsables de consecuencias no queridas–, el sujeto de la responsabilidad sigue siendo el individuo. Resulta equívoco hablar de responsabilidades colectivas. Las colectividades no pueden ser sujeto de responsabilidad moral, que es la que nos interesa, aunque puedan serlo de responsabilidad legal. Por eso, cuando se atribuyen calificaciones morales a los Estados, las empresas, los sistemas económicos, etc., o se afirma que poseen responsabilidades morales, debe entenderse como un modo figurado de hablar, ya que a quienes han de ir dirigidas realmente esas imputaciones es a los individuos que los componen u ocupan puestos estratégicos en ellos.7
Sería bueno sustituir la expresión "responsabilidades colectivas" por la de "responsabilidades compartidas"; así quedaría claro que el sujeto de la responsabilidad moral no es la colectividad en abstracto, sino cada uno de sus miembros en la medida que sea y se contrarrestaría una de las formas de dilución que antes citábamos. Compartir la responsabilidad con los demás es más factible que asumir como propia una supuesta responsabilidad colectiva.
Ahora bien, esto no significa que frente al desafío de la tecnología basten transformaciones en los comportamientos individuales mientras permanece intacto el sistema mundial de relaciones económicas y de instituciones políticas, legales, culturales, militares, etc. La primera exigencia de un obrar tecnológico responsable es la de crear las condiciones necesarias para que la responsabilidad pueda ser asumida, es decir, para que nuestras acciones sean auténticamente conscientes, libres y queridas. La modificación de las actitudes individuales es, pues, insuficiente si no va acompañada de una profunda reorganización social que implante esas condiciones que hoy día no se dan. Sin embargo, la reorganización social puede ser urgida por ciertos cambios en las actitudes individuales, por eso sería un error relegar estos últimos hasta que no se den todas las condiciones generales.
Ante todo es ineludible una toma de conciencia de la situación a la que nos ha conducido la tecnología. Ya escribió Ortega (1939/1979, p. 19) que, contra lo que pueda parecer, a causa de la técnica "la colocación del hombre actual ante su propia vida es más irreal, más inconsciente que la del hombre medieval y tiene menos noción que aquél de las condiciones bajo las cuales vive". Pero no podemos seguir dormidos posponiendo siempre cualquier decisión importante. Hemos de preguntarnos, como propone Winner (1987, p. 34), qué clase de mundo estamos construyendo, cómo alterarán los cambios tecnológicos nuestras formas de vida, cómo afectarán al medio natural. Para ello hace falta una labor educadora que permita sensibilizar al mayor número de personas de las consecuencias de una tecnología descontrolada. Esa labor debería poner de manifiesto que la tecnología no tiene una función meramente instrumental, sino que encarna y despliega valores de diverso tipo, entre ellos valores políticos y morales, y debería contribuir al alumbramiento de una nueva imagen de las relaciones entre el hombre y la naturaleza basadas esta vez en el respeto y no en el dominio.8
Asimismo es necesaria una reflexión crítica sobre los fines que perseguimos. No debe consentirse que la tecnología hurte la discusión pública sobre dichos fines o que se sitúe más allá de la ética y la política. Hemos de preguntarnos si queremos ese mundo que estamos construyendo o si queremos otro distinto. El abandono total de la producción a gran escala y la vuelta a la naturaleza que proponen los partidarios de la "ecología profunda" es una ingenuidad romántica, pero la alternativa no tiene por qué ser el consumismo insaciable.
Pero la elucidación de las implicaciones de la tecnología y su desviación con respecto a los fines deseables no es suficiente. Hemos de propiciar también cambios globales de carácter político y social. Eso puede significar cosas muy dispares. Quizá lo más dolorosamente apremiante sea terminar con la política de insolidaridad de los países ricos con los países del Tercer Mundo. Porque, en efecto, la solución de los principales problemas sociales y medioambientales creados por la tecnología pasa por un desarrollo equilibrado de los países pobres, los cuales no pueden pagar ellos solos la factura que eso acarrea. En un orden similar de prioridades se encuentra el cese de la política armamentista. Por otra parte, hay que elaborar leyes y crear instituciones democráticas que posibiliten el control de la técnica. Dejar que el control lo haga sólo el mercado, suponiendo que una técnica perjudicial no tendrá éxito en él, equivale a no ejercer ningún control. Estas instituciones, entre cuyas funciones básicas estaría la evaluación de los posibles impactos de una técnica antes de su aplicación, deberán situarse en todos los niveles necesarios para que el control sea efectivo. En particular, deberá haber alguna con autoridad mundial capaz de regular los procesos tecnológicos con implicaciones supranacionales. En los ámbitos nacionales las comisiones mixtas compuestas por políticos, técnicos o científicos y ciudadanos pueden desempeñar ese papel y, de hecho, ya lo desempeñan en algunos países como Gran Bretaña (cf. Martínez Freire, 1990). La labor de control ejercida por estas comisiones puede verse muy favorecida por una labor de vigilancia y denuncia llevada a cabo por asociaciones no gubernamentales.
4. CONCLUSIONES
He intentado mostrar que la tecnología tiende a diluir las responsabilidades y que, sin embargo, sin una asunción afectiva de las mismas el desarrollo tecnológico opera sin control y constituye un peligro para la existencia humana. Parece, pues, que cuando más necesitamos de la responsabilidad en nuestras acciones tecnológicas, más difícil resulta que ésta sea asumida. Esto es lo que T. M. T. Coolen (1987) ha llamado "la paradoja pragmática". Sin embargo, frente a lo que el determinismo tecnológico sostiene, esto no tiene por qué ser un proceso irreconducible. Entre las cosas más básicas que cabe hacer para contrarrestar esa tendencia a la dilución de responsabilidades está el propiciar y extender el conocimiento de la situación que hemos descrito, fomentando para ello la discusión pública de los problemas planteados por el desarrollo tecnológico y afianzando la sensibilización de la opinión pública ante los mismos. En esta tarea la propia tecnología –en particular las tecnologías de la información– puede ser de gran utilidad. Si se hace todo esto no tendremos el éxito asegurado, porque nada puede asegurar el futuro, pero mientras algún dios viene a salvarnos, no sería malo que lo intentásemos nosotros.
REFERENCIAS BIBLIOGRÁFICAS
APEL, K. O. 1973: "Das Apriori der Kommunikationsgemeinschaft und die Grundlagen der Ethik", en K. O. APEL, Transformation der Philosophie, vol. II, Frankfurt: Suhrkamp.
COOLEN, T. M. T. 1987: "Philosophical Anthropology and the Problem of Responsibility in Technology", en P. Durbin (ed.), Technology and Responsibility, pp. 41-65.
CORTINA, A. 1985: Razón comunicativa y responsabilidad solidaria, Salamanca: Sígueme.
—— 1990: "Ecologismo y derecho de los pueblos", Claves de la Razón Práctica, nº 8, pp. 28-36.
DURBIN, P. (ed.) 1987: Technology and Responsibility, Dordrecht: Reidel.
ELLUL, J. 1954: La technique ou l"enjeu du siècle, Paris: A. Colin. FRENCH, P. 1984: Collective and Corporate Responsability, New York: Columbia University Press.
FUKUYAMA, F. 2002: El fin del hombre. Consecuencias de la revolución biotecnológica, Barcelona: Ediciones B.
GÓMEZ-HERAS, J. M. (coord.) 1997: Ética del medio ambiente, Madrid: Tecnos.
HABERMAS, J. 1984: Ciencia y técnica como "ideología", trad. M. Jiménez Redondo y M. Garrido, Madrid: Tecnos.
HOTTOIS, G. 1991: El paradigma bioético, trad. M. Carmen Monge, Barcelona: Anthropos.
INGARDEN, R. 1980: Sobre la responsabilidad, trad. Juan Miguel Palacios, Madrid: Dorcas.
JASTROW, R. 1985: El telar mágico, trad. Domingo Santos, Barcelona: Salvat.
JONAS, H. 1979: Das Prinzip Verantwortung: Versuch einer Ethik für die technologische Zivilisation, Frankfurt: Suhrkamp.
LEM, S. 1976: Summa Technologiae, Frankfurt: Insel.
LENK, H. y M. MARING 1998: "Engineering, Management, and Ethics. Two Hats or Three?", Argumentos de Razón Técnica, 1, pp. 49-73.
—— 1999: "Types of Responsibility and Responsibility Conflicts in Science and Technology: An Analysis of Codes of Ethics and Responsibility Problems in Engineering", Argumentos de Razón Técnica, 2, pp. 51-68.
MARTINEZ FREIRE, P. 1990: "Ciencia y sociedad", Philosophica Malacitana, nº 3, pp. 165-175.
MINSKY, M. et alii 1985: Robotics, New York: Omni Publications International.
NIINILUOTO, I. 1990: "Should Technological Imperatives Be Obeyed", International Studies in the Philosophy of Science, 4, 181-187.
—— 1997: "Límites de la tecnología", Arbor, 620, pp. 391-410.
ORTEGA Y GASSET, J. 1939: Meditación de la técnica, Buenos Aires, 7ª ed. Madrid: Revista de Occidente, 1977.
RAPP, F. 1981: Filosofía analítica de la técnica, trad. E. Garzón Valdés, Buenos Aires: Editorial Alfa.
RIECHMANN, J. 2000: Un mundo vulnerable, Madrid: Los libros de la catarata.
ROPOHL, G. 1983: "A Critique of Technological Determinism", en P. T.
DURBIN y F. RAPP (eds.), Philosophy and Technology, Dordrecht: Reidel.
SANMARTIN, J. 1990: Tecnología y futuro humano, Barcelona: Anthropos.
SHALLIS, M. 1986: El ídolo de silicio, trad. José Vicuña, Barcelona: Salvat.
TOFFLER, A. 1985: La tercera ola, trad. Adolfo Martín, Barcelona: Orbis.
VATTIMO, G. 1986: El fin de la modernidad, trad. Alberto L. Bixio, Barcelona: Gedisa.
WINNER, L. 1987: La ballena y el reactor, trad. Elizabeth B. Casals, Barcelona: Gedisa.
ZIMAN, J. 1986: Introducción al estudio de las ciencias, trad. J. Beltrán Ferrer, Barcelona: Ariel.
ZIMMERLI, W. Ch. 1988: "Variety in Technology, Unity in Responsability?", en P.T. DURBIN (ed.), Technology and Contemporary Life, Dordrecht: Reidel.
NOTAS:
1. Para una crítica de este optimismo y de sus supuestos ideológicos cf. J. Sanmartín (1990), cap. 4.
2. Como ha señalado Habermas (1984, pp. 128-129): "A este desafío de la técnica no podemos hacerle frente únicamente con la técnica. Lo que hay que hacer, más bien, es poner en marcha una discusión políticamente eficaz que logre poner en relación de forma racionalmente vinculante el potencial social de saber y poder técnicos con nuestro saber y querer prácticos".
3. Hay que decir que el determinismo también puede ir unido a una visión optimista del desarrollo tecnológico. El imperativo tecnológico: "lo que puede hacerse debe hacerse", tan del gusto de los predicadores del futuro paraíso de la técnica, encierra también la idea de que la tecnología es autónoma y se rige por sus propias normas. Si el determinismo se convierte en catastrofismo cuando va unido al pesimismo, junto al optimismo degenera en una variedad ensayística de la ciencia-ficción. Véase como ilustración Lem (1976), Jastrow (1985), Minsky et alii (1985) y Toffler (1985).
4. La expresión "espíritu pilatosiano" la tomo de Martínez Freire (1990), aunque en mi opinión no debe aplicarse sólo a los científicos. La búsqueda del chivo expiatorio es un deporte común.
5. La distinción weberiana entre una ética de la responsabilidad y una ética de la convicción (desentendida de las consecuencias de las acciones) está en la base de esta propuesta. En una conferencia de 1919 titulada "La política como vocación", Max Weber sostuvo como deseable en la esfera política que la ética de la responsabilidad complementase a la de la convicción.
6. Günter Ropohl (1983, p. 92) distingue entre control positivo y control negativo: "Ejercer control positivo es iniciar un cierto proceso de desarrollo, promoverlo e intensificar su progreso; control negativo, por otro lado, es prevenir un cierto proceso de desarrollo, decelerarlo o paralizarlo". Ropohl considera que el control negativo depende de estructuras centralizadas, mientras que el control positivo puede funcionar bien con las estructuras descentralizadas del mercado.
7. Para un punto de vista contrario véase Peter French (1984) y H. Lenk y M. Maring (1998) y (1999).
8. De nuevo Habermas (1984, p. 62) hace una propuesta interesante: "En lugar de tratar a la naturaleza como un objeto de una disposición posible, se la podría considerar como el interlocutor en una posible interacción".
* Una versión anterior de este trabajo apareció publicada en 1993, en el volumen VI, número 9, páginas 189-200 de Revista de Filosofía.
Autor:
Antonio Diéguez
Departamento de Filosofía
Publicado en José María Atencia y Antonio Diéguez (coords.), Tecnociencia y cultura a comienzos del siglo XXI, Málaga: Servicio de Publicaciones de la Universidad de Málaga, 2004, pp. 311-328.
Página anterior | Volver al principio del trabajo | Página siguiente |