- 1. El nacimiento de Unix. Una auténtica revolución del software
- 2. El laboratorio de inteligencia de Berkeley
- 3. Una necesidad no satisfecha de innovación y de libertad
- 4. Internet, la estructura que conecta
- 5. El núcleo viene del frío
- 6. El proceso de desarrollo del software libre
- 7. Business is business
- 8. El contrapoder de los usuarios
- 9. Para no concluir
- Notas
Enero 2000
El jueves 9 de diciembre de 1999 la compañía VA Linux (1) entra en bolsa en el Nasdaq, el mercado público de las nuevas tecnologías. Las acciones VA Linux, que cotizan al salir 30$ valen al final de la sesión 239,25$. Una subida récord (698% en una sola sesión) para una entrada en bolsa en los EE.UU., pero sobre todo es la primera vez que en circunstancias similares unas acciones terminan la sesión por encima de la barrera de los 200$. Más allá de la anécdota, estos hechos merecen una reflexión. En efecto, el entusiasmo repentino de los medios bursátiles por lo que no era, hasta poco antes, más que un sector marginal en la producción de software ¿es sólo un producto de la ideología americana de la new economy, la creencia en la reconquista del paraíso perdido gracias a las “nuevas tecnologías'' de la comunicación y de lo inmaterial? ¿El capitalismo financiero está cediendo en esto a una simple moda pasajera con la esperanza de obtener algunos beneficios fáciles y rápidos? ¿O quizá es la señal de que el software libre –del que el sistema GNU/Linux es su locomotora– después de haber aumentado espectacularmente contra todo pronóstico el número de usuarios se impone ahora también al conjunto de la economía-mundo? Una de las paradojas de esta situación, y no la menos importante, reside precisamente en la emergencia en el seno mismo de la economía capitalista de un nuevo modelo productivo –el del “software libre''– que se construye por una parte en torno al rechazo de la apropiación privada de las fuentes de innovación y de la producción inmaterial y, sobre todo, por un ciclo de producción totalmente cooperativo.
Es la naturaleza y las modalidades de esta cooperación productiva, excepcional por muchos motivos, lo que nos interesa captar. En efecto, si no nos quedamos en la simple interpretación ideológica que no vería aquí más que una pura (y tradicional) contradicción entre una “alternativa no mercantil'' y la potencia recuperadora del mercado, podremos observar en la emergencia del modelo productivo del software libre, en sus contradicciones y en los envites que se anudan alrededor de su devenir, no solamente elementos de interpretación del capitalismo posindustrial, sino sobre todo indicadores de los envites políticos que se dibujan bastante más allá del sector informático. Pero, para comprender lo que se está tejiendo ahora, nos parece que hace falta antes de nada recorrer una serie de procesos de constitución de saberes, de agregaciones comunitarias y de innovaciones tecno-científicas.
1. El nacimiento de Unix. Una auténtica revolución del software
La informática –nacida en la continuidad de la competición tecnológica de la II Guerra Mundial y desarrollada bajo el aguijón belicoso de la guerra fría– no está todavía, a principio de las años setenta, más que en una etapa quasi-experimental de una tecnología punta infrecuente y costosa. Los ordenadores son principalmente supercalculadoras imponentes, de uso frágil y a veces incierto pero sobre todo prácticamente incapaces de comunicarse entre sí. Un universo particularmente fragmentado en el límite del autismo, en el que los fabricantes ofrecían cada modelo de máquina con su propia sistema, su propio software, su propio lenguaje de programación pero también en el que los propios usuarios –en cuyos círculos restringidos a los programadores-pioneros se les empieza a conocer como hackers— preferían a menudo simplemente “producir'' su propio sistema y sus propios lenguajes de programación adaptados a sus necesidades específicas…
En este contexto aparece un nuevo sistema operativo, Unix, que da radicalmente la vuelta al mundo de la informática.
Según una leyenda, el jefe de AT&T, cansado de los numerosos problemas de incompatibilidad entre los diferentes tratamiento de textos utilizados en aquel momento, habría abierto una importante línea de crédito para intentar resolver este quebradero de cabeza permanente. Ken Thompson –experto en materia de sistemas que procede de los laboratorios– y Dennis Ritchie –el inventor del lenguaje de programación C– se ponen manos a la obra. Rápidamente ponen en evidencia que el verdadero envite no está tanto en hacer compatibles los programas de tratamiento de textos con las diferentes arquitecturas de hardware, sino más bien en hacer que el sistema operativo mismo sea “portable'' a los diferentes tipos de máquinas. Para ellos la evolución del hardware, que vive ya la aparición de los primeros miniordenadores, así como los auténticos progresos en materia de programación, hacen posible y necesaria la concepción de un sistema operativo completamente nuevo que contenga como cualidad intrínseca la posibilidad de la cooperación.
El proyecto Unix, iniciado en 1971, se impone en gran medida a partir de 1974, año en el que se aplica con éxito en numerosos modelos de ordenadores diferentes en los que funciona de manera casi idéntica. El sistema Unix se muestra por lo tanto como un agenciamiento de herramientas informáticas concebidas para combinarse eficazmente las unas con las otras y constituir así un “entorno informático común''. Se impone rápidamente por sus cualidades nuevas: una simplificación para el usuario de la estructura lógica de programación, una concepción modular del sistema que aumenta las posibilidades de adaptación (por ejemplo, en diferentes arquitecturas de hardware). Y sobre todo, Unix es el primer sistema operativo multiusuario y multitarea que se basa en el respeto de estándares abiertos.
2. El laboratorio de inteligencia de Berkeley
El interés de la comunidad universitaria por el sistema Unix cristaliza particularmente en la Universidad de Berkeley, California. En 1974 un grupo de investigadores y estudiantes de Informática adquiere el Unix de AT&T. La empresa les ha cedido por una cantidad razonable el código fuente del sistema (2)
Pero el sistema AT&T requiere para funcionar correctamente en las máquinas de Berkeley algunas mejoras y adaptaciones que aportarán en particular dos jóvenes estudiantes de Informática, Chuck Halley y Bill Joy, con la ayuda del mismo Ken Thompson. De este trabajo –estructurado en torno a a un pequeño equipo de pioneros– saldrá, a principios de 1977, la Berkeley Software Distribution (BSD), una versión del sistema Unix mejorada por los hackers de la Universidad de Berkeley. El sistema BSD, que conoce un verdadero éxito entre los equipos universitarios de todo el mundo, se pondrá al día regularmente durante los años siguientes gracias a las múltiples contribuciones y aportaciones de los mismos usuarios.
En seguida dos versiones Unix, pero sobre todo dos culturas Unix, corren paralelamente para luego enfrentarse. La de Unix System Labs de AT&T por un lado y la de Computers Systems Research Group (CSRG) de Berkeley por el otro; por un lado los mecanismos de innovación de empresa, por otro un proceso cooperativo de innovación en el seno de una comunidad (si bien restringida). El éxito de BSD plantea un problema en seguida a AT&T, que en 1992 lleva al CSRG a los tribunales por haber sobrepasado los términos de la licencia acordada y haber hecho públicos “secretos industriales''. Será el comienzo de una larga batalla jurídica que no acabará hasta 1994, con la venta por parte de AT&T de los Unix System Blacks a la empresa Novell, que se apresura a llegar a un acuerdo. El proyecto BSD no sobrevive sin embargo a la aventura judicial. El acuerdo al que se llegó entonces permite de todos modos sacar una última versión del sistema BSD llamada “4.4 BSD Lite'', bajo licencia libre y desembarazada de toda huella de código perteneciente a AT&T (3).
El final del desarrollo del Unix BSD, a causa de la epopeya judicial del copyright, pone fin a una época. La informática pasa de la era de los pioneros a la de la producción industrial de mercado. Numerosos hackers históricos abandonan los laboratorios para formar su propia empresa o se integran en los mayoristas del sector. La empresa Sun, por ejemplo, surge directamente del vivero de la Universidad de Berkeley donde fue concebida la versión BSD de Unix.
Esta situación tiene dos consecuencias principales. En primer lugar, la de conducir a una verdadera balcanizacion de los diferentes sistemas basados en Unix, hasta las diferentes tentativas de relanzar el proyecto BSD fuera del marco universitario (NetBSD, FreeBSD, OpenBSD). Cada una desarrolla sus propia variantes, sus propias implementaciones en detrimento la mayor parte de las veces de la compatibilidad. Y, en segundo lugar, encierra al desarrollo informático en lo que será llamado “sistema propietario'', es decir, la aplicación estricta por parte de las empresas del principio de propiedad privada a toda producción de software, excluyendo así toda publicidad del código y por lo tanto toda participación de los usuarios en su desarrollo. Lo que, en otros términos, lleva a impedir cualquier innovación en el seno de un producto terminado.
3. Una necesidad no satisfecha de innovación y de libertad
Anticipándose a ese callejón sin salida, en 1984 Richard M. Stallman lanza el movimiento del software libre (“Free Software Foundation'') con el objetivo político de oponerse a la apropiación privada de la inteligencia informática (el software) por parte de las empresas del sector. Pero ¿qué es eso del software libre? Podemos decir que un programa es libre si “tienes la libertad para ejecutarlo, sea cual sea el motivo por el que quieres hacerlo; tienes la libertad de modificar el programa para adaptarlo a tus necesidades (en la práctica, para que esta libertad tenga efecto, tienes que poder acceder al código fuente, ya que introducir modificaciones en un programa del que no se dispone del código fuente es un ejercicio extremadamente difícil); dispones de la libertad de redistribuir copias, ya sea gratuitamente o a cambio de una cantidad de dinero; tienes libertad para distribuir versiones modificadas del programa, de tal manera que la comunidad pueda beneficiarse de tus mejoras'' (4)
Con la constitución de la FSF y del proyecto GNU (5) Stallman y otros hackers se empeñan en el objetivo de construir un sistema operativo de tipo Unix completamente basado en software libre…“Un sistema operativo permite hacer muchas cosas; sin sistema el ordenador ni siquiera puede funcionar. Un sistema operativo libre haría de nuevo posible una comunidad de hackers trabajando de modo cooperativo –e invitar a que se nos uniera quien quisiese. Todos y cada uno podrían utilizar un ordenador sin tener que sumarse a una conspiración que buscaba privar a tus propios amigos de los programas que utilizas.'' (6)
Una tarea descomunal que pasa primero por el desarrollo de programas libres (bajo etiqueta GNU) que correspondan a las funciones esenciales requeridas por un sistema operativo (compiladores, editores de texto, etc.). Pero también una formalización del estatuto del software libre de manera que lo que se desarrolle como código libre no pueda ser después transformado en “software propietario'', privando de este modo a los usuarios de toda libertad de uso. Se trata de la creación del principio de copyleft –por oposición al copyright– y sobre todo de su puesta en marcha bajo la forma de la licencia libre GPL. Esto plantea al mismo tiempo la libertad de uso y de modificación del código bajo GPL y la imposición de que todo programa que integre todo o una parte tenga que ser imperativamente a su vez software libre (7).
4. Internet, la estructura que conecta
No es posible hablar de lo que ha ocurrido en el mundo de la informática y del software sin evocar el papel determinante de Internet. A partir de la experimentación de las primeras redes telemáticas, a fines de los años cincuenta bajo la égida de la investigación militar avanzada (ARPA), esta forma de comunicación seduce a los investigadores y a los informáticos por sus potencialidades en materia de intercambio de datos de manera horizontal y por la posibilidad de la cooperación a distancia.
Sin duda no es casualidad que el sistema Unix incluya de principio sus propios protocolos de red (UUCP e IP), que permiten a dos ordenadores funcionando bajo Unix intercambiarse mensajes electrónicos a través de líneas telefónicas ordinarias. Las máquinas Unix crearán muy pronto una red en la red, de la que saldrá en 1980 la red Usenet (la de los newsgroups, los forums electrónicos hoy parte integrante de Internet), que en seguida superará en amplitud a ARPAnet (8)
. Este sistema de relaciones sociales a distancia (9), a través de la escritura transportada de un ordenador a otro, no podía quedar confinada al mundo de la investigación. Los investigadores mismos son frecuentemente jóvenes y tienen inquietudes diversas, desde la política a la música, de la filosofía zen al deporte, gradualmente el uso de la red comienza a “desviarse'' de su función primera que es la de conectar los superordenadores de los laboratorios de investigación y crean áreas de discusión dedicadas a los temas más diversos.
La red deviene un instrumento autónomo en manos de comunidades de investigadores. Un instrumento que funciona como una máquina de guerra para la circulación de procesos cognitivos pero también como máquina subjetiva para la constitución de espacios comunitarios virtuales. Así, lo que circula a través de las líneas telefónicas (correo, newsgroups) es más que una suma de simples datos académicos: la comunicación electrónica se convierte en el vector de agregación de microcomunidades de intereses, de cooperación en proyectos comunes. De hecho el sistema GNU/Linux llega en un momento en el que la cooperación se ha hecho posible a gran escala a través de la red. Podemos incluso decir que es de alguna manera la primera producción “palpable'' de Internet, es decir, la primera vez que la red de redes materializa otra cosa diferente que ella misma.
A principios de los años noventa, un joven estudiante finlandés, Linus Torvalds, sorprende proponiendo casi por azar un nuevo sistema operativo construido alrededor de un núcleo (10) muy pronto bautizado como “Linux''. Linus deseaba simplemente poder ejecutar en su casa, en su propio PC, los programas que él mismo realizaba o utilizaba en su carrera. Como su universidad estaba equipada con ordenadores de tipo Unix, Linus se propuso crear un sistema Unix libre de derechos que pudiera funcionar con una arquitectura hardware de tipo Intel (los PC), los microordenadores más corrientes.
De hecho, en ese momento, la tarea no era tan dura como parece. El proyecto GNU de la Free Software Foundation (FSF) se había ocupado ya de redesarrollar la mayor parte de los comandos Unix, así como cierto número de software fundamental como el compilador GCC. Un Unix libre, diferente del sistema BSD, ya había sido casi realizado, pero la FSF no había anticipado correctamente el desarrollo formidable del PC. Los programas de GNU eran instalados por administradores del sistema atentos al rendimiento y a la portabilidad sobre los miniordenadores que funcionaran con Unix. La idea genial de Linus fue centrarse en la concepción y realización de un núcleo capaz de interactuar con los programas de GNU, llevando el conjunto a los ordenadores personales.
Eric S. Raymond relata así su descubrimiento de GNU/Linux: “El encuentro con Linux fue un shock. A pesar de llevar bastantes años de actividad en la cultura hacker, todavía arrastraba la idea no contrastada de que los hackers amateurs, aun los más dotados, no podrían juntar jamás los recursos suficientes ni el talento para producir un sistema operativo multitarea utilizable[…] Observar este exceso de código maravilloso desplegado ante mis ojos fue una experiencia bastante más potente que contentarme con saber, desde un punto de vista únicamente intelectual, que todas los trozos existían probablemente ya en alguna parte. Es como si me hubiera estado paseando durante años en medio de montones de piezas de recambio desparejadas y me encuentro de repente enfrente de esas mismas piezas juntadas bajo la forma de un Ferrari rojo y rutilante, con las puertas abiertas, las llaves bailando en el contacto y el motor rugiendo promesas de potencia… Las tradiciones hackers que yo venía observando durante los últimos veinte años cobraban de repente vida de un modo nuevo y vibrante. (11)'
Concebido de manera casi confidencial en 1990, el sistema GNU/Linux se revela realmente en 1993. En nada de tiempo, se contagia lo que queda de las comunidades de hackers dispersas en el mundo y la joven comunidad de los nuevos usuarios de PC, que pasan así del bricolaje en MS-DOS a la programación en Linux. Algunos han dicho a propósito de Linux que era “el summum del hack''. Tras el énfasis de esta expresión, se constata que efectivamente el sistema construido en torno al núcleo linux potencia el conjunto del patrimonio del código acumulado durante dos decenios por toda la comunidad. Se revela como el sistema operativo más portable, puesto que funciona no solamente sobre arquitecturas Intel, sino también con PowerPC (Macintosh, IBM, Amiga), Sparc (Sun). GNU/Linux es también una plataforma opcional para sistemas empotrados: en pocos años, equipamientos tan diversos como autorradios, lavadoras o cafeteras llevarán este sistema incorporado.
6. El proceso de desarrollo del software libre
La verdadera innovación del sistema GNU/Linux no reside solo en su dimensión “tecnológica'' (el núcleo portable), sino en los mecanismos sociales de producción de la innovación que se ponen en juego alrededor suyo. En efecto, una de las mayores fuerzas de este sistema operativo –que puede explicar ampliamente su éxito actual– es no solamente su fuerte contenido innovador, sino sobre todo haberlo basado en el potencial creativo existente en el software libre, y después en la utilización de la red Internet como espacio en el que se elaboran nuevos proyectos y en el que se pone en marcha una cooperación masiva y abierta. Retomando en gran medida los métodos de trabajo “comunitario'' puestos en marcha durante un tiempo en torno a la rama BSD/Unix, o del Massachussets Institute Technology (MIT), el desarrollo del código no será ya un acto aislado, ni como actividad personal ni en el marco empresarial, sino un verdadero proceso de cooperación en el que la relación producción/utilización tiende a diluirse. Los primeros usuarios del sistema son los mismos que lo desarrollan; del mismo modo podríamos decir que los primeros que lo desarrollan son sus propios usuarios.
El proceso de creación del software libre –contrariamente al “software propietario''– escapa a cualquier aproximación estilo marketing, basándose más bien en la noción de utilidad social. Alguien utiliza un programa y constata que no corresponde exactamente a sus necesidades, ya sea porque faltan algunas funcionalidades, ya sea porque su concepción no le satisface. Hace entonces el inventario de los programas existentes para comprobar si puede utilizar otro producto. Si este no es el caso, puede intentar la modificación del código fuente de un programa ya desarrollado o bien crear un software completamente nuevo, y en este último caso recurrir, vía listas de correo o grupos de news, a todos aquellos que expresen la misma necesidad para unir sus fuerzas y dar cuerpo a un nuevo software, por lo general retomando el código libre existente. Por tanto, la participación en un nuevo proyecto puede adoptar múltiples formas. Un usuario aguerrido puede aportar documentación pero también exponer una modificación del código –llamado patch o “parche''– al “mantenedor'' del software (12).
Pero el usuario final también puede expresar sencillamente su opinión sobre tal o cual problema particular no anticipado por los desarrolladores o corregir un “bug'' (fallo) menor. La capacidad de los autores de software libre para recurrir a la comunidad tanto para proponer mejoras como para reforzar el equipo de desarrollo es un factor determinante. Y de hecho, se constata que cuanto más abierto es un proyecto, más presiona la comunidad a los desarrolladores para que mejoren (o completen) su “producto'' y para hacer frente a los riesgos de los inevitables abandonos de miembros del equipo.
En un texto que se ha hecho famoso, “La catedral y el bazar'' (1998) (13), Eric S. Raymond ha propuesto lo que denomina el “bazar'' frente a la “catedral'', el modelo comercial tradicional de desarrollo. Raymond señala que, como las fuentes del código se pueden descargar libremente, la corrección de los bugs (o errores) se hace a un ritmo sostenido. Según Raymond, esto explica por qué los programas son generalmente fiables. En el ciclo de vida tradicional del software, la fase de pruebas representa frecuentemente más de un tercio del tiempo de trabajo consagrado a un producto. Al contrario, en la economía del software libre son los usuarios quienes se encargan de este tipo de tareas y quienes proponen las correcciones.
El tipo de organización descrita por Raymond se ha ido afinando desde entonces. Como la cooperación en red ha borrado las fronteras, los programadores de todos los países y de todos los medios están invitados a participar en los proyectos más diversos. Pasamos aquí a otra escala, lejos de los modelos de producción empresarial clásica. Conscientes de los riesgos de desviación del modelo “bazar'' hacia un modelo “consejo municipal'' (a fuerza de hablar, ya no hacemos nada) (14), las comunidades han respondido de manera pragmática adoptando procedimientos técnicos que modifican las estructuras organizativas: el desarrollo se hace en red, con la ayuda de herramientas que automatizan las fastidiosas actualizaciones del código fuente. Surgen sofisticados sitios web dedicados al desarrollo en grupo y a la cartografía de bugs, siendo uno de los más interesantes el del proyecto Gnome (software de escritorio completamente libre). Tan seductor como devorador de tiempo ¿cómo podría resistir este modelo a los empellones de las grandes empresas informáticas, que desde 1998 invierten masivamente en el suministro de software para GNU/Linux? ¿Cómo por otra parte asegurar una remuneración correcta a los desarrolladores de software libre? En fin, ¿la comunidad que hace desarrollar este sistema ha tomado precauciones contra un control externo?
El sistema GNU/Linux será de ahora en adelante un “blanco'' privilegiado para los productores de programas. IBM, Oracle, Inprise (antes Borland), Sun (inventor del lenguaje Java), sin olvidar el precursor Netscape y más recientemente Matra proponen portar sus productos de referencia a GNU/Linux. Lo importante aquí es subrayar que estos productores han escogido estrategias diferentes e incluso opuestas para conquistar este mercado que, hay que recordar, no es para nada “cautivo''. La mayor parte de las versiones GNU/Linux de los programas que ofrecen estas empresas son gratuitos. Se puede descargar libremente el producto completo desde Internet o, como mínimo, una versión básica totalmente correcta (15).
La disponibilidad (liberación) del código fuente choca sin embargo con la concepción tradicional de los “decididores'' de la economía del sector: los secretos de fabricación tienen que estar bien guardados cuando tan siquiera los beneficios surgen de la venta de programas (con la notable excepción de Microsoft), sino del suministro de servicios para las empresas. La presión de la comunidad de usuarios de programas es sin embargo bastante fuerte, por eso IBM ha anunciado que el código de su base de datos DB2 estará disponible gratuitamente.
La apuesta más audaz la ha llevado a cabo la empresa Netscape, persuadida por Eric Raymond. Para hacer frente a serias pérdidas de mercado, Netscape ha decidido liberar a la comunidad de desarrolladores el código de su software de navegación web, rebautizado al efecto como Mozilla. Netscape redistribuye su producto bajo una nueva licencia, la NPL (Netscape Public License), ya que según Eric Raymond las licencias GPL y BSD no podían aplicarse en este caso pues el código de Mozilla contiene partes desarrolladas por terceras empresas que todavía detentan copyright cerrado.
¿Cabría decir que actualmente, como parecen pensar los promotores del open source (16), las estructuras y los modos de organización preconizados por la FSF constituyen un obstáculo para el desarrollo de Linux cuando limita la inversión de productores de software? No pensamos que esto sea así. Al contrario, existen muchas empresas que distribuyen ya desde hace tiempo sus productos bajo licencia GPL. El contrato está claro: la comunidad se encarga de coordinar el desarrollo del producto y la empresa le asegura que el software esté siempre disponible y sea adaptable. Este es el caso de la compañía AbiSoft, que desarrolla un procesador de textos llamado Abiword. También es el caso de la empresa Cygnus –recientemente adquirida por Red Hat– que desarrolla el compilador egcs, sucesor de GCC, adoptado entre otras por la NASA. El software libre ejerce muchas veces de vector de reconocimiento para la empresa que gana su dinero de otra manera (venta de CDs, manuales, asistencia, etc.). El modelo estadounidense de las start-up permite recaudar fondos para financiar desarrollos de software libre. La empresa parisina Mandrake Soft emplea así programadores cuya tarea consiste en participar en la realización de una suite de oficina bajo licencia GPL (KOffice). El desarrollo de este software no está bajo la responsabilidad de Mandrake Soft, que pone simplemente recursos humanos y materiales a disposición del proyecto. Aunque este tipo de cooperación no es fundamentalmente nuevo –el servidor gráfico de Unix, XWindow, ha sido desarrollado por un consorcio que reagrupaba a sus principales vendedores–, su originalidad reside en el hecho de que los proyectos asocian desarrolladores asalariados pero también altruistas. Estos últimos se ven ampliamente recompensados: además de la satisfacción personal y su valoración por parte de la comunidad, la participación en el desarrollo de software es un triunfo innegable que se menciona en un currículum. Añadamos para terminar que numerosos proyectos informáticos de final de carrera conciernen a sistemas GNU/Linux.
Bob Young, el patrón de Red Hat, estima en un 70% la proporción de desarrolladores GNU/Linux remunerados (17). Aunque este porcentaje resulta un poco excesivo, conviene considerar que muchas personas que trabajan en la enseñanza superior y la investigación participan en el desarrollo o en la mejora de GNU/Linux en sus lugares de trabajo: el software libre se beneficia por lo tanto de una financiación indirecta muy importante.
8. El contrapoder de los usuarios
El devenir del sistema GNU/Linux suscita ya muchísimas interrogaciones e inquietudes, concretamente sobre el riesgo supuesto de una “recuperación por parte del mercado''. Pensamos que hay tres razones principales que demuestran de qué manera este sistema ofrece serias garantías de independencia.
La primera es de orden jurídico: el sistema se distribuye bajo licencia GPL. Eso significa, como ya hemos visto, que todo producto que contiene una parte, por mínima que sea, de código bajo GPL, ha de ser él mismo distribuido exclusivamente bajo licencia GPL. Como el corazón del sistema ha sido realizado pro cientos de programadores, esto significa que tendrían que ponerse todos de acuerdo para un cambio eventual del estatus jurídico. Aunque el reconocimiento legal de la GPL no sea evidente, sí bloquea cualquier tentativa de captación. Además, la marca “linux'' –en sí misma un contrasentido– ha sido depositada por un grupo que defiende ferozmente la identidad del sistema: Linus Torvalds es por el momento su depositario. La segunda razón es de orden técnico: contrariamente a Windows o a MacOS (antes de la futura versión X), el sistema GNU/Linux –heredado de Unix– está construido en forma de capas sucesivas que se apoyan en normas y estándares abiertos. Tenemos el núcleo, la capa de red, los comandos desarrollados por GNU, la capa de base gráfica de la que se ocupa el consorcio XFree, los innumerables “gestores de ventanas'' (de fvwm a enlightenment, pasando por WindowMaker y AfterStep), los programas de oficina (Gnome, KDE, etc.) y, para terminar, todas las aplicaciones. Un conjunto complejo del que evidentemente no es propietaria ninguna empresa ni ningún organismo.
La tercera razón es política. Los usuarios dependen de su sistema, la disponibilidad y la gratuidad del código son para ellos un auténtico empeño, a pesar de que la variable “política'' sólo sale a relucir excepcionalmente. Para muchos de ellos, el software libre es una prolongación del espíritu de la contracultura de los últimas décadas (18)
Admitiendo que un depredador llegase a tomar el control de núcleo –aunque no se sabe cómo podría hacerlo– existen sistemas igualmente libres e igualmente basados en Unix, como la familia de los BSD herederos de la rama Berkeley (FreeBSD, OpenBSD y NetBSD) o como Hurd, el núcleo oficial de GNU, que también pueden hacer funcionar los programas Linux en las mismas condiciones. La comunidad abandonaría por lo tanto el barco con armas y equipaje y al cabo de un año todo el mundo habría olvidado Linux…
El modelo de software libre trastoca la concepción que podíamos tener de la cooperación y de la innovación. Hay que constatar que nos encontramos por primera vez en presencia de una cooperación masiva, planetaria, altamente valorizable, asegurada conjuntamente por empresas, es cierto, pero sobre todo por un conjunto de sujetos autónomos, a la vez en el corazón del sistema capitalista pero también afuera, es decir, más allá.
Tradicionalmente, se venía diciendo con Schumpeter que el empresario era el motor de la innovación mientras que el marxismo ortodoxo ponía el acento en el “progreso social'' como el fruto de las luchas de masas. El operaismo italiano efectúa un salto cualitativo sosteniendo que la lucha de clases es lo que determina el desarrollo capitalista: la innovación se plantea entonces a la vez como una apuesta de la lucha y como el producto de la relación de fuerzas entre el capital y la clase obrera (19).
1Siguiendo este hilo, esto significa que la cooperación solo puede ser concebida como exclusivamente puesta en marcha en el interior de la esfera de la producción capitalista. El desarrollo del proceso cooperativo de producción de software libre alrededor del sistema GNU/Linux –con su fuerte contenido innovador–, a pesar de no encontrarse fuera de la dinámica de producción capitalista, pone en marcha fuerzas sociales que se determinan en gran medida fuera de la maquinaria económica. La circulación de saberes, la identificación colectiva con una ética de compartir el conocimiento, las prácticas de creación colectiva en red o los intentos de “moralización'' de la relación mercantil, etc. sugieren que estamos en presencia de sujetos sociales híbridos, actores de un formidable despegue productivo, pero también actores de una verdadera movilización hacia la conquista de nuevos derechos.
Creemos, con Manuel Castells, que “el paradigma de las tecnologías de la información proporciona las bases materiales de su extensión al conjunto de la estructura social'' (20).
. Un modelo de cooperación social productiva ha surgido en torno al software libre: todavía no sabemos si podrá extenderse a otros sectores de la producción inmaterial…para constituir un nuevo paradigma productivo.
En torno a la necesaria lectura política de esta realidad que va cobrando forma, así como de su necesaria interpretación en términos que vaya más allá de las categorías de la economía política y de la ideología, nos parece necesario interpretar en lo sucesivo el fénomeno “GNU/Linux'' o, para ser más precisos, el proceso de cooperación social ampliada que ha cristalizado alrededor de comunidades de desarrolladores y usuarios de este sistema informático libre.
1. VA Linux es una sociedad especializada en dar soluciones informáticas basadas en software libre a las empresas. http://www.valinux.com
2. Teniendo en cuenta la diversidad de hardware, era corriente en aquel momento que las empresas facilitaran el código fuente de los programas o del sistema (es decir, “el secreto de fabricación''), sin el que hubiera sido imposible adaptarlos o hacerlos funcionar. La universidad, que no posee más que rudos sistemas compartidos entre varios departamentos, está interesada en equipar a a cada uno de ellos con miniordenadores bajo Unix, más apropiados y de uso más flexible.
3. Para un relato detallado de la aventura del Unix BSD, ver el artículo de Marshall McKusick, que se titula “Twenty Years of Berkeley Unix. From AT&T-Owned to Freely Redistributable'', en VV.AA. Open Sources. Voices from the Open Source Revolution, Editions O'Reilly, 1999. Hay disponible una versión íntegra en línea en el sitio del editor estadounidense http://www.oreilly.com/catalog/opensources/book/toc.html
4. Richard Stallman, “The GNU Operating System and the Free Software Movement'' en VV.AA. Open Sources. Voices from the Open Source Revolution. [Existe traducción castellana de este importante artículo en: http://www.fsf.org/gnu/thegnuproject.es.html]
5. Creado según el principio del acrónimo recursivo, GNU significa “Gnu's Not UNIX'', es un guiño de los tiempos en los que el copyright sobre el término Unix obligaba a los sistemas tipo Unix a denominarse Unix like o Un*x.
6. R. Stallman, obra citada.
7. La versión oficial de la GPL está disponible en www.gnu.org/copyleft/gpl.html. [Existen varias traducciones castellanas no oficiales en lucas.hispalinux.es/Otros/gples/gples.html]
8. ARPAnet es una red electrónica experimental puesta en marcha por la Advanced Research Project Agency (ARPA), dependencia del Departamento de Defensa estadounidense. En términos estrictos, de la fusión de ARPAnet entre otras con las redes universitarias y Usenet nacerá Internet.
9. Sobre la naturaleza de las relaciones humanas en red, ver Jean-Louis Weissberg.
10. El núcleo o kernel es prácticamente el corazón de un sistema de tipo Unix, el elemento alrededor del cual se agencian los módulos, los comandos, las bibliotecas y los programas para componer un sistema operativo en su conjunto. El término Linux designa de hecho el núcleo de un sistema llamado GNU/Linux.
11. Eric Raymond, “The revenge of the hackers'', en VV.AA. Open Sources. Voices from the Open Source Revolution.
12. Cada programa libre tiene una persona (a veces dos) que asume la tarea del “mantenimiento'' del código y esto resulta ciertamente crucial. Tiene que añadir constantemente nuevas funcionalidades al software, al mismo tiempo que vela por su calidad y su estabilidad. Tiene que responder sobre todo a las peticiones de los usuarios, incorporando mejoras o modificaciones propuestas por estos últimos. Cuanto más importante es el proyecto, más evoluciona hacia funciones de coordinación o de arbitraje, siendo estos conflictos entre desarrolladores bastante frecuentes. Es por ejemplo la función actual del creador de Linux, Linus Torvalds, cuya autoridad en el desarrollo del núcleo es incontestable.
13. Una traducción castellana se encuentra disponible en: http://lucas.hispalinux.es/Otros/catedral-bazar/
14. Ver el texto de Alan Cox, uno de los principales hackers del núcleo Linux, “La catedral, el bazar y el consejo municipal'', publicado originalmente en http://www.slashdot.org/features/98/10/13/1423253
15. El caso de la suite de oficina StarOffice es bastante emblemática: su uso se ha hecho totalmente gratuito después de la compra por parte de Sun de la empresa que lo había desarrollado…sin embargo sus fuentes siguen sin estar disponibles [N. de la T. En agosto de 2000 Sun publicó bajo licencia libre GPL las fuentes de esta suite ofimática multiplataforma, un clon del Office de Microsoft, rebautizada ahora como OpenOffice.]
16. La Open Source Initiative (OSI) surgió como propuesta de algunos hackers –Eric Raymond entre ellos– para acabar con una ambigüedad (free en inglés, significa “libre'' pero también “gratis'') y con un término que al parecer podía disuadir a las empresas, pero a cambio ha introducido otras ambigüedades tal vez peores: con el concepto open source (“fuente abierta'') que proponen como sustituto a “software libre'' se pone solo el acento en que el código fuente esté disponible, sin incidir en las otras tres libertades (poder copiar, poder modificar y poder redistribuir libremente), por mucho que en su definición también lo incluyan. Pero lo peor es que ha servido sobre todo para crear confusión, pues algunas empresas usan la marca “open source'' como estrategia de marketing para etiquetar software que no lo es. [N. de la T.]
17. Entrevista en Langages & Systèmes, noviembre 1999.
18. El mismo Richard Stallman fue, a comienzos de los años setenta cuando era estudiante, uno de los animadores del free speech movement en el campus de la Universidad de Berkeley, como nos cuenta en una entrevista el magazine italiano Decoder.
19. Raniero Panzieri, “Capitalisme et machinisme'', en Luttes ovrières et capitalisme d'aujourd'hui, Colección “Cahiers Libres'', ediciones François Maspéro, 1968.
20. Manuel Castells, La societé en reseau, Fayard, 1998 [Traducción castellana: “La sociedad red'', Alianza, 1997]
Aris Papathéodorou
Copyright ©2000 Laurent Moineau y Aris Papathéodorou
Se permite la copia literal e íntegra de este artículo siempre y cuando esta nota se preserve.
Traducción castellana: Marisa Pérez Colina y Miquel Vidal, de sinDominio.net