Descargar

Milenarismo tecnológico: la competencia entre seres humanos y robots inteligentes

Enviado por Antonio Diéguez


Partes: 1, 2

  1. Los robots del anochecer
  2. Ecología de los robots
  3. ¿Quiénes son esos inmortales?
  4. Conclusiones
  5. Referencias

Precisamente los rasgos más característicos de la condición humana –por ejemplo el miedo a la muerte, la aversión hacia el propio cuerpo, el deseo de moralidad o de liberarse de los errores– unidos a un deseo de dominio evolutivo sobre el mundo natural constituyen las fuerzas fundamentales que, de forma creciente, empujan a los humanos para crear máquinas.

B. Mazlish, La cuarta discontinuidad, pp. 308-9.

La posibilidad de crear máquinas con una inteligencia igual o superior a la humana ha dejado de ser desde hace unos años un tema exclusivo de la ciencia-ficción para convertirse en un asunto bajo el escrutinio de la ciencia. El campo de la Inteligencia Artificial (IA) se basa en la aspiración razonada de obtener en un plazo no demasiado lejano tales máquinas inteligentes. O mejor sería decir máquinas con procesos mentales inteligentes, evitando de este modo asumir que la inteligencia sea una propiedad única y homogénea.

Hay ciertamente quienes piensan que esta posibilidad debe ser descartada de antemano, al menos si por inteligencia (o por procesos mentales inteligentes) entendemos algo que no está sometido a reglas predeterminadas, algo que faculta a los seres humanos para reconocer rápidamente lo relevante y lo accesorio en un entorno cambiante, que les permite ser intuitivos y creativos tanto en el terreno de la teoría como en el del arte, algo que incluye la capacidad para comprender significados (contenidos semánticos) y para usar el lenguaje haciendo referencia con él al mundo real; algo, en fin, que tiene como manifestaciones singulares la consciencia y lo que habitualmente llamamos 'sentido común'. Los críticos de la IA insisten en que éstas son características sin las cuales no cabe hablar de inteligencia, y ponen en cuestión que las máquinas puedan desplegar alguna vez tales características (cf. Dreyfus 1993, Weizenbaum 1984 y Searle 1980; para un análisis, véase Martínez Freire 1995, cap. 8).

Estas voces discrepantes –hay que decirlo– no son tenidas muy en cuenta por los científicos e ingenieros implicados directamente en proyectos de IA, y por el momento sus argumentos no son definitivos contra los que presentan los defensores de las máquinas inteligentes, aunque desde luego no carezcan de plausibilidad inicial en muchos aspectos.1 Es cierto que los avances realizados en el campo de la IA –de los que los sistemas expertos y las redes neuronales artificiales son la mejor muestra– no han sido tan rápidos ni tan espectaculares como todavía se esperaba a principios de los 80, pero han sido lo suficientemente importantes como para que las expectativas creadas en torno a dicho campo se mantengan en alza (cf. Martínez Freire 1996).

No es mi intención, sin embargo, entrar aquí en el debate sobre la posibilidad real de crear máquinas superinteligentes, ni en el de la diferencia entre simular la inteligencia y tener inteligencia. Para seguir hasta el final la línea de la argumentación que me interesa desarrollar en estas páginas, supondré que las máquinas inteligentes con capacidades superiores a las humanas estarán a nuestro lado en un futuro más o menos lejano, si bien soy consciente de lo problemática y controvertida que es una suposición como ésta. Lo que haré a continuación será exponer en primer lugar algunas de las implicaciones sociales más radicales que destacados investigadores en IA han extraído de esa posibilidad, e intentaré mostrar después que, incluso aceptando tal suposición, las previsiones que efectúan sobre el mundo que se avecina están muy deficientemente fundadas y deben ser tenidas como posibilidades muy remotas, cuando no como meras fantasías milenaristas.

Los robots del anochecer.

Una cuestión que, con toda su crudeza, ha atraído de modo especial a algunos científicos y figuras relevantes de la IA es la de las relaciones que podrían establecerse entre el ser humano y las máquinas en un futuro en el cual éstas fueran superiores en inteligencia. ¿Qué sucederá con el ser humano cuando estas máquinas superinteligentes sean robots o estén integradas en robots capaces de dotarlas de movimiento y puedan construirse a sí mismas y proliferar de forma rápida? Uno de los primeros en buscar una respuesta fue Edward Fredkin, gerente del Laboratorio de Inteligencia Artificial del Massachusetts Institute of Technology. En 1979 ya había forjado algunas conclusiones al respecto que expuso en una entrevista televisiva:

Hay tres grandes acontecimientos en la historia. Uno, la creación del universo. Otro, la aparición de la vida. El tercero, que creo de igual importancia, es la aparición de la inteligencia artificial. Ésta es una forma de vida [sic] muy diferente, y tiene posibilidades de crecimiento intelectual difíciles de imaginar. Estas máquinas evolucionarán: algunos computadores inteligentes diseñarán otros, y se harán más listos. La cuestión es dónde quedamos nosotros. Es bastante complicado imaginar una máquina millones de veces más lista que la persona más lista y que, sin embargo, siga siendo nuestra esclava y haga lo que queremos. Puede que condesciendan a hablarnos, puede que jueguen a cosas que nos gusten, puede que nos tengan como mascotas.2

Partes: 1, 2
Página siguiente