Descargar

Singularidad tecnológica (página 2)


Partes: 1, 2

Como he dicho en otras ocasiones, el problema no es de si podemos controlar a la IA sino de cuáles son nuestros intereses y cuales nuestros ideales, pienso que el verdadero problema está más en nuestra propia mentalidad y en lo que esperamos de las máquinas, ya que estas se insertarán en nuestro contexto; o como un colaborador, si somos capaces de serlo; o en un competidor, si seguimos enfrentándonos los unos a los otros. Tampoco creo que los expertos desde sus centros de investigación puedan encontrar los mejores resultados, los problemas nunca se han podido resolver con propuestas, y sobre todo si estas no van a la causa de los problemas: nuestra mentalidad individualista, consumista, competitiva y hegemónica, que nos lleva a vivir en constante enfrentamiento. Ahora, ¿quien le pone el cascabel al gato? Los problemas siguen "vivitos y coleando", y como solución se propone una tecno-utopía, donde las tecnologías vendrán a resolver todos los problemas como por arte de magia, ya no hay que preocuparse del medio ambiente, de la contaminación, de los enfrentamientos, de la pobreza… Por supuesto que este super-optimismo no convence a casi nadie, pero se está convirtiendo en una esperanza en un mundo carente de grandes ideales y donde el consumismo y el TENER (en lugar del SER) se han convertido en la primera premisa de la humanidad.

Bostrom (2002) analiza los escenarios de extinción humanos, y enumera superinteligencia como una posible causa:

    Cuando creamos la primera entidad superinteligente, podríamos cometer un error y darle metas que conducen a aniquilar a la humanidad, asumiendo su enorme ventaja intelectual le da el poder para hacerlo. Por ejemplo, podemos erróneamente podríamos elevar un sub-objetivo para el estado de un supergoal. Le decimos que para resolver un problema matemático, y que cumpla girando toda la materia en el sistema solar en un dispositivo de cálculo gigante, en el proceso de matar a la persona que hizo la pregunta.

Un problema importante es que la inteligencia artificial hostil es probable que sea mucho más fácil de crear que amable AI. Mientras que ambos requieren grandes avances en el diseño de procesos de optimización recursiva, amable AI también requiere la capacidad de hacer porterías invariante bajo la auto-mejora (o la IA podría transformarse en algo desagradable) y una estructura de metas que se alinea con los valores humanos y no lo hace de forma automática destruir la raza humana. Un AI antipático, por otro lado, puede optimizar para una estructura de objetivo arbitraria, que no necesita ser invariante bajo auto-modificación. [77]

Eliezer Yudkowsky propuso que se realice la investigación para producir inteligencia artificial amigable con el fin de hacer frente a los peligros. Señaló que la primera IA verdadera tendría una ventaja en la superación personal y, si es amable, podría prevenir hostil IA de desarrollo, así como proporcionar enormes beneficios a la humanidad. [67]

Stephen Hawking dijo en 2014 que "El éxito en la creación de AI sería el evento más grande en la historia humana. Por desgracia, también podría ser la última, a menos que aprendamos cómo evitar los riesgos." Hawking cree que en las próximas décadas, la IA podía ofrecer "beneficios y riesgos incalculables", tales como "la tecnología más inteligente que los mercados financieros, de salida inventando los investigadores humanos, fuera la manipulación de los líderes humanos, y el desarrollo de armas que ni siquiera podemos entender." Hawking cree que se debería hacer más para prepararse para la singularidad: [84]

Implicaciones para la sociedad humana

En febrero de 2009, bajo los auspicios de la Asociación para el Avance de la Inteligencia Artificial (AAAI), Eric Horvitz presidió una reunión de científicos de la computación, investigadores de inteligencia artificial y robótica en Asilomar en Pacific Grove, California. El objetivo fue discutir el posible impacto de la hipotética posibilidad de que los robots podrían llegar a ser autosuficientes y capaces de tomar sus propias decisiones. Discutieron la medida en que las computadoras y los robots podrían ser capaces de adquirir autonomía, y en qué medida podrían utilizar tales habilidades para plantear amenazas o riesgos.

Algunas máquinas han adquirido diversas formas de semi-autonomía, incluyendo la capacidad de localizar sus propias fuentes de energía y elegir objetivos para atacar con armas. Además, algunos virus informáticos pueden evadir la eliminación y han logrado la "inteligencia cucaracha." Los asistentes a la conferencia señalaron que la autoconciencia como se muestra en la ciencia-ficción es probablemente poco probable, pero que existen otros riesgos y peligros potenciales.

Algunos expertos y académicos han cuestionado el uso de robots para el combate militar, sobre todo cuando estos robots se les da algún grado de funciones autónomas. Un informe de marina de Estados Unidos indica que, como robots militares se vuelven más complejas, debería haber una mayor atención a implicaciones de su capacidad de tomar decisiones autónomas.

La AAAI ha encargado un estudio para examinar esta cuestión [89], que apunta a programas como el dispositivo de adquisición del lenguaje, que se pretendía emular la interacción humana.

Algunos apoyan el diseño de la inteligencia artificial amable, lo que significa que los avances que ya se están produciendo con la IA también deben incluir un esfuerzo para que la IA intrínsecamente amable y humana.

De Isaac Asimov Tres Leyes de la Robótica es uno de los primeros ejemplos de medidas de seguridad propuestas para la IA. Las leyes están destinadas a prevenir los robots de inteligencia artificial de dañar a los seres humanos. En las historias de Asimov, problemas percibidos con las leyes tienden a surgir como resultado de un malentendido por parte de algún operador humano; los propios robots están simplemente actuando para su mejor interpretación de sus normas. En el 2004 la película I, Robot, vagamente basada en historias de robots de Asimov, una IA intenta tomar el control completo sobre la humanidad con el propósito de proteger a la humanidad de sí misma debido a una extrapolación de las Tres Leyes. En 2004, el Instituto de la Singularidad lanzó una campaña en Internet llamado 3 Leyes inseguro para crear conciencia sobre los problemas de seguridad de IA y la insuficiencia de las leyes de Asimov en particular.

Alternativa a una singularidad tecnológica

El aprendizaje de la máquina en el mundo real (que no es lo mismo que en un laboratorio), hasta hoy, no permite que se puedan programar todos los conocimientos (ir construyendo manualmente una base de conocimientos sobre el mundo real) la experiencia ha llevado a que la máquina debe ser capaz de aprender por sí misma.

Lo cual nos lleva a que la máquina pueda construir programas cada vez más inteligentes a la vez que va construyéndose a sí misma. Aquí hay un problema, se supone que en estos programas la máquina le transfiera su experiencia a la nueva máquina, por tanto el acto de autoprogramarse es una acción que requiere de un aprendizaje que se va a trasmitir por la elaboración de códigos de programas que serán incluidos en la nueva máquina (al igual que los humanos requieren de un aprendizaje que debe ser asimilado)

Por lo tanto, cuando se habla de máquinas más inteligentes se refieren a una máquina que construye otra más potente: más capacidad de memoria, más velocidad de cálculo y se ignora la necesidad de un aprendizaje y de una experiencia adquirida en la práctica.

Entonces, la máquina al igual que los humanos estará sometida a un proceso de aprendizaje, de una experiencia y de una especialización en ciertas actividades. O sea, estamos hablando de acelerar el aprendizaje.

Por eso en lugar de una explosión de inteligencia que se refiere a máquinas que construyen máquinas cada vez más potente, prefiero hablar de una explosión de aprendizaje donde las máquinas tendrán que ser capaces de aprender y a su vez de construir máquinas capaces de aprender más y mejor. Y en este caso, están tanto los humanos como las máquinas, ambos tienen que aprender a aprender.

Siguiendo con el aprendizaje, las máquinas tendrán que aprender del mundo real, de los textos, de la experiencia humana, de las instituciones educativas humanas. Entonces como se harán más inteligentes que los humanos? Su potente hardware necesitará de una fuente de conocimientos que los humanos no podrán darle (dado sus lentos cerebros) y podría suceder que vieran a los humanos como un obstáculo para su crecimiento. ¿Qué pasaría si dotáramos a un tigre de una superinteligencia, primero se convertiría en el depredador más eficiente que jamás haya existido y después consideraría a la raza humana un peligro y, sin dudas, la destruiría.

Por suerte existe una solución, las máquinas y los humanos deben aprender juntos, ambos deben hacerse cada vez más inteligentes (y sabios) e ir acelerando el aprendizaje y con ellos las fuentes de conocimientos, las instituciones educativas, los medios de aprendizaje, en general se debe transformar la cultura actual exclusivamente humana por una producto de la colaboración entre humanos y máquinas, estamos hablando de una superinteligencia colectiva.

De una parte tendremos máquinas mejores dotadas que se irán construyendo y, de la otra, niños que irán naciendo también mejores dotados (dentro de una ectosimbiosis mutual como base de la evolución) y que, ambos, estarán sometidos a una educación cada vez más avanzada (aceleración del aprendizaje).

Pienso que el surgimiento de una superinteligencia superior al humano, fíjense que digo superior al humano y no a la humanidad, será un proceso inevitable, el problema radica en tomar las decisiones correcta y en aprender a manejarnos con una inteligencia; capaz de integrarse y colaborar con los humanos, en lugar de ser una amenaza que inevitablemente nos irá desplazando.

En lugar de una superinteligencia artificial,hirbida o biológica se asume el desarrollo de una superinteligencia colectiva dentro de un futuro sostenible. Lo que yo defino como sostenibilidad tecnológica.

La sostenibilidad tecnológica garantiza que el desarrollo de las tecnologías y su crecimiento acelerado sea compatible con el progreso humano, su evolución y trascendencia en el tiempo, sin que este pierda su esencia humana.

Actualmente estamos ante una explosión de conocimientos donde el progreso tecnológico (tecnologías emergentes) nos lleva a un nuevo conocimiento, tenemos que aprender cómo manejarnos con las tecnologías que en un futuro serán inteligentes y se producirá una explosión de inteligencia que desatará, a su vez, una mayor explosión de conocimientos que podría sacar de juego a los humanos (los humanos dejaran de participar en la nueva explosión de conocimiento y esta terminar siendo dominio exclusivo de las máquinas)

Todos los enfoques sociales y ecológicos actuales tienen en cuenta un crecimiento lineal donde solo existe la dimensión socioeconómica y no se tiene en cuenta la dimensión tecnológica y su aceleración (explosión de inteligencia) que nos llevará a una explosión de conocimiento más allá del alcance de las capacidades del humano actual, de ahí que para muchos, no haya otra opción que fusionarse con las tecnologías (futuro posthumano), la sostenibilidad tecnológica es la búsqueda de un futuro sostenible.

Mi preocupación no es que la IA sea más inteligente, más amigables, ni más robusta sino que los humanos sean capaces de ampliar su inteligencia y su sabiduría junto a la IA, ya que en realidad estamos proyectando nuestra preocupación por nosotros mismos sobre la IA, y tememos que esa superinteligencia pueda hacer cosas peores que nosotros.

Considero que la justificación a los diferentes sistemas lo da la simbiosis que se está produciendo entre humanos y tecnologías. Estamos hablando de una relación simbiótica y es que, por primera vez en la historia de la humanidad; podemos decidir, ya no solo que tipo de religión, de moral, de sociedad y de educación queremos sino también, qué tipo de evolución queremos alcanzar y a qué futuro queremos llegar.

En mi opinión el gran acontecimiento no va a ser el surgimiento de una superinteligencia sino la simbiosis que se está produciendo, desde hoy, entre humanos y tecnologías. Y si somos capaces de guiar la evolución humana hacia generaciones cada vez mejores.

Bibliografía

  • 1. Asociación transhumanista internacional, "¿Qué es el transhumanismo?" www.transhumanismo.org/articulos/transhumanismo.htm

  • 2. Bostron, Nick: ¿Qué es el transhumanismo?

  • 3. Madruga, Alejandro, ¿Posthumanismo o posthumanidad? Ensayos Modernidad. Postmodernidad. Editorial Nuevo Milenium. 1999.

  • 4. Madruga, Alejandro, Inteligencia artificial, el futuro de la humanidad.

  • 5. Madruga, Alejandro, Sostenibilidad tecnológica: un enfoque tecnohumanista de la sostenibilidad. Monografias

  • 6. Bustamante, Javier, Sociedad informatizada: ¿Sociedad deshumanizada? 1994.

  • 7. Kurzweil, Ray Era de las máquinas espirituales, Planeta. 2000, 525 pp. ISBN: 970-690-110-8 15 x 23 x 3 cm., 720 gr.

  • 8. 5. MINSKY, Marvin, "¿Serán los robots los herederos del planeta?". Revista América Científica. 1995

  • 9. 6. VERNOR, Vinge, "La singularidad tecnológica". Revista electrónica AXXON 1994

  • 10. 7. WEIZENBAUM, Joseph, La frontera entre el ordenador y la mente. Ediciones Pirámide, S.A. Madrid. 1978,

  • 11. 8. WIENER, Norbert, Cibernética y Sociedad, Consejo Nacional de Ciencia y Tecnología, México. 1981,

  • 12. Roco, Mihail C. and Bainbridge, William Sims, eds. (2002). Converging Technologies for Improving Human Performance.

  • 13. Joy, Bill (2003), "Por qué el futuro no nos necesita". Revista wired.com (en inglés).

  • 14. Kurzweil, Ray (2005), "La singularidad está cerca, cuando los humanos trascienden la biología" (en inglés).

  • 15. Levy, Pierre (2003), "Inteligencia colectiva, por una antropología del ciberespacio". BVS/Ciencia y Salud.

  • 16. Madruga, Alejandro (1997), "¿Posthumanidad o posthumanismo?", Colección Pensar en Cuba, Modernidad Posmodernidad. Editorial Ciencias Sociales.

  • 17. Madruga, Alejandro (2013), "Inteligencia artificial, el futuro del hombre".

  • 18. Vernor, Vinge (2002), "Singularidad tecnológica". Premio UPC de ciencia ficción.

  • 19. Weizenbaum, Joseph (1978), "La frontera entre el ordenador y la mente". Ediciones Pirámide, S.A. Madrid.

 

 

Autor:

Alejandro Madruga González

Esp. Ciencias Informáticas

Msc. Bioética

Partes: 1, 2
 Página anterior Volver al principio del trabajoPágina siguiente