Descargar

El abordaje de la inteligencia artificial según Isaac Asimov

Enviado por Lucas González Day


    1. Hipótesis
    2. Inteligencia artificial
    3. Yo Robot: análisis de los capítulos y de las problemáticas planteadas por el autor
    4. Comparación con el comportamiento humano
    5. Conclusiones
    6. Bibliografía

    Introducción

    En el presente trabajo se hablará del libro Yo Robot, más específicamente se tratará el abordaje del autor, Isaac Asimov, del controvertido tópico de la inteligencia artificial en esa obra. Para poder realizar ese análisis, se limitará el tema aún más, estableciendo la relación que tienen los robots con la inteligencia humana, y los conflictos que presenta la inteligencia artificial

    Este tema atrajo mi interés ya que, a mi parecer, los relatos de este libro de Asimov bien podrían adquirirtomar protagonismo en este siglo. Y es por esto que considero importante darle espacio a este tema, y poder llegar a establecer una comparación entre el ser humano y el robot inteligente.

    Es relevante incluir la biografía del autor para interiorizarse con su vida, sus estudios y su obra:

    Asimov fue un prolífico escritor estadounidense, famoso por sus novelas de ciencia-ficción y por sus libros divulgativos sobre todas las ramas de la ciencia. Nació en Petrovichi, Rusia. Su familia emigró a Estados Unidos cuando tenía tres años y se estableció en el barrio de Brooklyn, de Nueva York.

    Sus trabajos en las revistas de ciencia-ficción le llevaron a profesionalizarse como escritor literario y científico. Ingresó en la Universidad de Columbia a los 15 años y a los 18 vendió su primer relato a la revista Amazing Stories. Después de participar en la II Guerra Mundial, Asimov se doctoró en Bioquímica en 1948 y de 1949 a 1958 enseñó bioquímica en la universidad de medicina de Boston. Su primera novela de ciencia-ficción, Piedra en el cielo, se publicó en 1950 y su primer libro científico, un texto sobre bioquímica escrito con dos colegas, en 1953.

    A partir de 1958 se dedicó por completo a escribir. Firmó más de 500 libros para lectores jóvenes y adultos que, además de la ciencia-ficción y la divulgación científica, abarcan cuentos de misterio, humor, historia y varios volúmenes sobre la Biblia y Shakespeare.

    Entre sus obras de ciencia-ficción más conocidas se encuentran Yo, Robot (1950); La trilogía de la Fundación (1951-1953), de la cual escribió una continuación treinta años después, El límite de la Fundación (1982); El sol desnudo (1957) y Los propios dioses (1972). Entre sus obras científicas destacan Enciclopedia biográfica de la ciencia y la tecnología (1964; revisada en 1982) y Nueva guía a la ciencia (1984), una versión más reciente de su elogiada Guía científica del hombre (1960). Obras posteriores son La Fundación y la Tierra (1986), Preludio a la Fundación (1988) y Más allá de la Fundación (1992). En 1979 se publicó su autobiografía en dos volúmenes, Recuerdos todavía verdes.

    Para hacer este trabajo, se tuvo a disposición todas las semanas a dos profesores que nos guiaban en el trabajo, a quienes se les suministraban partes del mismo a lo largo del año. Para recopilar la información, se debieron hacer cinco (5) visitas a la Biblioteca Nacional y una (1) a la Biblioteca Leopoldo Lugones. De allí se extrajo la bibliografía a utilizar, y se fue moldeando el trabajo a medida que avanzaba la investigación. De más esta decir que se contaba con el libro Yo Robot de Isaac Asimov para realizar el escrito

    Las preguntas que sirvieron de impulsoras para realizar este trabajo fueron: ¿Qué es la inteligencia artificial? ¿Está regida por reglas? ¿Estas reglas son comparables con los códigos morales de los seres humanos? ¿Tienen los robots la capacidad de violar estas reglas? ¿Se puede considerar la inteligencia artificial idéntica a la inteligencia humana? Si no se pudiese, ¿cuál sería el punto de diferenciación? ¿Puede inducir un robot? ¿Puede perfeccionarse así como lo hace el ser humano?

    Las expectativas de este trabajo son determinar, a partir de la mirada de Isaac Asimov, si la inteligencia artificial es comparable con la del ser humano, y establecer sus diferencias y similitudes.

    En el trabajo se podrá encontrar en primer lugar, la hipótesis; luego, una breve introducción al tema de la inteligencia artificial; más adelante, se analiza el texto en cuestión; se establece la comparación entre humanos y robots; y, por último, se encuentran las conclusiones.

    Hipótesis

    El objetivo del trabajo es determinar si la inteligencia artificial es comparable con la inteligencia humana, señalando sus diferencias y similitudes.

    La hipótesis es que la inteligencia artificial está íntimamente relacionada con la inteligencia humana. Esto se demostrará principalmente con las definiciones de las mismas, y se verá más claramente la relación en el análisis del texto.

    Inteligencia artificial

    Definición

    Primeramente debemos definir qué es la inteligencia. Es una facultad propia de ciertas clases de seres vivos, que les permite pensar, obrar a voluntad, ser concientes de su existencia, establecer relaciones con el mundo exterior, aprender, ser originales, adaptarse, razonar, autocorregirse, y atender sus necesidades.

    Luego, la inteligencia artificial es, justamente, la capacidad de un artefacto (creado por humanos) de realizar los mismos tipos de funciones que caracterizan a la inteligencia humana, nombrados anteriormente. La inteligencia artificial es un campo muy amplio, pero su desarrollo se enfoca principalmente en hacer que las máquinas y robots se parezcan cada vez más a los humanos, tanto en la forma de pensar, como en la forma de actuar. Según Jean Paul y Marie Christine Haton,

    "(…) Como la noción de inteligencia artificial es en sí misma compleja y relativa, no es fácil definir la disciplina científica que es la IA.

    La IA puede ser abordada desde dos puntos de vista complementarios:

    • El primero concierne al estudio de los mecanismos de la inteligencia [humana] (…); este punto de vista implica una perspectiva cognitiva;
    • el segundo, más pragmático, concierne a los esfuerzos realizados para dotar a la computadora de las capacidades que habitualmente se atribuyen a la inteligencia humana. (…)

    Los dos enfoques precedentes son de hecho ampliamente complementarios, en la medida en que un mejor conocimiento de los mecanismos humanos permite mejorar el rendimiento de los sistemas informáticos."

    Finalmente, muchos de los investigadores sostienen que la inteligencia es un programa capaz de ser ejecutado independientemente de la máquina que lo haga, sea una computadora o un cerebro humano.

    Evolución Histórica

    La posibilidad de desarrollar un artefacto inteligente despertó la curiosidad del ser humano desde la antigüedad, pero fue recién en la segunda mitad del siglo XX, más específicamente en 1950, cuando Alan Mathison Turing introdujo el denominado "Test de Turing" en un artículo para la revista Mind titulado "Computing Machinery and Intelligence" ("Ordenador e inteligencia"), en el que reflexionaba sobre el concepto de Inteligencia Artificial, materializando la posibilidad en herramientas tangibles. El argumento en el que se basa esta prueba es que si una máquina se comporta en todos los aspectos como inteligente, entonces debe ser inteligente.

    En este test, la máquina debe hacerse pasar por humana en una conversación con un hombre a través de una comunicación de texto estilo chat. El sujeto no sabe si está hablando con una máquina o no. Si éste es incapaz de deducir por su conversación que su interlocutor es una máquina, entonces ésta es inteligente, ya que logra hacerse pasar por un humano en una comunicación de texto. Se lo considera por esta prueba el padre de la Inteligencia Artificial, ya que permite comprobar si una computadora puede ser igual de inteligente que un ser humano.

    Sin embargo, la historia oficial de la Inteligencia Artificial comienza en 1956, año en el que se inventa el término en un congreso del Instituto de Tecnología de Massachussets. En ese mismo año, en una conferencia en Hanover, Estados Unidos, se establecen las bases de la Inteligencia Artificial como un campo independiente dentro de la informática, entre personajes importantes de ese campo como John McCarthy y Marvin Minsky, entre otros.

    Actualmente, la inteligencia artificial se aplicó a sistemas y programas informáticos capaces de realizar tareas complejas, simulando el pensamiento humano. Es utilizada en una amplia gama de actividades, tales como Data Mining (minería de datos), videojuegos, procesamiento de la información, diagnóstico médico y robótica, entre otras.

    Un claro ejemplo de la aplicación de la Inteligencia Artificial es la supercomputadora "Deep Blue" de IBM, que le ganó al campeón mundial de ajedrez Gary Kasparov una partida de ese juego, luego de haber sido perfeccionada debido a que no lo pudo vencer en un intento anterior.

    Sin embargo, existen muchos escépticos respecto de la posibilidad del desarrollo de la verdadera IA, que imite fielmente el pensamiento humano. Basan su escepticismo en el hecho de que todavía no se conoce completamente el funcionamiento de la mente humana, y, por lo tanto, que es imposible imitar algo que no se conoce.

    La robótica es la aplicación de la Inteligencia Artificial que se explayará en este trabajo. Primero, debemos saber qué es un robot. Para eso, se citará a Tom Logsdon, de su libro Robots: una revolución:

    "¿Qué es un robot? ¿Y en qué se diferencia de otras máquinas automáticas? El término ‘robot’ es checo, y significa ‘trabajo forzado’. (…) Por tanto, según la terminología actual deberíamos clasificarlos como ‘androides’ más que como robots. (…) Cualquier definición propuesta excluirá ciertas máquinas que se consideran robots, o incluirá artículos que no son robots, como los cambiadores de discos automáticos o las máquinas para poner tapones en las botellas.

    La tercera edición del Webster’s New International Dictionary, por ejemplo, define a un robot como ‘una máquina con la forma de un ser humano que ejecuta las funciones mecánicas de un ser humano’. Sin embargo, los constructores de robots no están interesados en dar a sus creaciones forma humana. Muchos robots industriales parecen y actúan más como langostas borrachas o saltamontes que como seres humanos."

    Yo Robot: análisis de los capítulos y de las problemáticas planteadas por el autor

    En un principio, considero conveniente exponer las Leyes de la Robótica, impresas en todos los cerebros positrónicos de los robots.

    "Las Tres Leyes de la Robótica:

    1. Un robot no debe dañar a un ser humano o, por su inacción, dejar que un ser humano sufra daño.
    2. Un robot debe obedecer las órdenes que le son dadas por un ser humano, excepto cuando estas órdenes se oponen a la Primera Ley
    3. Un robot debe proteger su propia existencia hasta donde esa protección no entre en conflicto con la Primera o Segunda Ley."

    Más adelante se añade una ley que sería la ley cero:

    "Ninguna máquina puede dañar a la Humanidad; o, por inacción, dejar que la Humanidad sufra daño"

    El libro en sí es una serie de relatos en los que se desarrolla un problema que está siempre relacionado con las leyes presentadas por Asimov al comienzo del libro. En cada uno de ellos aparece un nuevo robot, con un problema distinto, junto con un grupo de ingenieros especializados de la United States Robots & Mechanical Men Inc. que deben resolver esos problemas.

    En este trabajo se analizarán los capítulos singularmente, logrando hacer un estudio que explique las problemáticas que plantea Asimov en el libro, y añadir junto a él su resolución (si es que la tiene).

    Robbie:

    Asimov plantea, en este capítulo, la idea de que un robot reemplace a un humano en el rol de niñera, con el fin de que el niño a ser cuidado no se apegue sentimentalmente a la persona que esté a su cargo, y que el robot no le pueda hacer daño y obedezca las órdenes de su patrón, ya que debe cumplir a rajatabla las Leyes de la Robótica.

    Lamentablemente, esto no es posible, ya que la niña se encariña con el robot como si fuese una persona. El robot cumple su trabajo satisfactoriamente, pero el lazo se establece de la misma forma que si la niñera fuese una persona. Por lo tanto, se puede decir que este reemplazo tiene, tanto una ventaja (que el robot debe obedecer las Leyes de la Robótica), como una desventaja, que es la pérdida del empleo de una persona. En el plano afectivo, uno u otro no hacen diferencia.

    Sentido Giratorio:

    En este episodio, un robot, destinado a trabajar en la extracción de un mineral tiene un conflicto con las Leyes. El caso es que este robot en particular era extremadamente caro, razón por la cual tenía reforzada la Tercera Ley, la de la Auto-conservación, con el fin de protegerse más. Al recibir una orden de los humanos, el robot está obligado a cumplirla siguiendo el dictado de las Leyes de la Robótica.

    Sin embargo, esta orden significa un peligro para el robot, y como la Tercera Ley estaba reforzada, se establece un equilibrio entre los potenciales de las 2 Leyes. La Segunda lo obliga a avanzar, mientras que la Tercera lo obliga a retroceder. Consecuentemente, el robot no sabe qué hacer, y se queda en un estado comparable al de ebriedad en un ser humano.

    Razón:

    Este capítulo presenta a un robot que no obedece a los ingenieros de la U.S Robots, y muestra a un robot filósofo, a partir de sus actitudes y pensamientos. Asimov señala el carácter lógico de los robots, ya que el robot inventa un sistema axiomático formal con el cual, partiendo del postulado (según él irrefutable) de que ningún ser puede crear un ser más perfecto que él, llega a la conclusión de que es improbable que los humanos lo hayan creado.

    La deducción se basa en que los humanos están hechos de un material blando y flojo, carente de resistencia, y son alterables por la menor variación en temperatura, presión atmosférica, humedad o intensidad de radiación; mientras que los robots son un producto acabado que está compuesto de fuerte metal, permanecen conscientes todo el tiempo, y pueden soportar fácilmente los más extremos cambios ambientales.

    Por lo tanto, este nuevo robot cuestiona su propia existencia, por lo que se puede deducir que Asimov asemeja su inteligencia artificial con la inteligencia humana, ya que los mismos filósofos se preguntan por esto. Al manifestar curiosidad por su propia existencia, el robot dice, luego de reflexionar: "Yo, por mi parte, existo porque pienso". Aquí Asimov construye un paralelismo con Descartes, lo que delata el matiz filosófico del capítulo.

    El robot también cuestiona el origen de los humanos, lo que se ve claramente cuando les dice: "¿De qué punto de luz dices que vienes?". Este cuestionamiento del origen de los humanos por parte del robot se prolonga a lo largo del relato, ya que el robot es un escéptico, y así como Descartes, dice: "No acepto nada por autoridad. Para que no carezca de valor, una hipótesis debe ser corroborada por la razón, y es contrario a todos los dictados de la lógica suponer que vosotros me habéis hecho". Por esto no cree ni lo que le cuentan los humanos sobre la Tierra, ni lo que lee en los libros, ya que él ya tiene una Verdad establecida, y lo que los humanos toman como hechos, él los toma como hipótesis.

    La Verdad que sostiene este robot reside en postulados establecidos por la suposición y reforzados por la fe, por lo que ningún argumento puede conmoverla. Y esta Verdad es que su creador es el Señor, y su teoría es que el Señor primero creó a los humanos, y luego los fue remplazando por seres perfeccionados: los robots.

    El problema que genera todo lo anteriormente expuesto es que las órdenes que le dan al robot los humanos no son obedecidas, ya que según el robot, él es superior a ellos. Se refleja la inferioridad que les marca el robot a los humanos cuando el primero dice: "(…) Powell [uno de los ingenieros], tú incluso deberías ser capaz de comprender esto.". Se ve claramente un fallo en las Tres Leyes de la Robótica que (se supone) son inmanentes a todo robot.

    Finalmente, el problema es resuelto sólo, sin la intervención de los humanos, ya que en el robot prevalece la Primera Ley, que lo obliga a proteger a los seres humanos, aunque él no lo sepa. De este modo, el robot puede cumplir su trabajo, sin importar lo que él crea, ya que éste no puede descartar la Primera Ley.

    Atrapa esa liebre:

    En este capítulo, los ingenieros se encuentran frente a un robot que tiene un problema de iniciativa personal. Este robot trabaja muy bien junto con sus subsidiarios (robots subordinados a él), cuando están siendo vigilados. En cambio, cuando no están siendo observados suspenden el trabajo. Los ingenieros deciden preguntarle al robot en cuestión qué es lo que sucede, pero éste no sabe responder, por lo que piensan que tiene amnesia, a lo que uno de ellos dice: "(…) es inútil tratar de aplicar nombres de enfermedades a esto.

    Las perturbaciones humanas sólo se aplican a los robots como románticas analogías. No sirven de nada en ingeniería robótica".

    Al hacerle una serie de exámenes, comprueban que el robot se encontraba en perfectas condiciones, razón por la cual deciden instalar "visiplacas" para determinar qué es lo que le ocurre cuando deja de trabajar. Con lo que observan que éste comienza a marchar en formación militar, como si, junto con sus subsidiarios, se hubiera vuelto loco. Al acercarse uno de los ingenieros, los robots volvieron al trabajo, y el robot principal no sabe qué ocurrió.

    Las hipótesis de los ingenieros se descartan fácilmente con las 3 Leyes de la Robótica. Dave no les puede mentir si ellos le ordenan que diga la verdad; tampoco puede estar creando un ejército con maniobras militares, porque el tipo militarista y de carácter dominante debe tener como punto final la dominación de los humanos, y esto se opone a las leyes. Por tanto, no queda otra respuesta que el problema radique en la iniciativa personal del robot, necesaria para actuar de manera distinta al notar la ausencia de los humanos.

    Tras interrogar a un subsidiario, y comparar opiniones, los ingenieros llegan a notar que lo que causa que el robot actúe de forma extraña es el peligro, perturbándolo y tensionándolo al máximo. En un momento de vida o muerte, logran llamar la atención del robot para que los ayude, derribando a uno de sus subsidiarios. De esta forma, el robot tiene una responsabilidad menos y se puede controlar, acudiendo a salvar a los humanos.

    ¡Embustero!:

    En este capítulo se desarrolla un nuevo problema, que se origina a partir de un nuevo robot que puede leer el pensamiento. Al ver el pensamiento de los humanos, debía decirles lo que ellos querían para no dañarlos mental o sentimentalmente. Esto es una extensión de la Primera Ley, ya que como puede leer el pensamiento, también puede dañar a la persona psicológicamente, no sólo físicamente.

    Es por eso que el robot debe mentir, haciendo luego daño posterior, y muriendo luego, al volverse loco por no saber que hacer, ya que si no le decía algo a un ser humano, dañaba a otro, y si lo decía, le dañaba el orgullo al primero. Por lo tanto, esta indecisión lo vuelve loco y lo mata.

    Pequeño robot perdido:

    El problema en este capitulo es que se perdió un robot que tenía la primera ley modificada. Este se escondió entre otros robots del mismo tipo y negaba ser él, mintiendo. La primera ley de este robot modificado sólo decía que no debá dañar a un ser humano directamente, sin molestarse si algo le pasaba. Se debió modificar porque sino se metían en un campo gamma moderado para salvar a un ser humano, perdiendo su vida, pero si les decían que no se metan, lo hacían igual porque la Primera Ley es más fuerte que la Segunda, y que la Tercera, por lo que no les importaba si ellos podían morir. Lo único que los hace esclavos nuestros a los robots es la Primera Ley, de lo contrario, al darles la primer orden, nos matarían, por el resentimiento de que alguien física y mentalmente inferior a ellos los intente dominar.

    Este robot no quería entregarse porque, subconscientemente, consideraba a los humanos inferiores a él, e injusta la Primera Ley que los protege. De esta forma, este robot podría matar a un ser humano dejando caer un peso, ya que el medio activo que ejecuta al humano sería la fuerza de gravedad, y no directamente el robot. Esto se lo permite la modificación de la Primera Ley.

    Al intentar camuflarse entre otros robots, este simula responder como lo haría un robot normal. Y hete aquí un punto de diferenciación con los humanos: las reacciones robóticas son perfectamente análogas a las humanas; en los seres humanos, la acción voluntaria es más lenta que el reflejo, no así en los robots, que pueden elegir como será la reacción.

    Evasión:

    Se presenta un problema con una supercomputadora que debe construir una nave para viajes interestelares. El quid de la cuestión radica en que nunca podrá dar una solución a un problema que le haya sido presentado, si esta solución trae aparejada la muerte o daño de seres humanos.

    Si este problema estuviese unido a una urgente demanda de respuesta, sería posible que la supercomputadora se encontrase ante un dilema según el cual no podría ni contestar ni negarse a hacerlo.

    La evidencia:

    En este capítulo, se cuestiona la humanidad de una persona, ya que no se la ve comer, dormir, ni beber. Como es lógico pensar, esto representa un problema, ya que esta estrictamente prohibido el empleo de robots en los mundos habitados. Eso fue el resultado de lo que relata Susan Calvin:

    "(…) Después [los robots] se hicieron más humanos, y empezó la oposición. Los sindicatos obreros, como es natural, se opusieron a la competencia que hacían los robots al trabajo humano (…)."

    La forma de descubrir la verdad, según ella, es analizar su conducta, aunque no daría un resultado 100% confiable, ya que aunque esta persona respetara todas las Leyes de la Robótica, bien podría ser un muy buen ciudadano, un ser humano honrado y decente.

    El conflicto evitable:

    En este capítulo, se llega a una época en el futuro, en la que la economía mundial es controlada por Máquinas. Es en este episodio en el que se demuestra al máximo la ley zero, que dice que un robot no puede dañar, ni por su inacción, ver dañar a la Humanidad, razón por la cual se ocupan íntegramente del futuro de la raza humana.

    Saliendo un poco del tema central de este trabajo, cabe darle una mirada a la película Yo, Robot basada en la obra de Asimov, ya que sigue un razonamiento lógico que demuestra que con la introducción de la ley zero, las Tres Leyes de la Robótica propuestas por el autor, pierden el carácter de perfectas, ya que se ven condicionadas por aquella ley.

    Después de todo, la ley zero es el resultado de la reflexión filosófica de los robots, como si fuera una evolución en su pensamiento. De este modo, las primeras leyes enunciadas que, se suponía, protegían la vida humana, dejan de ser útiles.

    En la película, los robots ven a los mismos humanos como peligrosos para la perpetuidad de la humanidad, por lo tanto se rebelan a su comando, ya que no estarían en conflicto con ninguna ley al hacerle daño a un ser humano en virtud de la ley zero. Esto lleva a una revolución de los robots que, en teoría, es para el bien humano. Nuestra subsistencia estaría garantizada si obedeciéramos a los robots. Esto suena extraño, pero en fin, es uno de los objetivos para el cual fueron creados, para protegernos, así sea teniéndonos de esclavos.

    Comparación con el comportamiento humano

    Para realizar esta comparación, es apropiado citar a Asimov a través de su personaje Susan Calvin:

    "(…) si se detiene usted a estudiarlas, verá que las tres Leyes de la Robótica no son más que los principios esenciales de una gran cantidad de sistemas éticos del mundo. Todo ser humano se supone dotado de un instinto de conservación. Es la Tercera Ley de la Robótica. Todo ser humano bueno, con conciencia social y sentido de la responsabilidad, deberá someterse a la autoridad constituida, obedecer a su doctor, a su Gobierno, a su psiquiatra, a su compañero; aunque sean un obstáculo a su comodidad y seguridad. Es la Segunda Ley de la Robótica. Todo ser humano bueno debe, además, amar a su prójimo como a sí mismo, arriesgar su vida para salvar a los demás. Ésta es la Primera Ley de la Robótica."

    Asimov sostiene que el robot es como un hombre ideal, y que si este existiese, se podría confundir fácilmente con uno de sus robots. Asimismo, como se vio a lo largo del análisis del libro, muchas de las conductas y problemas de los robots son, sino idénticos, muy parecidos a aquellos de los humanos.

    Por lo tanto, constituiría un gran bien crear un robot capaz de ser funcionario civil, ya que las Leyes de la Robótica le impedirían dañar a un ser humano, lo incapacitarían para la tiranía, la corrupción, el prejuicio. Y una vez que hubiese servido durante un período prudencial dimitiría, aunque fuese inmortal, porque sería incapaz de perjudicar a los seres humanos haciéndoles saber que habían sido gobernados por un robot.

    A continuación se presenta una similitud entre humanos y robots en lo que respecta a su psicología, de la mano, nuevamente, de Susan Calvin:

    "La psicología del robot está muy lejos de ser perfecta (…), porque a pesar de todas las complicaciones introducidas en el cerebro positrónico de un robot, está construido por los humanos, y por lo tanto conformado de acuerdo con sus valores.

    Ahora bien, un humano enfrentado a una imposibilidad responde a menudo retirándose de la realidad, penetra en un mundo de engaño, entregándose a la bebida, llegando al histerismo o arrojándose desde un puente. Todo ello se reduce a lo mismo: la negativa o la incapacidad de enfrentarse serenamente a la situación. Y lo mismo ocurre con los robots. Un dilema, en el mejor de los casos, creará un desorden en sus conexiones; y en el peor abrasará su cerebro positrónico sin reparación posible."

    Entonces, se puede decir que los robots tienen un gran parecido con los humanos. Este parecido radica en que los humanos tenemos códigos ético-morales que debemos seguir para poder llevar a cabo una vida civilizada, para poder vivir con tranquilidad en sociedad.

    Por el otro lado, los robots están regidos por las Leyes de la Robótica. Estas leyes les imprimen cierta conducta que deben llevar a cabo porque fueron hechos con el propósito de servirnos, y, como se dijo anteriormente, la palabra "robot" viene del vocablo checo robota, que significa "servidumbre", "trabajo forzado", o "esclavitud".

    Entonces, la semejanza entre humanos y robots radica en los códigos ético-morales de los primeros y las Leyes de los últimos.

    Conclusiones

    Personalmente, creo que más allá de que Asimov haya sido un reconocido personaje en el ámbito científico, las Tres Leyes de la Robótica fueron un intento literario de establecerle límites a los robots, de las cuales surgen imperfecciones para usar como argumentos en sus historias, siendo imposibles de aplicar en la realidad.

    A partir de la Segunda Ley, ningún robot de Asimov pasaría el Test de Turing, ya que si su interlocutor le ordenara que no le mienta y le pregunta si "él" es un robot, le respondería que sí, fallando la prueba. Y en caso de que lo pasara, estaría en condiciones de mentir, robar y matar.

    Por otro lado, las Tres Leyes de la Robótica de Isaac Asimov le quitan, de otro modo, el carácter de inteligencia a cualquier robot, ya que estas leyes condicionarían el pensamiento de la máquina, por lo que el libre albedrío que propone la inteligencia no se podría concretar. Una máquina con IA podría tranquilamente decidir a qué leyes atenerse y a cuáles no. Esto, considerando que la inteligencia artificial indica la capacidad de un artefacto de realizar los mismos tipos de funciones que caracterizan al pensamiento humano, muestra que los robots de Asimov no poseen verdaderamente IA.

    De hecho, existe un problema al tratar la inteligencia artificial; y éste es que esa inteligencia está basada en la única que conocemos: la humana. De allí se derivan los problemas ético-morales, ya que nuestra propia inteligencia no es perfecta en ninguno de esos aspectos. Lo que sostiene Asimov es una utopía, ya que modela a sus robots como debería ser el humano ideal. Esta idealización comprende ser atento a los demás, anteponiendo los intereses de los demás a los propios y obedeciendo a las autoridades.

    Luego, se puede sostener que Asimov creía en los robots como reemplazo de los humanos. Se puede sostener esto a partir de la idea de que establece múltiples semejanzas entre los robots y los humanos, mostrando que los mismos problemas pueden sucederle a unos o a otros, y demostrando la superioridad de los robots frente a los humanos en reiteradas oportunidades.

    La preocupación de que los robots puedan desplazar a o competir con los humanos es muy común. Actualmente, no es posible aplicar las leyes de Asimov, dado que los robots aun tienen una capacidad muy limitada para comprender su significado, evaluar las situaciones de peligro tanto para los humanos como para ellos mismos o resolver los conflictos que se podrían dar entre leyes, ya que lo que les falta, y los diferencia actualmente de los humanos es la creatividad.

    Para cerrar el trabajo, se puede decir que se corroboró la hipótesis al establecer una serie de características a lo largo del trabajo en que se parecen ambas inteligencias –la humana y la artificial-, así como se encontraron sus diferencias.

    Bibliografía

    • Asimov, Isaac, Yo Robot, Ediciones Sudamericana, Buenos Aires, 2001, 315 pp.
    • Dennett, Daniel C., Contenido y conciencia, Gedisa, Barcelona, 1996.
    • Haton, Jean Paul; Haton, Marie Christine, La inteligencia artificial: una aproximación, Paidós, Buenos Aires, 1991, 156 pp.
    • Logsdon, Tom, Robots: una revolución, Orbis, Buenos Aires, 1987, 223 pp.
    • Minsky, Marvin, La sociedad de la mente: la inteligencia humana a la luz de la inteligencia artificial, Ediciones Galápago, Buenos Aires, 1986, 349 pp.
    • Skyvington, William, Machina sapiens : ensayo sobre la inteligencia artificial, Huemul, Buenos Aires, 1978, 289 pp.

     

     

    Datos del autor:

    Lucas González Day

    Estudios realizados: Primaria y Secundaria completos

    Fecha de realización: Abril-Septiembre 2005