Pequeño robot perdido
Resumen
Pasan dos días antes de que el periodista vuelve a entrevistar a la Dra. Calvin. En este encuentro, ella le cuenta la historia de su primer contacto con las investigaciones interestelares.
Resulta que en el año 2029 se pierde un robot en la Hiperbase y los directivos comienzan a tomar medidas “con una especie de furia frenética” (p.135). Hasta ese día, Calvin nunca había abandonado la Tierra. Encargada de esta misión junto a Bogert, es llevada en una nave de patrulla del gobierno a la Hiperbase para encontrarse con el general Kallner. El general les explica a ambos detalles del problema: tienen 63 robots en una nave que parecen idénticos, pero hay uno de ellos que es diferente. Susan está algo confundida por cierta actitud elusiva de Kallner. Bogert sabe de qué se trata esta diferencia del robot, y le explica: “Hiperbase, Susan, emplea diversos robots cuyos cerebros no tienen impresa toda la Primera Ley de la Robótica” (p.137). Enseguida, Calvin, aterrorizada, comprende la desesperación del general Kallner por que este dato no salga a la luz y el robot sea encontrado pronto. La Primera Ley de la Robótica es la que sustenta las otras dos leyes, y al modificarla o debilitarla, los robots pueden actuar en interés propio en lugar de en interés de los humanos, eliminando esencialmente su código ético.
Calvin pregunta por qué han modificado al robot. Kallner le dice que sus hombres trabajan con radiación, pero que se toman precauciones para protegerlos. Sin embargo, es imposible explicarles a los robots que los hombres están a salvo, o que están arriesgándose a conciencia. Así, cuando los hombres se exponen a la radiación, el robot más cercano intenta ayudarlo, y la radiación termina destruyéndolo. De este modo, el daño económico es muy grande. Por ende, se modificó la Primera Ley para que sostuviera que “ningún robot debe dañar a un ser humano” (p.140) pero que, al mismo tiempo, no estén obligados a actuar en estos casos particulares, en los que la persona se expone ella misma a un peligro ajeno al robot.
Al día siguiente, junto a Kallner y Bogert, Calvin tiene una entrevista con Gerald Black, la última persona que vio al robot perdido, al que llaman Néstor 10. Calvin le pregunta si le parece que hay algo inusual en estos robots. Black cree que son más inteligentes -han aprendido rápido todo lo que los físicos les han enseñado-, muy tranquilos y, sobre todo, curiosos. Esto último a veces puede resultar algo molesto. Bogert le pregunta a Black sobre la mañana en que vio por última vez a Néstor 10. Black admite, avergonzado, que ese día estaba frustrado y atrasado con su trabajo. Néstor 10 lo estaba molestando con sus preguntas como un niño. Insistía en que Black repitiera un experimento que había abandonado hacía un mes, por lo que el hombre le dijo, enfadado, que “se mandase a mudar” (p.146), junto con una serie de comentarios ofensivos.
Calvin despide a Black, agradeciéndole su colaboración en la entrevista. A continuación, entrevista a los 63 robots durante cinco horas, y los 63 le parecen iguales. Se da cuenta de que Néstor 10 debe ser uno de ellos pero está mintiendo, porque está obedeciendo la Segunda Ley, es decir, tratando de cumplir la orden que Black le impuso.
Sin embargo, a Calvin le preocupa que Néstor 10 también esté intentando demostrar su superioridad intelectual al dejar a los humanos completamente perplejos. Una vez más, le preocupa que el robot quiera hacer daño a los humanos. Al estar modificado y no verse obligado a proteger a un humano en peligro por inacción, un robot con la modificación de Nestor podría, según Calvin, dejar caer un objeto pesado sobre un humano y, al perder contacto con el objeto, perder responsabilidad sobre el daño y no verse obligado a salvar al humano del peligro.
Calvin y Bogert deciden realizar pruebas directamente sobre la respuesta a la Primera Ley de los 63 robots. Dejan caer un peso sobre un hombre diez veces delante de cada robot. Un rayo láser impide a último momento que el peso golpee realmente al hombre. Cada vez, cada uno de los 63 robots salta para salvar al hombre. Calvin llega a la conclusión de que Nestor 10 lo hace por voluntad propia, tratando de pasar desapercibido entre los otros 62 robots.
Calvin decide que tendrán que intentar otra cosa, sobre todo ahora que Néstor 10 debe ser consciente de que están intentando realizar experimentos para encontrarlo y que les está mintiendo deliberadamente. Esta vez, volverán a dejar caer un peso sobre un hombre, pero habrá cables eléctricos entre el hombre y los robots. Los robots intentarán salvar al hombre aunque sepan que van a autodestruirse acercándose a los cables, ya que la Primera Ley tiene prioridad sobre la Tercera. Pero, en el caso de Néstor 10, quizá su deseo de autoconservación lo haga permanecer en su asiento.
Cuando realizan el experimento, ninguno de los robots se mueve para rescatar al hombre. Horrorizada, Calvin vuelve a entrevistar a cada uno de los robots, pidiéndoles que le expliquen lo sucedido. Uno de ellos, el Veintiocho, dice que si hubiera muerto tratando de salvar al hombre no habría podido hacerlo de todos modos. Entonces, los robots estarían muertos sin ningún fin, y no podrían evitar daños futuros a los hombres. Ella le pregunta al Veintiocho si esta idea se le ocurrió a él mismo. Él responde que no: los robots estuvieron hablando entre ellos la noche anterior, y otro robot tuvo la idea. Calvin pregunta cuál, pero el Veintiocho dice que no lo sabe. Después de esto, Calvin insiste al general Kallner en que tienen que separar a los robots entre sí o, de lo contrario, dimitirá y hará público el asunto.
Calvin, sin embargo, tiene una última idea, recordando que una diferencia adicional entre Néstor 10 y los demás robots es que Néstor 10 ha aprendido física. Ella y Bogert hacen otra entrevista, diciendo a los robots que van a realizar otro experimento con una persona en peligro. Entre el robot y la persona habrá un campo de rayos gamma. Bogert les dice a los robots que este campo los matará instantáneamente, por lo que, de nuevo, sería inútil que intentaran salvar a la persona.
Después de las entrevistas, comienzan el experimento. Calvin insiste en ser la persona a la que deben intentar salvar los robots, para poder observarlos directamente. Los 63 se colocan entonces en un círculo alrededor de ella. Se deja caer el peso sobre Calvin, pero esta vez solo un único robot, Néstor 10, se levanta bruscamente y da dos pasos. Luego se detiene en seco. Calvin les pide inmediatamente a todos los demás robots que salgan de la habitación. Néstor empieza a hablar: “Nadie debe encontrarme. No tengo dueño…” (p.165). Mientras tanto, aplasta a la Dra. Calvin con su pesado brazo metálico.
Black irrumpe en la habitación y le pregunta a Calvin si está herida. Ella niega con la cabeza. Le quita el brazo de encima; Néstor 10 está tirado junto a ella. Black le explica que, cuando vieron el accionar de Néstor 10, encendieron un campo gamma para destruirlo.
Calvin se reúne por última vez con Kallner, e insiste en que se destruyan los robots modificados. Kallner acuerda, y le pregunta cómo ha descubierto a Néstor 10. La explicación es que no inundaron la sala con rayos gamma, sino con rayos infrarrojos. Sólo Néstor 10, que tenía conocimientos de física, sabía que los rayos no eran gamma. Pensó erróneamente que los demás robots también lo sabrían, y que todos se precipitarían para salvar a Calvin. No tuvo en cuenta que los otros podían ser más ignorantes que él.
Análisis
En este punto, cabe hacer una distinción importante a la hora de abordar la ficción especulativa: existen los relatos distópicos y los utópicos. En los relatos utópicos, la visión del futuro es optimista. La ciencia, en estos casos, puede beneficiar a la humanidad, reduciendo su esfuerzo en el trabajo y otras actividades, y mejorando su calidad de vida. Aquí, la ética acompaña a la ciencia, y no hay contradicciones graves: el uso de la tecnología no compromete el desarrollo de la humanidad en su conjunto ni el cuidado ambiental. Este es, por ejemplo, el caso de la mayor parte de la literatura de Asimov, sobre todo la temprana. A pesar de que toma como eje narrativo central de sus cuentos de Yo, Robot las posibles contradicciones entre las Leyes de la Robótica, y tematiza el miedo de la sociedad ante el advenimiento de los robots, su visión es, al final del día, positiva. Según su visión, con la correcta codificación ética, los robots pueden traer, ante todo, beneficios para la comunidad.
En los años en que Yo, Robot fue publicado, años en los que la bomba atómica comenzaba a representar la mayor amenaza contra la humanidad, los autores de ficción especulativa comenzaban a virar hacia la distopía. Se trata de la mirada pesimista sobre el avance tecnológico: la primacía de la técnica, según las narraciones distópicas, solo puede llevarnos a la deshumanización y el caos. Generalmente, la destrucción en estas narraciones no solo es material, sino moral: la crisis de valores profundiza las desigualdades del presente. Como bien dijimos en el principio del análisis de Yo, Robot, la ficción especulativa dice ocuparse del futuro para señalar problemas o aspectos del presente.
Pensando, ahora sí, en el cuento que nos compete, se trata de uno de los relatos en los que más se tensa este límite entre la utopía y la distopía. Por un lado, los robots optimizan nuestra vida. Nada indica en este cuento que estemos en peligro ni mucho menos, ya que el robot, mediante algunas pruebas, es finalmente identificado mucho antes de que pueda siquiera amenazar a la comunidad. Además, es él quien, a fin de cuentas, se revela a sí mismo a través del cumplimiento de las Leyes de la Robótica. Nuevamente, cabe aclarar: nunca en esta serie de relatos los robots fallan; siempre, al final del día, terminan por cumplir con las Leyes. El error en “Pequeño robot perdido” es, por ende, humano: son las personas quienes, para conservar su costoso producto, modifican la Primera Ley de la Robótica codificada en el cerebro positrónico de algunos robots de la partida. De esta forma, esos robots no corren a asistir a personas que se exponen voluntariamente a algunos peligros en tareas específicas, sino que permiten que haya personas en riesgo a su alrededor. Según lo que se desprende del texto, de no haber sido modificada por avaricia la Primera Ley en Nestor 10, no habría problema alguno. Esto queda claro desde el punto de vista de Susan Calvin, que se horroriza ante la información que le dan Kallner y Bogert sobre el hecho de que algunos robots hayan sido alterados. Ella sabe, por su profesión, lo grave que puede ser esta modificación en la Primera Ley.
Si bien, en principio, “Pequeño robot perdido” parece tematizar el peligro en que se encuentra la humanidad debido a la posible autonomía y rebelión de los robots, en realidad queda claro que lo que puede llevar a la destrucción de la humanidad es la propia ambición de los hombres. Como bien señalamos, al querer conservar la inversión de las grandes corporaciones, los científicos modifican la ley bajo la cual los robots cuidan, ante todo, de la integridad física de los humanos. Esta modificación principalmente atenúa su efecto, y casi que la equiparan a la Tercera Ley, que versa sobre la autopreservación de los robots. Esto, por supuesto, desencadena también una alteración en la Segunda Ley, ya que vemos con horror cómo Nestor 10 no hace caso a Susan Calvin, a pesar de que esta ley dicta que todo robot debe obedecer a los humanos.
Ahora bien, ya dijimos que si las Leyes de la Robótica no hubieran sido modificadas, probablemente Nestor 10 no tendría problema alguno. La incapacidad de los humanos para comprender las consecuencias de sus acciones es lo que los lleva a ponerse a sí mismos en peligro. Pero, además, este relato da cuenta de la interconexión entre diferentes premisas éticas. Esto puede ser llevado al ámbito de la moral humana: como veíamos en “¡Embustero!”, los cortocircuitos y las crisis sistémicas que sufren los robots en estas situaciones son una metáfora de lo que los humanos llamamos disonancia cognitiva, esa fuerte incomodidad que sentimos cuando dos de nuestras ideas, sobre todo las que regulan nuestro comportamiento, se contradicen mutuamente. Modificar una de esas ideas puede traer, como es el caso del robot perdido, modificaciones no deliberadas en premisas asociadas. Por ende, Asimov representa la ética y la moral como un sistema de interconexiones que debe ser pensado como un todo y debe ser constantemente sujeto a pruebas en pos de mantener su equilibrio.
"Los otros Néstors modificados tendrán desde luego que ser destruidos" (p.166), dice Susan Calvin al final del relato. Sin embargo, en ningún momento se explica de qué modo Néstor comenzó a desvariar y salirse de los límites del comportamiento esperado, y por qué no hubo con los otros robots modificados ningún problema. Aún así, resulta comprensible, desde el punto de vista estructurado y conservador del personaje de Susan Calvin, que en todo momento sea estricta con respecto a la introducción de modificaciones riesgosas en los cerebros de los robots en pos de ganar dinero. Su personaje no se identifica en ningún momento con el aspecto corporativo de la U.S. Robots; el dinero no parece ser para ella motor de ninguna acción. Encarna, más bien, el rol de la científica obsesiva, adicta al trabajo y de principios intachables que generalmente, hasta ese momento, protagonizaban personajes varones en la literatura del género.
Evasión
Resumen
La U.S. Robots es competidora de una empresa llamada Consolidated Robots. Ambas intentan construir un motor interestelar que les permita viajar más rápido que la velocidad de la luz. Consolidated Robots se acerca a U.S. Robots con una propuesta: tienen un conjunto de cálculos y ecuaciones para una máquina interestelar, y esperan que una máquina positrónica que U.S. Robots ha construido, a la que llaman el Cerebro, sea capaz de ejecutar las ecuaciones a cambio de una generosa cantidad de dinero. Consolidated tenía ella misma una máquina positrónica, pero se rompió porque no pudo manejar estas ecuaciones. Esto, por supuesto, genera inquietud en la U.S. Robots: Lanning, Bogert, Calvin y Robertson, jefe de U.S. Robots e hijo de su fundador, discuten si deben aceptar la oferta, ya que les preocupa que las ecuaciones rompan el Cerebro. Inclusive, sospechan que la intención de la Consolidated es efectivamente la de boicotear a la U.S. Robots.
Alfred Lanning cree que es probable que el problema que surgió en la máquina de la Consolidated se deba a algún dilema relacionado con las Tres Leyes de la Robótica. Según él, los robots pueden entrar en cortocircuito si se enfrentan a un problema en el que, por un lado, se les ordena proporcionar una solución, pero, por el otro, esa solución implica la muerte o el peligro mortal para los humanos.
Calvin interviene diciendo que un humano atrapado en una contradicción de este tipo suele resolverlo “retirándose de la realidad” (p.171), y, por ende, los robots también pueden reaccionar de este modo. Calvin explica que el Cerebro de la U.S. Robots es diferente del robot de Consolidated porque tiene una especie de personalidad infantil, que no comprende del todo lo que está haciendo. Por esta razón, hay una posibilidad de su robot sea más resistente y que logre resolver los cálculos y construir la nave al ignorar algunos aspectos del peligro que esto implica.
Calvin va a visitar al Cerebro. Se trata de una máquina de medio metro con forma de globo. Ella le dice que van a darle una complicada serie de ecuaciones para que resuelva. Le advierte que la solución puede implicar “un cierto peligro para los seres humanos” (p.174), pero le asegura que no les importa si eso ocurre; que siga adelante con los cálculos: “cuando lleguemos a un punto que puede significar peligro, incluso quizá muerte, no te excites (...). Nos devuelves [la solución] y se acabó” (p.174), le dice.
A continuación, el papeleo se introduce en el Cerebro poco a poco, a lo largo de varias horas. Cuando llegan al final, Calvin se preocupa de que algo pueda estar mal, pero sorprendentemente el robot les asegura que, con la información que tiene, puede construirles una nave hiperespacial en dos meses.
Una vez que la nave es construida por robots siguiendo las instrucciones del Cerebro, la compañía trae a Donovan y Powell para que la vean. Ellos son conducidos al interior de la nave, pero se dan cuenta de que esta tiene un problema clave: no hay sala de pilotaje ni motores. Cuando intentan salir, advierten que la puerta está sellada. Vuelven a una habitación que tiene dos sillas, una ventana y un velocímetro, con la esperanza de llamar la atención de alguien afuera, pero se dan cuenta de que la ventana muestra una vista del espacio: la nave despegó sin que ellos lo supieran.
En la Tierra, las alarmas se disparan. Calvin, nerviosa, entrevista al Cerebro. Inocentemente, el robot le dice que los dos pilotos de prueba estaban dentro, así que le pareció bien lanzar la nave. Calvin pregunta, intentando mantener la calma, si estarán bien. El Cerebro le asegura que tienen comida y que estarán cómodos, aunque el viaje será “interesante” (p.181) para ellos.
Donovan y Powell empiezan a sentir cierto pánico al darse cuenta de que el Cerebro está dirigiendo la nave de manera remota sin que ellos puedan hacer nada. Oyen voces por un sistema de intercomunicación que no pueden ver. Las voces les dicen que informen su posición e intenten volver a la base, pero no tienen forma de responder a la llamada. En la nave encuentran un baño, pero no duchas. Encuentran también comida, pero solo son legumbres y leche. Comen en silencio, preocupados, antes de volver a la habitación con las sillas.
De vuelta en U.S. Robots, Calvin intenta averiguar cómo hacer que el Cerebro traiga a Donovan y Powell a casa. Pero cuando trata de hablar con él, este se torna “malhumorado” (p.186).
En la nave, Donovan y Powell empiezan a perder la esperanza. Están tensos y preocupados por su salud mental. Perciben un temblor y se dan cuenta de que la nave está iniciando el salto interestelar. Este se produce de forma repentina y dolorosa: Powell siente que ha muerto y pierde el conocimiento. Vagamente, oye un anuncio de ataúdes; luego, el “agudo grito de cien millones de fantasmas con cien millones de voces de soprano” (p.189). Powell entiende que está muriendo, y haciendo fila para entrar en el infierno.
De repente, temblando, Powell vuelve la conciencia. Mira a Donovan, que también se siente despertar de la muerte y ha escuchado un sermón sobre el fuego del infierno y la tortura. Ambos hombres transpiran. Con voz ronca, se relatan lo que vivieron. Entonces, empiezan a ver una luz blanca y azul que brilla a través del puerto, y se dan cuenta de que deben haber viajado a otra galaxia. Empiezan a entender que, en cierta forma, tendrán que morir de nuevo para poder dar nuevamente el salto interestelar y regresar.
En la Tierra, Calvin vuelve a hablar con el Cerebro. Le pregunta si el salto interestelar perjudicará a Powell y a Donovan. El Cerebro guarda silencio; no sabe si tiene que responder a la pregunta. Calvin intenta ser positiva, pero el Cerebro le dice: "Brrr... Lo has estropeado todo" (p.192).
Al día siguiente, la nave regresa a la Tierra tan silenciosamente como partió. Cuando Powell y Donovan la abandonan, besan el suelo e inmediatamente se dirigen a ducharse. Después, cuentan su historia. Calvin les confiesa que la culpa es de ella, que le dijo al Cerebro que no se preocupara tanto por la posibilidad de causar la muerte de los tripulantes. El Cerebro, de alguna manera, sabía que esta muerte sería solo temporal y no definitiva.
Donovan y Powell están furiosos, pero Lanning los calma. Bogert dice que tendrán que encontrar una forma de mejorar el salto interestelar, una manera en la que no resulte tan doloroso. Donovan sugiere que envíen la nave a Consolidated para ejecutar una venganza justa y apropiada por el dolor que la compañía les causó a ellos.
Análisis
El Cerebro es uno de los pocos robots de Yo, Robot que no tiene un nombre humanizado ni un cuerpo antropomórfico. Sin embargo, eso no significa que los humanos no piensen en el Cerebro en términos de cualidades y comportamientos humanos. Según Calvin, por ejemplo, los robots reaccionan como las personas ante un dilema ético, lo que en ellos se manifiesta como una contradicción entre sus Tres Leyes impresas. Los humanos, ante la incapacidad de enfrentarse serenamente a un dilema, reaccionan "retirándose de la realidad (...), entregándose a la bebida, llegando a la histeria o arrojándose desde un puente" (p.171). En los robots, de modo análogo, el dilema, "en el mejor de los casos, creará un desorden en sus conexiones; y en el peor abrasará su cerebro positrónico sin reparación posible" (p.171), como sucede con el robot de la empresa competidora, la Consolidated Robots.
A Calvin le es funcional una imagen muy humana para describir ante sus compañeros el funcionamiento del Cerebro y justificar por qué cree que sería posible que, en el caso de la U.S. Robots, el experimento sí funcione: "Estas máquinas de la Consolidated (...) están construidas sin personalidad (...). Sin embargo, el Cerebro, nuestra máquina, tiene una personalidad, una personalidad de chiquillo" (pp.171-172). Como indica la cita anterior, y sobre todo el el final de la historia, la conciencia y el estatus emocional del Cerebro son interpretados como una especie de personalidad infantil. Esto es lo que le permite a Calvin entender el modo de abordar el dilema en el que se ve envuelto al hacer los cálculos que se le piden. El "niño" no interpreta del mismo modo que un adulto el peligro a la muerte, y, por ende, se entrega de lleno a construir la máquina que le piden sin medir las consecuencias, e inclusive enviando esa máquina al espacio con Donovan y Powell adentro.
La competencia entre corporaciones y la ambición vuelve a ser protagonista en este relato. Las empresas corren una carrera por llegar a hacer el salto interestelar y viajar a otras galaxias. De este modo, es Calvin, esta vez, la que de alguna manera tuerce la Primera Ley de la Robótica impresa en el sistema positrónico infantilizado del Cerebro. En este cuento no se trata tanto de dinero, sino más bien de la ambición de poder y el ímpetu exploratorio de Calvin. Ella pone en primer lugar la posibilidad de hacer un descubrimiento extraordinario por sobre la chance de hacer daño a los hombres. Donovan y Powell son víctimas de este gesto, ya que, como vimos, ellos son lanzados, contra su voluntad, al salto interestelar y a la muere temporal.
En este caso, el síndrome de Frankenstein que mencionamos anteriormente efectivamente se materializa: el miedo a que las máquinas que creamos y que exceden nuestras capacidades de procesamiento de datos se vuelvan peligrosas y se salgan de nuestro control tiene fundamento. Donovan y Powell viven una experiencia desagradable y peligrosa. Asimov se ocupa, de todos modos, de dejar en claro que la responsabilidad, una vez más, recae sobre las personas. La carrera entre Consolidated y U.S. Robots por lograr ese avance tecnológico habla más del modo en que se organiza la sociedad competitiva que de los robots y la tecnología. La crítica, en todo caso, apunta a una conducta humana muy profunda y arraigada, inclusive, en nuestra heroína Susan Calvin.
Las imágenes en torno a la muerte en este relato son llamativas: “El blanco destello que podía haber sido Powell se agitaba inútilmente en las infinitas extensiones del tiempo que lo rodeaban y caían sobre él, mientras el agudo grito de cien millones de fantasmas con cien millones de voces de soprano se elevaban en el crescendo de una melodía” (p.189). La imagen no solo es compleja, ya que intenta dar cuenta de la muerte en infinitas dimensiones temporales, sino también poética. No son frecuentes las imágenes de este tipo en los relatos que componen el libro, pero, a la vez, no resulta extraño que aparezca la abstracción del lenguaje poético en relación con una de las cosas que se mantienen como un misterio para la ciencia, esto es, la experiencia de la muerte. “Todo estalló en un arco iris de sonidos cuyos fragmentos gotearon sobre un dolorido cerebro” (190), dice el narrador en relación a Powell, que acaba de experimentar el hostigamiento de una voz que, como un rugido, lo mantiene en una fila hacia el purgatorio o el infierno. Donovan, por su parte, relata algo similar: dice haber oído una voz que “era como un sermón. Algo del fuego del infierno, torturas…, en fin, ya sabes” (p.191). Se trata de una de las pocas veces en que el uso de expresiones religiosas no es retórico, es decir, que va más allá de un “Dios mío” (p.26) o “reza por que no se vayan demasiado lejos” (p.104). En este caso, el purgatorio y el infierno son escenarios bíblicos posibles en la muerte y, a pesar de su ateísmo, Asimov deja claro que no hay razones para que la ciencia censure esta posibilidad.