La evidencia
Resumen
Nuevamente en el marco narrativo, la Dra. Calvin conversa con el periodista sobre los cambios que hubo en la Tierra desde la Segunda Guerra Mundial, cuando el mundo todavía se dividía en países y no en regiones, y cuando las que estaban a cargo eran las personas y no “las Máquinas” (p.196). El Cerebro, robot protagonista del relato anterior, es considerado la primera Máquina creada, es decir, un nuevo tipo de robot. Pero, para hablar de las Máquinas y del orden mundial actual, la Dra. Calvin cree necesario contarle al periodista antes, y con detalle, la historia de un hombre llamado Stephen Byerley. Se trata de un hombre que murió hace poco, “o por lo menos se las ingenió para morir, porque sabía que ya no lo necesitábamos” (p.197), aclara Calvin.
El relato comienza con una conversación en la oficina de Alfred Lanning, en la U.S. Robots. Al otro lado de su escritorio está Francis Quinn, un político candidato a alcalde. Quinn llega a la oficina de Lanning con un asunto que, según él, es muy importante para su interlocutor y para la empresa: está completamente seguro de que su mayor opositor en las próximas elecciones a alcalde, el señor Stephen Byerley, es un robot. Sus argumentos no son infalibles, pero son convincentes por su sencillez: jamás se ha visto a Byerley comer, beber o dormir. Lanning duda, pero Quinn le recuerda, con cierto tono extorsivo, que la U.S. Robots sería responsable si se descubriera que un robot positrónico puede hacerse pasar por un hombre, ya que ellos son los únicos fabricantes de robots positrónicos de todo el Sistema Solar.
Alfred Lanning y Susan Calvin le hacen una visita a Stephen Byerley. Sin muchos preámbulos, Lanning le pregunta al candidato si es un robot. Byerley sabe que es Francis Quinn quien está detrás de todo esto, y se muestra algo irritable. Sin embargo, sin muchas vueltas, se come una manzana delante de ellos para demostrar que no es un robot. Lanning se alivia, pero la Dra. Calvin dice que, en realidad, este hecho no demuestra que Byerley no sea un robot. Podría ser un robot muy avanzado, diseñado para hacer todas las cosas que puede hacer un humano. Stephen Byerley manifiesta que está seguro de que Quinn quiere iniciar una campaña de desprestigio contra él para ganar la elección. Sin mucho más que decir al respecto, los representantes de la U.S. Robots se marchan.
Al volver a casa, Byerley es recibido por John, un hombre en silla de ruedas con quien convive. Juntos dan un paseo por el jardín de la casa, y Stephen le da la noticia del día: “La campaña de Quinn se basará en la suposición de que soy un robot” (p.207). John, incrédulo, responde: “¿Cómo lo sabe?” (p.207).
Al día siguiente, Calvin, Lanning y Quinn se reúnen de nuevo. Cuando le informan a Quinn que han visto comer a Byerley, Calvin repite que esto no es evidencia contundente de que no sea un robot. Una manera de descubrir si lo es, sin dañar su integridad física en caso de que no lo sea, es a través del test psicológico. Si Stephen es un robot, como cualquier otro, debe tener impresas en su constitución las tres Leyes de la Robótica. El dilema aquí es que, si cumple con las Tres Leyes, podríamos afirmar que es un robot, como también podría decirse que hay bondad en él: “Acciones como éstas tanto pueden proceder de un robot como de un ser humano honorable y decente (...). No hay manera de diferenciar entre un robot de un ser humano bueno” (p.211).
A partir de aquí comienza una persecución obsesiva por parte de Quinn y la prensa hacia Byerley: analizan los casos en los que ha participado como fiscal de distrito, lo atosigan al punto de que debe salir a la calle rodeado de policías, e incluso le mandan al agente Harroway, un “agitado hombrecillo” (p.214), a su casa para inspeccionarla con una orden judicial en busca de hombres mecánicos. Con la orden, el agente cree que puede revisar a Byerley. Sin embargo, Byerley no se lo permite, ya que él no es un objeto o mueble de la casa, sino una persona con derechos. A pesar de su negativa, secretamente Harroway le toma una radiografía con una pequeña cámara de rayos x que lleva en su bolsillo. Más tarde, al comprobar su contenido, se da cuenta de que Byerley lleva algo que protege su cuerpo de la radiación.
Con esta nueva información, Quinn amenaza a su oponente, a través del fonovisor, con hacer público el hecho de que lleva consigo una protección contra la radiación. Byerley se muestra imperturbable. Quinn, entonces, le suelta toda su teoría: le dice que, al registrar su casa, el agente no encontró a la persona que, él sabe bien, habita también esa casa, “el verdadero Stephen Byerley” (p.218). Según Quinn, este hombre inválido, cuando tuvo su accidente, creó a un robot al que le dio su identidad para que ocupe su lugar en la sociedad, y él mismo cambió de nombre. Byerley le responde que se trata de un antiguo profesor suyo llamado John, que vive con él y que es paralítico, efectivamente, pero que en ese momento no estaba presente, porque está de vacaciones en el campo.
Byerley está seguro de que ganará las elecciones. Da un discurso muy próximo a la fecha electoral, en el que un hombre sube al escenario a hacer una pregunta y, en lugar de eso, le exige a Stephen que le pegue. “¡Pégame!” repite una y otra vez, “¡No eres humano! ¡Eres un monstruo! ¡Un falso hombre!” (p.221), le grita ante la negativa de Byerley de atentar contra su integridad física. Frente a las provocaciones de este sujeto, Byerley finalmente cierra el puño y lo golpea en la cara. El hombre se desploma. Luego de ese hecho, que para la opinión pública sentencia que Stephen Byerley no es un robot, gana la elección.
Más adelante, Calvin y Byerley conversan. Ella se muestra desilusionada de que él no sea un robot: “Me gustan los robots. Me gustan mucho más que los seres humanos. Si fuese posible crear un robot capaz de ser funcionario civil, creo que haríamos un gran bien, ya que las Leyes de la Robótica le impedirían dañar a un ser humano, lo incapacitarían para la tiranía, la corrupción, la estupidez, el prejuicio” (p.223).
Antes de irse, Calvin hace de repente una última observación a Byerley: hay un momento en el que un robot puede golpear a un ser humano sin infringir la Primera Ley, y es cuando el humano al que se golpea es en realidad otro robot.
De vuelta con el periodista, Calvin relata que, cuando Byerley murió, atomizó su propio cuerpo de modo tal que nunca pudo confirmarse si se trataba o no de un robot. Ella piensa, al día de hoy, que lo era. Pero no le importa: era un buen alcalde. Cinco años después de esa elección se convirtió en Coordinador Regional y, en 2044, cuando la Región de Tierra formó su Federación, fue su primer Coordinador. Ya para entonces, sin embargo, “eran las máquinas las que gobernaban el mundo” (p.225), le dice Calvin al periodista, y da pie al siguiente relato.
Análisis
Este cuento aborda más profundamente la diferencia entre los humanos y los robots: el mundo ha avanzado y ya no estamos ante una estructura metálica antropomórfica no parlante como Robbie, sino ante un robot que se ve, se comporta y piensa como un humano. O, al menos, resulta casi imposible discernir si se trata o no de un robot. Esto se sugiere desde un primer momento, cuando Calvin dice que Byerley “se las ingenió para morir, porque sabía que ya no lo necesitábamos” (p.197).
Stephen Byerley ha sido un intachable fiscal, y es ahora un candidato a alcalde con muchas posibilidades de ganar por su buena prensa. Por el contrario, su contrincante, Quinn, es un hombre que recurre a las más bajas estrategias para desacreditar a su oponente. Lleva la sospecha de que Byerley es un robot a extremos desleales e inmorales, como tomar fotografías de rayos x de su cuerpo sin su consentimiento o amenazar a la U.S. Robots con responsabilizarlos si se comprueban sus teorías.
En este punto, Calvin es contundente: “Acciones como estas [las de Byerley] tanto pueden proceder de un robot como de un ser humano honorable y decente (...). No hay manera de diferenciar entre un robot de un ser humano bueno” (p.211). Cuando el código ético de las Tres Leyes de la Robótica es obedecido a rajatabla, hacer el bien es inevitable para un robot. Para Calvin, cuando un ser humano busca hacer el bien es indisociable de un robot, porque indefectiblemente cumple con, al menos, la Primera Ley de la Robótica, madre de las otras. La Dra. avanza sobre esta idea: “Me gustan los robots. Me gustan mucho más que los seres humanos. Si fuese posible crear un robot capaz de ser funcionario civil, creo que haríamos un gran bien, ya que las Leyes de la Robótica le impedirían dañar a un ser humano, lo incapacitarían para la tiranía, la corrupción, la estupidez, el prejuicio” (p.223). Aquí, Calvin prefigura la historia final del libro, "El conflicto evitable". Insinúa el hecho de que las máquinas podrían garantizar la estabilidad de la economía humana y su organización en general.
Se da, sin embargo, una situación conflictiva, en tanto Byerley parece haber sido creado por un hombre, John, que, tras sufrir un accidente, fabrica un robot para que tome su lugar en la sociedad. Es interesante destacar que el reemplazo de un hombre con una discapacidad motriz por un robot parece decirnos que una vida que merezca ser vivida es una vida plenamente funcional, una que un hombre en silla de ruedas no puede habitar. Este punto no es cuestionado realmente por ningún personaje en el cuento, mucho menos por la Dra. Calvin: la eficiencia robótica de Byerley opaca ante sus ojos el hecho de que el candidato fue construido para reemplazar a un humano "defectuoso". Inclusive, la presencia de John desaparece por completo en el cuento siguiente, en el que Byerley es ya Coordinador Mundial, es decir, administrador de la Tierra.
El hecho de que Byerley, para demostrar que no es un robot, deba hacerle daño a una persona, dice mucho sobre las ideas que Asimov tiene en relación a la esencia del ser humano, aquello que lo distingue de los robots: los humanos se hacen daño entre sí. Este cuento gira en torno a lo que nos constituye como personas y nos distingue de los robots, a lo que podemos llamar la condición humana. El hecho de que haya una cualidad específica que nos distinga de los robots es necesario, ya que no considerarlos personas es lo que nos habilita moralmente a utilizarlos como herramienta y recurso económico. Si no existiera algo así como una especificidad humana, aunque solo fuera la de hacernos daño mutuamente, como señala el cuento, ¿no estaríamos siendo injustos al tratar como esclavos a réplicas humanas perfectas? Pensemos, por un momento, en la posibilidad de que llegáramos a construir seres artificiales con conciencia plena. ¿No deberíamos considerar la igualdad de los robots con respecto a los humanos y, a partir de ahí, otorgarles derechos? Queda claro que es imposible, como dice Calvin, discernir entre un humano bueno de un robot, y eso eleva moralmente a los robots. Es claro también que lo que distingue a los humanos de los robots en casi todo el libro es la ambición de las personas, su codicia, su falta de comprensión de las criaturas que ellos mismos crean o la violencia que son capaces de ejercer sobre otros humanos.
Resulta evidente que lo que Yo, Robot representa como esencialmente humano no es necesariamente positivo a nivel ético y moral. Pero, de nuevo, resultaría inmoral también mantener la organización mundial del trabajo que plantea Yo, Robot si las diferencias sustanciales entre los robots y los humanos se eliminaran. La especificidad humana, sea cual fuere, positiva o negativa, es lo que mantiene, en el universo de Asimov, a los hombres en el ejercicio del poder por sobre los robots.
Este último asunto ha sido vastamente explorado por la ficción especulativa a partir de esta época. La figura del robot como la otredad explotada es ya casi un tropos de la ciencia ficción. Debemos recordar, entonces, que, en tiempos de Asimov, estos temas estaban recién comenzando a explorarse en la literatura.
El conflicto evitable
Resumen
Stephen Byerley, Coordinador Mundial, tiene en su estudio una curiosidad medieval: una chimenea. La luz de las llamas se refleja en la mirada de su invitada, la Dra. Calvin. Le dice que la ha convocado por un problema que podría involucrar el fin de la humanidad. Ella responde, tranquila, que ha estado otras veces en dilemas así. Para plantearle el asunto, Stephen dice que deben, en primer lugar, hablar de las Máquinas.
Todos los periodos de desarrollo humano han llevado a conflictos aparentemente inevitables con sus guerras nacionalistas e ideológicas hasta el siglo XX. Al llegar los robots, el mundo cambia, y "ya no pareció tan importante si el mundo fuese Adam Smith o Karl Marx" (p.229). La economía de la Tierra es ahora estable gracias a las Máquinas calculadoras que la controlan, y que protegen a la humanidad mediante la Primera Ley de la Robótica. El equilibrio económico puso fin a los conflictos bélicos.
Byerley advierte algunos problemas con las Máquinas que dirigen la economía: el Canal de México lleva dos meses de retraso, las minas de Almaden tienen una deficiencia en la producción y la planta hidráulica de Tientsin está despidiendo gente. Estos problemas podrían conducir a conflictos mayores; las Máquinas pueden no estar cumpliendo bien su función y esto resulta extraño, ya que generalmente se autocorrigen. Su complejidad ha superado con creces las capacidades humanas: pueden procesar una cantidad inverosímil de datos en muy poco tiempo. Por esto mismo es que las razones por las cuales toman tal o cual decisión es cada vez menos transparente para la mente humana.
Al pedirle explicaciones a las Máquinas por estas fallas, estas no pueden responder. A partir de aquí, Byerley y Calvin comienzan a recorrer la Tierra en busca de respuestas y conversan con los coordinadores de cada región.
El viaje comienza por la Región Oriental, coordinada por Ching Hso-Lin. Ching explica que, en los últimos meses, algunas de sus plantas de alimentos sintéticos han tenido que cerrar. Esto se debe en parte a las modas; la cambiante popularidad de los alimentos requiere a veces de diferentes equipos y, por lo tanto, de diferentes personas idóneas para dirigir esos equipos. Las Máquinas, según sus palabras, saben predecir bien estos movimientos, pero a veces sucede que hay superproducción de un producto que pasa de moda y esto se convierte en excedente.
Ching señala también un incidente extraño: un hombre llamado Rama Vrasayana dirigía una planta que se vio obligada a cerrar debido a la competencia. Fue extraño que la Máquina no le advirtiera a Vrasayana para que renovara su producción. Sin embargo, Ching les asegura a Byerley y Calvin que este es el único problema que han tenido.
El viaje continúa por la Región del Trópico, coordinada por Lincoln Ngoma. Ngoma explica que allí les falta mano de obra para terminar el Canal de México. Se refiere también a un incidente en el que Francisco Villafranca, el ingeniero a cargo, se vio involucrado en un derrumbe que retrasó el proyecto. La Máquina informó más tarde que los cálculos de Villafranca estaban equivocados. Pero Villafranca afirmó que la Máquina le había dado datos diferentes la primera vez, datos que él había seguido fielmente. Ngoma señala que tiene cierto sentido que Villafranca culpe a la Máquina del error, porque asistía a conferencias de la Sociedad para la Humanidad, un grupo antimáquina que surgió de los Fundamentalistas.
A continuación, Byerley y Calvin se reúnen con la coordinadora de la Región Europea, llamada Madame Szegeczowska. Allí, las minas de mercurio de Almaden están atrasadas en su producción. Szegeczowska dice que Almaden está dirigida por una empresa del Norte (los nórdicos) que está relacionada también con la Sociedad para la Humanidad; le preocupa que no hayan consultado a las Máquinas al realizar acciones. Sin embargo, les asegura que la empresa está siendo vendida a un grupo de españoles y que probablemente no habrá más problemas a partir de allí.
Byerley y Calvin terminan su viaje en la Región Norte, coordinada por Hiram Mackenzie. Mackenzie refuta la idea de que las Máquinas se equivoquen debido a datos incorrectos, ya que reconocen los valores atípicos en lo que se les da para analizar. Byerley le pregunta cómo explica entonces los errores supuestamente cometidos por las Máquinas. Mackenzie pone el ejemplo de una persona que compra tejidos de algodón: no hay datos cuantitativos para predecir lo que le puede parecer bien a una persona cuando compra algodón, y no puede explicarlo por sí misma. Los compradores experimentados tienen un procedimiento que consiste en “arrancar un puñado de algodón (...) al azar. Lo miran, lo tocan, comprueban su resistencia, se lo llevan a la lengua, y mediante estos procedimientos determinan la categoría del algodón contenido en las balas” (p.247). Estos compradores no pueden ser sustituidos por las Máquinas, porque hay “varias docenas de particularidades, inconscientemente consideradas, fruto de años de experiencia” (p.247) en su saber. Por lo tanto, en estos casos, no hay datos para dar a las Máquinas. El cerebro humano es subjetivo e inconsistente, y hay innumerables casos como el de los compradores experimentados de algodón en el sistema económico mundial.
Byerley y Calvin se reúnen con la información que han recabado. Se preguntan si la gente desobedece deliberadamente a las Máquinas para poder obtener un mayor estatus económico o poder que las otras regiones. Byerley también observa los vínculos de muchas de estas historias con la organización Sociedad para la Humanidad. Tanto Villafranca como Vrasayana eran miembros de ese grupo, y la sociedad de Almaden también tenía vínculos con ella. Por tanto, es posible que desconfiaran de las Máquinas y las desobedecieran. Resuelve entonces que la Sociedad debe ser prohibida, y que todos sus miembros deben ser destituidos de sus cargos en el gobierno.
Por el contrario, Calvin ofrece una posibilidad alternativa a la de Byerley. Ella piensa que, como las Máquinas siguen la Primera Ley y trabajan por el bien de toda la humanidad en su conjunto, saben que, si son destruidas, la Tierra sufrirá un gran daño. Por lo tanto, ellas han estado "tranquilamente evitando los únicos elementos amenazadores que quedan" (p.252). Las Máquinas han estado desbaratando a las personas y a las organizaciones que las amenazan, “sacudiendo el bote muy ligeramente” (p.252), para poder seguir controlando la economía.
Byerley se queda atónito, preguntándose si esto significa que la humanidad ha perdido todo control sobre su futuro. Calvin responde que la humanidad siempre ha estado a merced de fuerzas que no comprendía en su totalidad. Ahora las Máquinas entienden esas fuerzas, y quizá sea bueno que tengan el control, porque están velando por la humanidad en su conjunto. Tal vez, dice, todos los conflictos sean ahora evitables, y solo las Máquinas sean inevitables.
Esta es la última historia que Susan Calvin le relata al periodista. Ella explica que lo ha visto todo desde el principio, cuando los robots todavía no podían hablar, hasta el final, “cuando se interpusieron entre la Humanidad y la destrucción” (p.254). El periodista no vuelve a ver jamás a Susan Calvin, que muere a los 82 años.
Análisis
En este último cuento finalmente se llega a una sociedad conducida por completo según los principios de la razón instrumental y técnica. Según Asimov, la ciencia y la tecnología pueden velar por el bienestar y crecimiento de la humanidad en su conjunto de ser estructurados bajo un sistema de valores éticos codificados. Las Máquinas son monumentales robots con cerebros positrónicos tan avanzados que, de alguna manera, debido a la gran cantidad de datos que procesan, pueden proyectarse hacia el futuro con mayor precisión que cualquier organización humana. Si establecemos una comparación, no solo con Robbie sino con Stephen Byerley, aun “vivo” para estos años, y ocupando el cargo de Coordinador Mundial, es claro que los robots se han complejizado de tal modo que resulta imposible comprenderlos en nuestros términos.
Sin embargo, las personas siguen formando parte de los gobiernos, actuando según la información que brindan las Máquinas. Ellas se encargan de erradicar las divisiones económicas y las teorías signadas por la ideología bajo el principio básico de que debe beneficiarse a la mayor cantidad de personas posible. Este cuento representa un mundo en el cual, bajo la guía de las Máquinas, los humanos también son mejores y evitan el conflicto y la violencia. Recordemos que Asimov era un humanista y un pacifista que, en medio de la carrera armamentística por la bomba atómica, seguía confiando en que la tecnología era capaz de resolver racionalmente los conflictos entre los pueblos.
La trama de “El conflicto evitable” gira en torno al hecho de que todas las Máquinas regionales han estado introduciendo cada una un diferente error. Sin embargo, como ha sucedido en cada uno de los relatos en los que parecía que los robots no cumplían con las Leyes de la Robótica, la Dra. Calvin concluye que las anomalías han sido deliberadas: “Es cuestión de sacudir el bote, deliberadamente. Mientras la Máquina gobierne, no puede haber ningún conflicto serio en la Tierra en el cual uno u otro grupo pueda incrementar su poderío en beneficio propio oponiéndose a los intereses del resto de la Humanidad” (p.249). Es decir que estos robots titánicos, al tener la capacidad de proyectarse al futuro más posible dentro de un abanico de alternativas, toman conciencia de que deben hacer pequeños daños en la actualidad para eliminar vectores de daño futuro.
Debemos tener en cuenta que hoy en día resulta habitual hablar de grandes computadoras y el procesamiento de descomunales cantidades de datos, pero cabe resaltar que, por ejemplo, el término Big Data recién se acuñaría en el año 1989. Llamamos Big Data a una cantidad tan voluminosa de datos que un software convencional de procesamiento de datos no puede soportar. Hoy en día, empresas como China Telecom Data Centre o el Citadel manejan volúmenes de información que ni Isaac Asimov podría haber imaginado para sus Máquinas.
Si nos situamos en el momento de publicación de este cuento, estaba siendo en ese tiempo almacenada en IBM una buena cantidad de datos, para ser recién procesados con entrecruzamientos inéditos en 1958. Más aún, las tareas todavía se hacían con tecnología magnética, no electrónica, y se introducían los datos de forma manual. Asimov fue, no quedan dudas, un visionario con respecto a la idea de que las grandes máquinas de procesamiento de lo que hoy llamamos Big Data iban a tener un papel protagónico en el futuro. Para él, las Máquinas de "El conflicto evitable" no solo procesan una cantidad tan grande de datos que pueden tener un control muy efectivo de la organización de la economía presente, sino que pueden, gracias a la cantidad de información que manejan en simultáneo, proyectarse hacia los futuros posibles que las condiciones presentes habilitan.
Pero, lamentablemente, el futuro no le deparó a la humanidad lo que el optimista Asimov esperaba; las corporaciones de almacenamiento de información efectivamente arrojan información relevante y fidedigna. El asunto es a quién le brindan, no sin dinero de por medio, esa información. Desde sus inicios, esta habilidad de las computadoras gigantes estuvo al servicio de los grandes poderes económicos, especialmente los bancos. Un buen ejemplo, que puede vincularse con este cuento, es la transformación que sufrió el sistema de otorgamiento de crédito en Estados Unidos. Ya no eran personas las que observaban los datos bancarios y personales del cliente en su expediente para asignarle un tope de crédito personal, sino que las grandes máquinas son las que, quitándole responsabilidad a los agentes de crédito, dictan quién puede -y quién no- recibir dinero en calidad de préstamo, y cuánto. Asimov diría, quizá, que esto sucede porque las computadoras de almacenamiento de datos de IBM no llevan impresas las Tres Leyes de la Robótica, es decir, porque no tienen código ético alguno, y posiblemente tenga razón.
En “El conflicto evitable”, las Máquinas toman la decisión de que la única manera de respetar la Primera Ley es tomar el completo control de la humanidad. Irónicamente, este es uno de los eventos que las Tres Leyes deberían prevenir en su conjunto, ya que fueron impresas en los robots para garantizar que, a pesar de su fuerza e inteligencia, estos sean siempre controlados por la voluntad humana. Sin embargo, en cada uno de los cuentos queda claro que, con el buen funcionamiento del sistema de codificación de los valores éticos y morales, las Máquinas y los robots como Stephen Byerley solo vienen a traer bienestar, mientras que son los hombres quienes, presas de sus pasiones, provocan el conflicto. Por ende, ceder el control a los robots es algo que la Dra. Calvin, por ejemplo, ve con buenos ojos.
Desde siempre, la humanidad se ha visto envuelta en conflictos armados, lo que ha afectado a millones de personas. Yo, Robot propone un mundo en el que estos conflictos se resuelven desde una mirada tecnocrática: la política cede lugar a la técnica, al conocimiento específico, en este caso, inclusive, deshumanizado. Stephen Byerley es una forma de eslabón de transición en los puestos de control entre los humanos y las Máquinas. En "El conflicto evitable", las Máquinas ya sostienen las riendas de la economía en su totalidad, debido a su gran capacidad de procesamiento de información. Demuestran de qué modo los conflictos humanos (bélicos, económicos) se pueden evitar con la capacidad de administración de las Máquinas, pues ellas pueden dar una rápida respuesta a cualquier inconveniente, simple o complejo, siempre ponderando el bienestar de la mayoría, y no de unos pocos. “La Humanidad ha perdido todo control sobre su futuro” (p.254), dice Byerley. Según Calvin, nunca lo ha tenido realmente, ya que siempre se vio sujeta a una gran cantidad de información sociocultural y económica que no podía procesar. Las Máquinas, al ser capaces de comprender esos procesos, son las que deben poseer, y efectivamente ejercen, el absoluto control de la sociedad, es decir, el control de la economía. Calvin remata: “Piense que en todos los tiempos los conflictos han sido evitables. ¡Sólo las Máquinas, a partir de ahora, serán inevitables!” (p.254).