Inteligencias artificiales
¿Son posibles y deseables?

Manuel Carabantes [*] 

 


  

Resumen: Breve reflexión multidisciplinar que ofrece una introducción a dos cuestiones fundamentales sobre la inteligencia artificial. En primer lugar, si es posible construir inteligencias artificiales en sentido fuerte en el actual estadio de desarrollo tecnológico. Y en segundo lugar, si es deseable que se logre dicha meta en una sociedad como la nuestra, dominada por la racionalidad instrumental.

Abstract: Brief multidisciplinar essay that provides an introduction on two fundamental issues about artificial intelligence. The first one is the possibility of building artificial intelligences in the strong sense given the current technological development level. And the second one is about the desirability of reaching that goal in a society like ours, dominated by the instrumental rationality.

Introducción

«Me llamo Robinette Broadhead, pese a lo cual soy varón. A mi analista (a quien doy el nombre de Sigfrid von Schrink, aunque no se llama así; carece de nombre por ser una máquina) le hace mucha gracia este hecho. […] –Rob, hoy no estás cooperando mucho –dice Sigfrid a través del pequeño altavoz que hay en el extremo superior de la alfombra. A veces utiliza un muñeco de aspecto muy real, que está sentado en un sillón, da golpecitos con un lápiz y me dedica una rápida sonrisa de vez en cuando. […] A veces intento esto con él, diciendo alguna verdad dolorosa con el tono de quien pide otro ponche de ron al camarero de una fiesta. Lo hago cuando quiero esquivar su ataque. No creo que surja efecto. Sigfrid tiene muchos circuitos Heechee en su interior. Es mucho mejor que las máquinas del instituto al que me enviaron durante mi episodio. Observa continuamente todos mis parámetros físicos: conductividad cutánea, pulso, actitud de ondas beta, en fin, de todo. Obtiene indicaciones de las correas que me sujetan sobre la alfombra, acerca de la violencia con que me retuerzo. Mide el volumen de mi voz y lee sus matices en el espectro. Y también conoce el significado de las palabras. […] Pero Sigfrid no  es real. Es una máquina. No puede sentir el dolor. Así pues, ¿adónde van a todo ese dolor y ese cieno? Trato de explicarle todo esto, y acabo diciendo: –¿No lo entiendes, Sigfrid? Yo te traspaso mis problemas y tú los traspasas a alguien más, así que tienen que desembocar en algún sitio. No me parece real que desemboquen en forma de burbujas magnéticas en una pieza de cuarzo que nadie sienta jamás»[1].

El escritor de ciencia ficción Frederik Pohl fantasea en estos fragmentos de su novela Pórtico con la posibilidad de que la ciencia nos brinde en el futuro máquinas nuevas. Pero no como las que conocemos hoy, que, a lo sumo, son capaces de poner tornillos en una cadena de montaje, sino verdaderamente inteligentes. Poner tornillos es una tarea sencilla para cualquier ser humano normal –e incluso con cierta discapacidad psíquica–. Sin embargo, Sigfrid va mucho más allá, porque es capaz de realizar el trabajo del universitario con más años de estudios: un médico. En particular un médico psiquiatra. Sigfrid, por tanto, no es una máquina destinada a reemplazar la fuerza humana –como hace el brazo robótico que pone tornillos–, sino a reemplazar la mente humana. Es lo que denominamos una IA (inteligencia artificial).

Dentro de las investigaciones en IA podemos distinguir dos corrientes. Por un lado, la IA fuerte, que pretende crear mentes artificiales como Sigfrid. Y por otro, la IA débil, cuyo propósito es más modesto, puesto que se conforma con crear modelos informáticos que resulten útiles para el estudio de la mente. En la actualidad ambas coexisten proporcionándose beneficios mutuos. Así, por ejemplo, los avances en el conocimiento de la mente humana obtenidos por el programa débil de la IA, sirven a los científicos que trabajan en el programa fuerte para intentar construir sus mentes artificiales.

En el presente ensayo nos ocuparemos de describir y discutir sólo el programa fuerte de la IA, en tanto que nos parece el más problemático y atractivo de los dos. Lo primero será preguntarnos si es posible crear mentes artificiales. ¿Puede la ciencia en nuestros días ofrecernos tan rico fruto de su árbol, o es sólo una veleidad que deseamos inductivamente tras haber visto lo rápido que han crecido sus ramas durante el último siglo? Una vez tengamos una respuesta a este interrogante, lo que procederá es reflexionar sobre la conveniencia de tales inventos. ¿Qué ventajas y peligros se despliegan ante nosotros si la ciencia, efectivamente, consigue crear IAs en sentido fuerte?

Para estas tareas utilizaremos diversas fuentes, desde un matemático como Alan Turing, hasta ingenieros informáticos como Joseph Weizenbaum y Jeff Hawkins, o un psicólogo como Howard Gardner, y filósofos como John Searle y el profesor Javier Bustamante. Las investigaciones en IA son multidisciplinares, y ese hecho ha de quedar reflejado en nuestra bibliografía.

¿Qué es un ordenador?

Alan Turing, un matemático inglés de la primera mitad del siglo XX, es considerado unánimemente como el precursor de la informática moderna. Debe su fama a haber inventado la máquina que lleva su nombre, la «máquina de Turing». Ésta consiste en una cinta magnética infinita –es decir, tan larga como sea necesario– y un cabezal que se desplaza a lo largo de la cinta leyendo y escribiendo valores (1 y 0) en función de los valores leídos anteriormente. La denominada «máquina de Turing universal» es un tipo especial de máquina de Turing en todo idéntica a la descrita, excepto en que la cinta magnética está en blanco y, por tanto, la máquina puede ejecutar cualquier programa que sea escrito en su cinta. Joseph Weizenbaum la describe así: «Existe una máquina de Turing U (realmente una clase completa de máquinas) cuyo alfabeto consta de dos símbolos “0” y “1”, de tal modo que, dados cualquier procedimiento escrito en cualquier lenguaje preciso y no ambiguo y una máquina de Turing L, que formalice las reglas de transformación de ese lenguaje, la máquina de Turing U puede imitar a la máquina de Turing L en la ejecución de L de ese procedimiento»[2].

Y cuando Turing dice que su máquina universal puede ejecutar cualquier programa, también está pensando que se puede escribir un programa para ejecutar cualquier procedimiento que seamos capaces de definir mediante un conjunto de reglas completas y consistentes[3]. Por ejemplo, poner tornillos. Es fácil pensar en todas las acciones que un programa debe ordenarle a un brazo mecánico para colocar tornillos en una cadena de montaje con el mismo grado de perfección –o incluso superior– con que lo haría un obrero. Como todos sabemos, esos brazos mecánicos enormes que hay en las fábricas de automóviles llevan a cabo las acciones necesarias para poner tornillos sin requerir la participación externa de un operario humano. Este tipo de procedimiento, en el cual las reglas determinan el siguiente estado sin participación externa, se denomina procedimiento efectivo o algoritmo[4].

Así pues, estamos de acuerdo en que los ordenadores modernos, que a grandes rasgos no son más que versiones evolucionadas de la máquina de Turing universal[5], pueden efectuar cualquier procedimiento efectivo. La tosca faena de poner tornillos es un procedimiento efectivo, pero ¿también lo es la íntima y delicada tarea de un psiquiatra? Los defensores del programa fuerte de la IA, entre los que se incluye Turing, están convencidos de que la respuesta es afirmativa. El fundamento de su convicción puede ser ilustrado con un juego.

El juego consiste en invitar a un detective experto en psiquiatría a ser tratado por dos psicoterapeutas distintos, A y B. Uno es un psiquiatra humano, y el otro es Sigfrid. Nuestro detective se comunicará con ellos de forma que no pueda apreciar las diferencias físicas obvias entre ambos, puesto que aquí lo relevante es el ámbito de lo mental. ¿Será capaz el detective de distinguir quién es la máquina? Turing propone llamar a esto el «juego de imitación»[6], aunque nosotros lo conocemos hoy en día como el «test de Turing». Su formulación, en palabras de John Searle, es la siguiente: «Si un ordenador puede actuar de modo tal que un experto sea incapaz de distinguir la actuación del ordenador de la de un humano provisto de cierta facultad cognitiva –practicar la psicoterapia en el caso que estamos proponiendo–, entonces el ordenador posee también esa facultad»[7]. Es decir, que, según Turing, si una máquina parece pensante, entonces es pensante. Una transición del mundo de las apariencias al mundo del ser que es totalmente insostenible, pues ¿acaso no parecen pardos todos los gatos por la noche pero por el día, con la luz del sol, descubrimos que son de diversos colores? Asimismo, ¿no podría suceder que una computadora, como Sigfrid, dé la apariencia de estar pensando pero en realidad no sea pensante? Ante esta objeción, Turing responde: «Este argumento parece ser la negación de la validez de nuestro test. Según la formulación más extrema de tal punto de vista, la única manera con la cual uno podría estar seguro de que una máquina piensa, consistiría en ser la máquina y sentirse pensar uno mismo. […] Éste es, de hecho, el punto de vista solipsista. Puede que sea el punto de vista más lógico de mantener, pero hace difícil la comunicación de las ideas. […] En lugar de debatir continuamente sobre este punto, suele mantenerse el gentil convenio de que todo el mundo piensa»[8]. La opinión de Turing obedece al principio metodológico conductista según el cual sólo lo empíricamente observable puede ser objeto de la ciencia. Puesto que en el juego de imitación lo único que podemos observar de Sigfrid y del psiquiatra humano son sus conductas, entonces la conducta sería el único factor que decidiera científicamente quién es humano.

Obviamente, tal y como nos dice el sentido común, el test de Turing es un criterio falso. Su refutación más contundente es obra del filósofo americano John Searle. Éste señala que los programas informáticos son pura sintaxis, es decir, que consisten en conjuntos de reglas para manipular símbolos (1 y 0) detrás de los cuales no hay ningún contenido semántico. Supongamos que a la pregunta del detective «¿Usted cree que mi madre me odia?» Sigfrid respondiera «No, no creo que le odie. Las madres aman a sus hijos». Esta conducta podría perfectamente ser la misma que diera el psiquiatra humano, y por tanto Sigfrid pasaría con éxito el test de Turing. Sin embargo, el ordenador, dice Searle, no puede pensar en nada cuando enuncia su respuesta. Porque el ordenador opera con palabras que para él no tienen significado, pues en el fondo se reducen a series de 1 y 0. Mientras que para el ser humano las palabras como «amor» sí refieren a contenidos semánticos significativos (el escalofrío de aquel primer beso), a pesar de que sus neuronas funcionen por impulsos eléctricos semejables a 1 y 0. Podríamos introducir en la base de datos de Sigfrid cientos de películas románticas, o las obras completas de Stendhal, que nada cambiaría. Frases como «En amor no se goza sino de la ilusión que uno mismo se forja»[9] no serían más que sucesiones de símbolos sin significado para él. Ahora bien, Searle admite que distinto sería el caso si la computadora en cuestión, en vez de tener la arquitectura similar a la máquina de Turing que tienen los ordenadores actuales, fuese una réplica del organismo humano que le permitiera adquirir contenidos semánticos mediante la acumulación de experiencia a lo largo de una vida inmersa en un contexto cultural, tal y como hacemos los hombres. Pero esta empresa, la de un robot androide, no parece que vaya a estar al alcance de la neurofisiología en los próximos siglos, dice Weizenbaum[10].

En conclusión, hay actividades superiores de la mente humana como la psicoterapia que quizás sean expresables en forma de procedimientos efectivos. Pero para su buen ejercicio requieren algo más que no está al alcance de los ordenadores: contenidos semánticos. Ciertamente, desde el punto de vista de la razón instrumental el único criterio para decidir quién es un buen psicoterapeuta es el resultado; un buen psicoterapeuta es aquel que cura con éxito a sus pacientes, aunque no comprenda lo que éstos quieren decirle cuando le hablan del amor o de cualquier otro asunto. En la segunda parte abordaremos las monstruosas consecuencias que vive nuestra sociedad por culpa de la aplicación hegemónica de la racionalidad instrumental. Por ahora, hemos alcanzado la conclusión de que una computadora no puede realizar cualquier tarea igual que lo haría un humano.

¿Qué es la inteligencia?

Ya sabemos que la inteligencia no es la conducta inteligente. Pues, cuando leemos un libro, ¿quién puede saber desde afuera si lo estamos entendiendo? El psicólogo Howard Gardner, exponente mundial en la materia, define la inteligencia como «Un potencial psicobiológico para resolver problemas y para generar resultados que sean apreciados al menos en un determinado contexto cultural»[11]. Los seres humanos afrontamos diversos tipos de problemas. En base a este hecho y al estudio de sujetos intelectualmente raros –como los afectados por el síndrome de savant–, Gardner distingue en la última revisión de su teoría de las inteligencias múltiples un total de nueve inteligencias: «1, Lingüística: Dominio y amor por el lenguaje y las palabras, junto al deseo de explorarlos. 2, Lógico-matemática: Confrontación y valoración de objetos, abstrayendo sus relaciones y principios subyacentes. 3, Musical: Capacidad no sólo de componer e interpretar piezas con tono, ritmo y timbre, sino también de escuchar y de juzgar. Puede estar relacionada con otras inteligencias, como la lingüística, la espacial o la corporal-cinética. 4, Espacial: Habilidad para percibir el mundo visual con precisión, para transformar y modificar lo percibido y para recrear experiencias visuales incluso en ausencia de estímulos físicos. 5, Corporal-cinética: Dominio y orquestación de los movimientos del cuerpo. Manipulación hábil de objetos. 6 y 7, Inteligencias personales: Determinar con precisión el estado de humor, los sentimientos y otros estados mentales de uno mismo (inteligencia intrapersonal) y de los otros (interpersonal), utilizando esta información como guía de conducta. 8, Naturalista: Identificación y caracterización de objetos naturales. 9, Existencial: Captación y reflexión sobre cuestiones fundamentales de la existencia»[12].

Los ordenadores actuales destacan por su inteligencia lógico-matemática, e incluso por la musical, y su inteligencia espacial (4 y 8) va en aumento gracias al desarrollo de dispositivos como células fotoeléctricas, infrarrojos y GPS. Por desgracia, son poco o nada competentes en las demás. Su comprensión del lenguaje natural es imposible (1, 7, 8 y 9), como señala Searle; y subir unas simples escaleras es una gesta épica para un robot (5).

A principios del siglo XX los psicólogos pensaban que sólo había una inteligencia única, encargada de resolver todos los problemas, ya fueran matemáticos o existenciales. En tal contexto una computadora tendría que ser multi-purpose –en el sentido más amplio– para poder ser calificada como inteligente. Es decir, que tendría que ser capaz de resolver de forma mínimamente competente cualquier tipo de problema, ya fuera matemático o existencial. Obviamente, eso es imposible, como ya hemos demostrado. En cambio, dentro del vigente marco de las inteligencias múltiples, elaborado por Howard Gardner y otros como L. Thurstone y J. Guilford, sí es posible conceder el calificativo de inteligente a una computadora, pues sólo tiene que demostrar su competencia en alguno de los nueve campos arriba distinguidos. Por tanto, la posibilidad de crear IAs depende no sólo de la arquitectura de los ordenadores y de la pericia de los programadores para aprehender las operaciones de la mente humana en forma de procedimientos efectivos, sino también de la noción de inteligencia que se considere verdadera.

¿Cómo sería una IA en sentido fuerte?

El ingeniero informático Jeff Hawkins se adscribe a la teoría de las inteligencias múltiples. Su propósito, dice, no es «construir humanos. Quiero entender la inteligencia y construir máquinas inteligentes. Ser humano y ser inteligente son asuntos separados. […] Si se desea construir máquinas inteligentes que se comporten como humanos –es decir, que pasen el test de Turing en todos sus aspectos– es probable que se tenga que recrear buena parte de la restante composición que hace a los humanos como son. Pero […] para construir máquinas que sean inteligentes de verdad, pero no exactas a los humanos, podemos centrarnos en la parte del cerebro estrictamente relacionada con la inteligencia»[13]. Esa parte del cerebro es la corteza. Allí reside casi toda la inteligencia. Comprenderla es el camino para fabricar cortezas artificiales que funcionen como auténticas IAs.

La corteza se organiza de modo jerárquico y bidireccional, dice Hawkins. Jerárquico porque se divide en regiones conectadas piramidalmente. Abajo las regiones encargadas de procesar la información sensorial, que es la más básica. A medida que ascendemos, las regiones se ocupan de tareas cada vez más abstractas, hasta llegar a las áreas de asociación, que integran la información proveniente de los cinco sentidos para formar eso que, heideggerianamente, llamamos la sensación de «estar ahí». Esta jerarquía es bidireccional porque la información no sólo tiene una dirección ascendente, sino también descendente. La información ascendente es la que nos llega del mundo exterior, y sirve para formar memorias, a todos los niveles, de lo que experimentamos. La descendente sirve para elaborar predicciones del mundo exterior sobre la base de las memorias adquiridas. Hawkins denomina a este modelo suyo de la inteligencia el «modelo de memoria-predicción»[14]. Un flujo continuo de información está llegando constantemente a nuestro cerebro, hagamos lo que hagamos –y aún cuando no hacemos nada–. Pongamos por caso, el acto de subir unas escaleras. Lo hacemos sin pensar, de manera automática. Esto quiere decir, que lo hacemos sin participación de las regiones corticales superiores. Las inferiores pueden encargarse de una tarea tan simple. La cosa cambia cuando sucede algo inesperado, como por ejemplo un tropiezo. En ese caso, el patrón inesperado «continuará propagándose hacia arriba de la jerarquía cortical hasta que alguna región superior pueda interpretarlo como parte de su secuencia de hecho normal. Cuanto más necesite ascender el patrón inesperado, más regiones de la corteza cerebral participan en la resolución de la entrada inesperada»[15].

El modelo de memoria-predicción de Hawkins, como vemos, sería muy útil para mejorar inteligencias en las que los ordenadores todavía no son diestros, como la cinestésica. Y también la lingüística, pues en una conversación predecimos constantemente lo que va a decir nuestro interlocutor. Eso nos permite entenderle aún cuando un intenso ruido de fondo no nos deje escuchar cada palabra, pues las que faltan las deduce predictivamente nuestro cerebro. Weizenbaum está de acuerdo en que este fenómeno predictivo, «tanto a nivel sintáctico como a niveles contextuales más amplios»[16], es una de las claves de la comprensión lingüística.

Las dificultades técnicas principales para realizar el proyecto de Hawkins de crear cortezas artificiales son tres. Por un lado, la plasticidad de la memoria. La corteza cerebral tiene 32 billones de sinapsis, donde se almacena la memoria. En cuanto a capacidad, el disco duro de un ordenador puede dar la talla. Pero el cerebro conserva sus recuerdos a pesar de la muerte diaria de miles de neuronas, mientras que para un ordenador la más mínima pérdida suele resultar fatal para su correcto funcionamiento. El segundo problema estriba en la conectividad. La materia blanca que conecta las regiones de la corteza cerebral contiene un astronómico número de conexiones imposible de imitar mediante silicio. La solución en este caso consistiría en implementar axones compartidos a la corteza artificial, tal y como compartimos un mismo hilo telefónico entre todos los vecinos de un bloque. Y el tercer problema, que es el más importante, es que la corteza cerebral humana no funciona por sí sola. Es el lugar principal donde reside la inteligencia, igual que el motor es la pieza principal para el movimiento de un coche. Pero sin unas bujías con las que arrancar el motor, el coche no se moverá ni un centímetro. Asimismo, el hipocampo ocupa un lugar imprescindible en la cima de la jerarquía cortical para la formación de nuevas memorias, aunque éstas se almacenen en las sinapsis de la corteza. Y el tálamo es la vía intermedia para la retroalimentación demorada entre regiones corticales. Construir una corteza cerebral en un laboratorio se antoja difícil, aunque posible en tanto que conocemos bien su estructura y funcionamiento. Sin embargo, recrear un tálamo o un hipocampo es pura ciencia ficción a día de hoy.

El proyecto de Hawkins ha de superar una última objeción. Pero no de carácter técnico, sino ético. Supongamos que fuera posible construir una corteza cerebral que diera lugar a una IA, sin tálamo ni hipocampo ni ninguna parte del cerebro viejo. Es posible que esta entidad, a diferencia de los ordenadores actuales –basados en la máquina de Turing–, tuviera representaciones semánticas, y por tanto fuera pensante. Hasta tendría conciencia[17], según Hawkins. Pues bien, cuando esta entidad pensase en «amor» vendrían a su conciencia recuerdos relacionados con ese término: imágenes, sonidos y otras memorias provenientes de sentidos como, por ejemplo, el radar y la visión infrarroja, que nosotros ni siquiera podemos concebir porque no los tenemos. ¿Podría entonces esta entidad IA ejercer la psiquiatría sin ninguna objeción ética?

La respuesta es no. Tendrá contenidos semánticos. Pero sin tálamo, sin hipocampo, sin un rostro, sin manos de cinco dedos, y sin ser tratado como un hombre por otros hombres en sociedad; sin todo esto y mucho más, la respuesta es no. Nosotros no podemos concebir cómo sería «ver» con un radar. De forma análoga, la IA descrita no podría «ver» el mundo emocionalmente, porque carecería de sistema límbico –formado por el tálamo y el hipocampo, entre otros–, que es el principal artífice de nuestra vida afectiva. Sus recuerdos serían apáticos, inhumanos. Y aunque siguiéramos siendo generosos con el progreso de la ciencia, la fabricación de un sistema límbico en laboratorio tampoco sería suficiente, pues el sistema límbico es la parte principal, pero no la única necesaria para nuestra vida afectiva –así como señalamos antes que la corteza es la parte principal, pero no la única necesaria para la inteligencia–. De esta manera, tirando del hilo, pronto nos daríamos cuenta de que el ser humano es un todo. Como el todo es más que la suma de las partes[18], ninguna de sus partes puede bastar para sustituirle en aquellas tareas que requieren de él en su integridad. Un brazo mecánico sin cuerpo es suficiente para poner tornillos a un automóvil. Pero para poner un tornillo a un hombre, hace falta un psiquiatra entero.

«Sostengo que el ser humano individual, como cualquier otro organismo, se define por los problemas que afronta. […] Ningún otro organismo, y por supuesto ningún ordenador, está dotado para confrontar problemas auténticamente humanos en términos humanos. Y puesto que el dominio de la inteligencia del hombre está determinado (salvo para un pequeño conjunto de problemas formales) por la humanidad de éste, cualquier otra inteligencia, por grande que sea, será extraña al dominio del hombre»[19].

¿Cómo es nuestro mundo?

Uno de los grandes hitos de la modernidad fue la creación del Estado: una nueva entidad política constituida sobre la identidad cultural de los habitantes que comparten un espacio. Nuestro mundo actual se caracterizada justamente por la liquidación de los Estados modernos. Vivimos en un mundo globalizado, y la globalización es, en palabras de Ulrich Beck, «la ampliación de la política más allá de la vieja categoría de Estado nacional»[20]. O dicho de otro modo, la globalización es «el conjunto de acciones mediante las cuales los Estados nacionales participan del punto de vista que admite que los espacios cerrados ya no existen»[21].

Esta transformación era inevitable desde el momento en que surgió el capitalismo, pues, como dice Immanuel Wallerstein, «el capitalismo es, dada su propia lógica interna, necesariamente global»[22]. Un empresario textil, por ejemplo, comienza fabricando y vendiendo sus productos a nivel local. Luego, nacional. Y cuando el mercado nacional se le queda pequeño, da el salto al internacional. Surge entonces el problema de dirigir un negocio cuyas partes se encuentran separadas por grandes distancias. La ubicación de cada una se ha elegido buscando reducir los costes de producción al mínimo posible. Así, las plantaciones de algodón pueden estar en África, los telares en Paquistán, y los almacenes repartidos por el mundo entero. ¿Cómo controlar un negocio repartido por una docena de franjas horarias diferentes? Cuando el empresario comenzó con un pequeño taller, podía controlar el negocio personándose allí todas las mañanas. La aparición de las grandes empresas multinacionales obligó a desarrollar una nueva forma de control: la burocracia, que literalmente significa «el poder de la oficina». Legiones de trabajadores fueron encerrados en cubículos para controlar el negocio haciendo «papeleo». Cada eslabón obedecía las órdenes de los eslabones superiores. Y, para evitar que algún obrero cambiase las órdenes por iniciativa propia, éstas debían ir firmadas en un papel.

Paralelamente, los Estados crecieron con las empresas. La población aumentaba a causa del creciente nivel material de vida. Y la amenaza del comunismo obligaba a controlar a esa población creciente por dos motivos. Uno, para neutralizar a los elementos subversivos. Y dos, para distribuir atenciones sociales que aumentaran la calidad de vida hasta el mínimo necesario para evitar que las contradicciones de clase alcanzaran el nivel crítico. La solución fue también la implantación de la burocracia.

A mediados del siglo XX, los Estados Unidos tenían 150 millones de habitantes. Habían doblado su población en menos de 50 años. El tamaño de esa sociedad era ya difícilmente controlable por la burocracia y sus oficinistas. «Tareas de cálculo sin precedente aguardaban a la sociedad americana al final de la Segunda Guerra Mundial, y, el ordenador, casi milagrosamente, llegaría para hacerse cargo de ellos»[23]. Como señala Javier Bustamante, el computador surge a imagen de una sociedad burocrática y para potenciarla en su desarrollo[24].

Por tanto, vemos que la sociedad globalizada y burocratizada en la que vivimos hoy no es producto de la computadora, pero sí es cierto que la computadora evitó que reventara como una burbuja que es demasiado grande para seguir existiendo. La computadora «enjabonó» la burbuja. Sus cualidades, como la velocidad y su enorme capacidad de cálculo, la hacen imprescindible para ciertas tareas que se han implantado en nuestra sociedad. La alternativa al uso de las computadoras para actividades como, por ejemplo, la asistencia social habría sido la descentralización de los servicios. «Pero el ordenador se utilizó para automatizar la administración de los servicios sociales y centralizarla a lo largo de líneas políticas establecidas. […] El ordenador, pues, se utilizó para conservar las instituciones políticas y sociales de los Estados Unidos, afianzándolos e inmunizándolos (al menos, temporalmente) de las enormes presiones del cambio»[25]. Es frecuente oír hablar de la «revolución del ordenador». Pero si una revolución ha de medirse por la profundidad de las revisiones sociales que entraña, entonces realmente no ha existido la revolución del ordenador. Más bien, todo lo contrario: los ordenadores han sido un invento antirrevolucionario, en tanto que usado para conservar el sistema político y de producción capitalista. Los ordenadores cerraron la posibilidad de un mundo distinto. ¿Cómo habría cambiado el mundo si los ordenadores no se hubieran inventado? Imposible saberlo.

Lo que sí sabemos es cómo es el mundo hoy. Alineándonos con la Escuela de Frankfurt, consideramos que el concepto fundamental para comprender nuestro mundo de capitalismo avanzado es la «racionalidad instrumental»[26]. La racionalidad instrumental es aquella que se ocupa de maximizar la relación entre medios y fines. Es decir, de hallar los medios más eficientes para la consecución de los fines. En este marco, la tecnología es una actividad de primer orden, pues tradicionalmente se define como el conjunto de habilidades (herramientas, maquinaria, instrumentos, materiales, procedimientos sistemáticos, etc.) que hacen posible la consecución de ciertos fines humanos[27]. Y, dentro de las tecnologías, la informática destaca por haberse convertido en la gran condición necesaria para el espectacular desarrollo exponencial de todas ellas que venimos observando durante las últimas décadas.

¿Cómo nos afectan los ordenadores?

Para diseñar motores, fármacos y carreteras; o para predecir fenómenos climáticos, demográficos y económicos. Los ordenadores sirven a todas estas actividades tecnológicas gracias a dos características. La primera es su condición de máquinas universales, que ya explicamos en el primer capítulo. Y la segunda –derivada de la primera– es su capacidad para realizar simulaciones. Antiguamente, durante el proceso de diseño de un avión había que construir montones de maquetas a escala y probarlas en un túnel de viento para descubrir sus fallos. Era un proceso largo y costoso. Hoy la tendencia es que las simulaciones reemplacen a la experimentación. En vez de construir maquetas, se programa un ordenador que simule el comportamiento del avión en un túnel de viento virtual. «La simulación consiste en la representación de un sistema complejo real mediante un modelo matemático, es decir, un conjunto de datos y parámetros organizados de forma que constituyen una representación teórica de dicha realidad»[28]. Naturalmente, las simulaciones no siempre reflejan de forma exacta la parcela de la realidad que pretenden emular. Por eso, las predicciones meteorológicas a veces fallan. Pero de los errores se aprende, y los ingenieros trabajan duro para mejorar sus simuladores. Tan importantes son las simulaciones informáticas, que hay algunas ciencias, como la sociología, que no pudieron probar sus modelos hasta la aparición de los ordenadores, pues la aeronáutica puede experimentar construyendo aviones a escala y estrellándolos, pero la sociología no puede –o al menos, no debe– infligir hambre a un grupo de población para estudiar sus reacciones.

Así contemplada, la tecnología en general –y la informática en particular– consigue parecer una actividad neutral a ojos de la opinión pública, en tanto que se ocupa de optimizar los medios sin inmiscuirse en la proposición de fines. Se oye comentar que los ordenadores «no son ni buenos ni malos», sino que son meras herramientas que nos afectan para bien o para mal en función de la finalidad que se les dé. «Si se utilizan para programar redes sociales que nos ponen en contacto con nuestros amigos, son buenos. Si se utilizan para distribuir pornografía infantil, son malos». Tal es la forma de pensar del hombre de a pie –que padece miopía intelectual–. Es el mismo argumento que esgrimen en Estados Unidos aquellos que defienden el derecho de la población civil a poseer armas de fuego. Dicen que una pistola puede servir para proteger a tu familia del asalto de unos ladrones. Pero lo cierto es que, con una pistola en la mesilla de noche, el mundo se ve de otra manera. Aunque no la utilices nunca, el mero hecho de saber que la tienes puede convertirte en una persona distinta. Si antes dejabas que tu vecino hiciera ruido por las noches, ahora te atreverás a tocar su puerta para exigirle que guarde silencio. Si antes dejabas que alguien se te colase en el turno de la carnicería, ahora levantarás la voz para decir que tú ibas antes. Los instrumentos y las máquinas, sean pistolas o computadoras, «simbolizan las actividades a que dan lugar (su propio uso). Un remo es un instrumento que sirve para remar y representa la capacidad de remar en toda su complejidad. Aquel que no haya remado no puede ver en él verdaderamente un remo»[29]. En este sentido, los instrumentos trascienden la mera condición de medio práctico para convertirse en transmisores de una visión del mundo. Por eso son pedagógicos. Ni siquiera es necesario que un individuo use directamente un instrumento para que éste transforme su visión del mundo. La visión del mundo de la señora que se colaba en la carnicería ha cambiado.

Ya hemos visto cómo los ordenadores resultaron decisivos tras la Segunda Guerra Mundial para mantener un tipo de sociedad. Este hecho por sí solo refuta la tesis de neutralidad de los ordenadores. Pero hay más hechos que se suman a dicha refutación. Distinguiremos dos: la crisis de la identidad humana, y la reducción de la capacidad humana de control en distintas actividades sociales.

Crisis de la identidad humana

El empresario textil que antes pusimos de ejemplo quiere obtener el mayor beneficio posible de su negocio –como todos los empresarios–. La informatización es un medio que le ayuda a conseguir esa finalidad. Sin embargo, los ordenadores que ha comprado no son capaces de gestionar por sí solos la totalidad del negocio. Quizás en el futuro las IAs podrán hacerlo. Pero los ordenadores actuales requieren ser manipulados por trabajadores. Así se constituye el binomio «trabajador humano–computadora». Veamos lo que aporta cada uno. La computadora por su lado ofrece principalmente las cualidades de la exactitud y la velocidad; realiza cualquier tarea con rigor matemático en cuestión de segundos. El trabajador, al no poder ser tan preciso y veloz, se convierte en el «cuello de botella» del sistema informático[30]. De cara al empresario el trabajador se ha transformado así en un obstáculo para la maximización de la productividad. Y los obstáculos deben ser eliminados, naturalmente, como dicta la racionalidad instrumental. El trabajador humano ya no tiene ningún valor añadido que le sirva para compensar al empresario por su falibilidad y lentitud, pues la creatividad, que antes era su principal virtud, es rechazada de plano por la computadora, en tanto que ésta sólo permite trabajar dentro del programa preestablecido. Sencillamente, las ideas nuevas no son computables, y por tanto no pueden entrar en el sistema. Ni siquiera en una reunión entre personas para cambiar el programa preestablecido puede el trabajador librarse de la máquina, porque las ideas que allí proponga serán sometidas a una simulación guiada por la finalidad única de incrementar los beneficios económicos. La solución óptima a un problema es, por tanto, sólo una; quedando los caminos alternativos como rechazados, y sus posibles frutos, descartados. Las computadoras son rodillos de pensamiento único.

«En una sociedad entendida según el  modelo del computador, donde la sincronía y funcionalidad de todos y cada uno de los componentes son factores esenciales para su correcto funcionamiento, queda cada vez menos espacio para el ser humano y sus características esenciales: la pasión, la esperanza, la falibilidad, el dolor»[31]. La única vía de supervivencia para el trabajador humano pasa por replantearse sus propias características esenciales. Para comer ha de trabajar, y para trabajar ha de mimetizarse con la computadora. Dicho y hecho. Se comienza purgando al concepto de inteligencia de todas aquellas operaciones que no puede realizar el computador. Muchas de las inteligencias múltiples –que vimos más arriba– distinguidas por Howard Gardner son suprimidas. Ahora «ser inteligente» no significa «ser creativo», sino «ser calculador». La nueva tabla de valores que el trabajador ha de interiorizar para sobrevivir en este mundo está compuesta por los valores de la tecnología: eficiencia, funcionalidad, sincronización, etc. La tecnología, por tanto, no es un simple medio para realizar cualquier fin determinado externamente a ella, sino que ella, internamente, dicta un conjunto de fines axiológicos, o valores. El buen trabajador es el que trabaja «como una máquina». ¿Cuántas veces no habremos escuchado esa frase hecha de «ser un máquina» utilizada como un elogio? Los comportamientos que sean fieles a dicha pauta serán premiados, y los demás, castigados.

Observemos la moda de los videojuegos para medir y ejercitar la inteligencia, los llamados brain trainers. Yo –si se me permite hablar en primera persona– soy redactor de Micromanía, la revista de videojuegos más vendida de España, gracias a lo cual tengo la ocasión de probar todos los videojuegos del mercado. Los brain trainers consisten básicamente en realizar ejercicios mentales en un tiempo limitado. A menos tiempo empleado en la tarea, mayor es la puntuación otorgada por la máquina. Es decir, más inteligente eres. ¿Qué otros parámetros aparte del tiempo diacrónico puede si no medir una computadora? –Según este baremo, la inteligencia espacial de Miguel Ángel sería paupérrima porque tardó trece años en pintar la Capilla Sixtina–. Sin embargo, la gente anda en el autobús enganchada a esos brain trainers con el afán de mejorar su inteligencia. En esos programas sólo hay desafíos como resolver rompecabezas, encontrar palabras de cierto número de sílabas y efectuar cálculos matemáticos. Operaciones todas ellas resolubles por la computadora. Antaño la capacidad de pintar o escribir obras bellas eran parámetros que definían la inteligencia humana, pero han sido aniquilados porque no son aprehensibles en forma de algoritmo, es decir, no son computables.

A estas alturas del ensayo ya estamos en disposición de entender por qué Sigfrid sería un buen psiquiatra en nuestra sociedad. Lo sería precisamente «porque» es una máquina, y no «a pesar de que» es una máquina. Los psiquiatras humanos tienen necesidad de descansar unos minutos entre paciente y paciente. Sigfrid no, y por tanto es más productivo. Los psiquiatras humanos pueden hacer huelga. Sigfrid no, y por tanto es más productivo. Los psiquiatras humanos pueden negarse a aplicar terapias efectivas pero inmorales. Sigfrid no, y por tanto es más productivo. Productividad, productividad y productividad. ¿Qué más da que Sigfrid no entienda a sus pacientes? En un mundo dominado hegemónicamente por la racionalidad instrumental, el valor supremo de un trabajador es su productividad. Sólo importa el rendimiento que se le puede exprimir.

Crisis de la capacidad humana de control

Windows Vista, uno de los sistemas operativos más modernos, tiene 50 millones de líneas de código. Si imprimiéramos ese código en un rollo de papel continuo, éste mediría 250 kilómetros. Cubriría la distancia entre Madrid y Valencia. Para la creación  de tan gigantesco programa fue necesaria la participación de 2.000 desarrolladores. Entre ellos había jefes y subordinados, como en todas las empresas, pero no había ningún jefe en la cúspide que fuera capaz de entender en su totalidad el funcionamiento de Windows Vista. La consecuencia es que el programa a veces no funciona como debería, y nadie sabe con certeza dónde está la línea de código que está produciendo el error[32].

Muy lejos de las oficinas de Microsoft se encuentra un trabajador ante su computadora que se ha bloqueado. Para seguir realizando su tarea necesita que el ordenador vuelva a funcionar, pero eso no está al alcance de su mano. Indefenso, ha perdido el control de la situación, pues depende de que la empresa desarrolladora, Microsoft en este caso, lance un parche que solucione el problema.

Esta situación de pérdida de control es frecuente. Todos la hemos vivido, y no tiene especial trascendencia más allá de contribuir a la sensación de dependencia de la computadora. Más grave sería que el programa informático que controla los misiles nucleares del ejército de una nación se accionase por error. Para tranquilizarnos, tendemos a creer que eso es imposible, que los ingenieros militares habrán tomado la prudente precaución de condicionar el lanzamiento de misiles nucleares al mandato humano. Pero la realidad es justo al revés. Stanley Kubrick explica por qué en su película Teléfono rojo, ¿volamos hacia Moscú? (Dr. Strangelove). La sinopsis de la cinta la tomamos de Juan Antonio Rivera[33]:

»Estados Unidos dispone, ya en la década de 1960, de flotillas de bombarderos B-52; cada aparato puede dejar caer una carga nuclear de 50 megatones, «equivalente a sesenta veces la potencia explosiva de las bombas y obuses utilizados por todos los ejército beligerantes en la Segunda Guerra Mundial». Estos B-52 vuelan por turnos las veinticuatro horas del día y están todos ellos a dos horas de sus objetivos en el interior de Rusia.

»Una flotilla de estos aparatos recibe la orden cifrada «Ataque de escuadrilla según el plan R». La orden ha sido emitida desde una base aérea estadounidense por el general de brigada Jack D. Ripper (Sterling Hayden), un anticomunista delirante, que ve conspiraciones bolcheviques por todos lados y que ha decidido emprender por su cuenta y riesgo una guerra nuclear contra Rusia. […]

»A partir de este punto, nadie, […] ni el mismísimo presidente de Estados Unidos […] puede hacer nada para detener la descabellada operación.

»La idea, sigue diciendo éste (un general norteamericano) cada vez más entusiasmado por el plan, es que la amenaza de una represalia no interrumpible disuadiera a los rusos de cualquier ataque a Estados Unidos.

»El embajador ruso, ante las dimensiones que empieza a tomar el asunto, […] comunica a los militares del Pentágono allí reunidos, y para consternación general, que su país tiene prevista la contrarréplica adecuada al plan R: la Máquina del Apocalipsis, un ingenio «que destruirá toda la vida humana y animal de la Tierra».

Entonces entra en escena el Dr. Strangelove, para hablar con el presidente:

»–Pero ¿cómo es posible? –pregunta el presidente de los Estados Unidos– que ese ingenio [se refiere a la Máquina del Apocalipsis] se pueda activar automáticamente y que después sea imposible desactivarlo?

»–Señor presidente, no es únicamente posible; es esencial, es la idea en que se basa esta Máquina –aclara el doctor Strangelove, muy obviamente enardecido por poder comentar los aspectos teóricos de la cuestión–: la disuasión es el arte de producir en la mente del enemigo el miedo al ataque. Por lo tanto, como el proceso decisorio es automático e irrevocable y funciona fuera del control humano, la Máquina del Apocalipsis es terrible. Es fácil de entender y absolutamente creíble y convincente.

Nótese que es esencial, como señala el doctor Strangelove (interpretado magistralmente por el inconmensurable Peter Sellers), que el ataque nuclear sea automático, irrevocable y fuera del control humano. En un mundo como el nuestro, cada vez más obsesionado por la seguridad, es seguro que las grandes potencias tienen artefactos similares a la Máquina del Apocalipsis, manejados por programas informáticos que constan de tantos millones de líneas de código, que escapan al control de sus propios programadores.

Conclusión

Las IAs en sentido fuerte son el siguiente paso de la ingeniería informática. Muchos sueñan que en el futuro los robots harán nuestro trabajo mientras nosotros descansamos. Sería el final del castigo bíblico a ganarnos el pan con el sudor de nuestra frente. Pero esto ni debe suceder, ni sucederá.

Que no debe suceder es algo que ya hemos explicado al analizar la problemática de Sigfrid –el psicoterapeuta robótico–, y lo hemos ampliado en el apartado anterior. Hay tareas propiamente humanas que no deben ser delegadas en las máquinas por motivos éticos –Sigfrid– y de seguridad –la Máquina del Apocalipsis–.

Que no sucederá es una predicción basada en la experiencia histórica. La revolución tecnológica de las IAs no cambiará nada a nivel social, como nada cambiaron las revoluciones tecnológicas en el pasado. La máquina de vapor no redundó en una mejora de la calidad de vida de los obreros, sino en un incremento de los beneficios de los dueños de los medios de producción. Análogamente, las IAs serán propiedad de los ricos, y para ellos trabajarán. Pensemos en las consecuencias de la invención de una IA capaz de entender el lenguaje natural. «¿Cuál es verdaderamente su utilidad? Pienso que no existe ningún problema humano agobiante que pudiera ser resuelto con mayor facilidad mediante la intervención de dicha máquina. Sin embargo, estas máquinas, caso de poder construirse, facilitarían considerablemente el control de la comunicación verbal. Acaso la única razón de que haya tan poca vigilancia oficial en las conversaciones telefónicas en muchos países del mundo es que exige mucha mano de obra. Cada conversación a través de un teléfono intervenido debe ser eventualmente escuchada por un agente humano. Pero las máquinas de reconocimiento del discurso podrán suprimir todas las conversaciones irrelevantes y ofrecer transcripciones de las restantes»[34]. Toda nueva tecnología será propiedad de los ricos, y por tanto utilizada por éstos para aumentar su dominación sobre los pobres. Que nadie piense que Internet es la gran excepción a esta regla. Es sabido que Google colabora con los servicios de inteligencia de los Estados Unidos proporcionándoles información acerca de las búsquedas realizadas por los usuarios de su buscador. Lo mismo hace Microsoft, incorporando programas espía entre los millones de líneas de código de sus sistemas operativos.

La tecnología, en tanto que no es un instrumento neutro sino creador de valores acordes a la racionalidad instrumental, no es un aliado, sino un obstáculo para la realización de una revolución social que, guiada por una racionalidad axiológica, termine con la brutal explotación capitalista. Así lo denuncia Marcuse: «Nuestra sociedad se caracteriza antes por la conquista de las fuerzas sociales centrífugas por la tecnología que por el terror, sobre la doble base de una abrumadora eficacia y un nivel de vida más alto»[35].


 

Bibliografía

Aristóteles, Metafísica (Madrid, Gredos, 2003).

Beck, Ulrich, ¿Qué es la globalización? (Barcelona, Paidós, 2008).

Bustamante, Javier, Sociedad informatizada, ¿sociedad deshumanizada? (Madrid, Gaia, 1993).

Copeland, Jack, Inteligencia artificial (Madrid, Alianza, 1996).

Franklin, Stan, Artificial minds (Cambridge, Massachusetts, The MIT Press, 1995).

Gardner, Howard, Inteligencias múltiples. La teoría en la práctica (Barcelona, Paidós, 1999).

Hawkins, Jeff, Sobre la inteligencia (Madrid, Espasa, 2005).

Horkheimer, Max, Teoría crítica (Madrid, Amorrortu, 1974).

Jackson, Peter, Introduction to expert systems (Wokingham, Addison-Wesley, 1986).

Marcuse, Herbert, El hombre unidimensional (Barcelona, Orbis, 1984).

Pardo, José Luis, El alma de las máquinas, Sibila nº 7, octubre 2001, pp. 28-31.

Pohl, Frederik, Pórtico (Barcelona, Planeta, 2006).

Queraltó, Ramón, Tecnología y valores en la sociedad global: El caballo de Troya al revés (Madrid, Tecnos, 2003).

Rivera, Juan Antonio, Lo que Sócrates diría a Woody Allen (Madrid, Espasa, 2003).

Rumelhart, David, Parallel distributed processing: Explorations in the microstructure of cognition, vol. I: Foundations (Cambridge, Massachusetts, The MIT Press, 1989)

Scheich, Henning, Control del pensamiento, en Mente y cerebro, 04/2003.

Searle, John, Mentes, cerebros y ciencia (Madrid, Cátedra, 1990).

Stendhal, Del amor (Madrid, Alianza, 2003).

Turing, Alan,  ¿Puede pensar una máquina? (Valencia, Teorema, 1974).

Weizenbaum, Joseph, La frontera entre el ordenador y la mente (Madrid, Pirámide, 1976).


 

[*] Manuel Carabantes es Licenciado y Máster en Filosofía por la Universidad Complutense de Madrid. Actualmente trabaja como colaborador en la revista Micromanía y prepara su doctorado en Inteligencia Artificial.

Notas



[1] Pohl, Frederik, Pórtico (Barcelona, Planeta, 2006), varios capítulos.

[2] Weizenbaum, Joseph, La frontera entre el ordenador y la mente (Madrid, Pirámide, 1976), p. 60.

[3] Ibíd., p. 46.

[4] Ibíd., p. 48.

[5] Omitimos la consideración de las denominadas redes PDP (Procesamiento Distribuido en Paralelo) por dos motivos. El primero, porque son máquinas todavía experimentales. Y el segundo, porque cualquier tarea que ellas puedan realizar es realizable por una computadora de procesamiento serial, es decir, una computadora corriente.

[6] Turing, Alan,  ¿Puede pensar una máquina? (Valencia, Teorema, 1974), p. 12.

[7] Searle, John, Mentes, cerebros y ciencia (Madrid, Cátedra, 1990).

[8] Turing, Alan, ¿Puede pensar una máquina?, loc. cit., pp. 39 y 40.

[9] Stendhal, Del amor (Madrid, Alianza, 2003), p. 110.

[10] Weizenbaum, Joseph, La frontera entre el ordenador y la mente, loc. cit., p. 177.

[11] Gardner, Howard, Inteligencias múltiples. La teoría en la práctica (Barcelona, Paidós, 1999).

[12] Ibíd.

[13] Hawkins, Jeff, Sobre la inteligencia (Madrid, Espasa, 2005), p. 56.

[14] Ibíd., p. 15.

[15] Ibíd., p. 186.

[16] Weizenbaum, Joseph, La frontera entre el ordenador y la mente, loc. cit., p. 160.

[17] «La conciencia es lo que se siente al tener corteza cerebral». Jeff Hawkins, Sobre la inteligencia, loc. cit., p. 226.

[18] Aristóteles, Metafísica, 1045 a10.

[19] Weizenbaum, Joseph, La frontera entre el ordenador y la mente, loc. cit., p. 184.

[20] Beck, Ulrich, ¿Qué es la globalización? (Barcelona, Paidós, 2008), p. 16.

[21] Ibíd., p. 29.

[22] Ibíd., p. 58.

[23] Weizenbaum, Joseph, La frontera entre el ordenador y la mente, loc. cit., p. 33.

[24] Bustamante, Javier, Sociedad informatizada, ¿sociedad deshumanizada? (Madrid, Gaia, 1993), p. 151.

[25] Weizenbaum, Joseph, La frontera entre el ordenador y la mente, loc. cit., pp. 35 y 36.

[26] Bustamante, Javier, Sociedad informatizada, ¿sociedad deshumanizada?, loc. cit., p. 43.

[27] Ibíd., p. 60.

[28] Ibíd., p. 159.

[29] Weizenbaum, Joseph, La frontera entre el ordenador y la mente, loc. cit., p. 25.

[30] Bustamante, Javier, Sociedad informatizada, ¿sociedad deshumanizada?, loc. cit., p. 81.

[31] Ibíd., p. 118.

[32] Ibíd., p. 169.

[33] Rivera, Juan Antonio, Lo que Sócrates diría a Woody Allen (Madrid, Espasa, 2003), pp. 179 a 185.

[34] Weizenbaum, Joseph, La frontera entre el ordenador y la mente, loc. cit., p. 223.

[35] Marcuse, Herbert, El hombre unidimensional (Barcelona, Orbis, 1984), p. 20.

Cuaderno de Materiales
SISSN: 1138-7734
Dep. Leg.: M-10196-98 
Madrid 2010
Semos legales
Lic.CC.2.5
Semos alternativos