
Joseph Weizenbaum. En 1966 creó el programa Eliza, y más de medio siglo después seguimos sin entender su principal (y aterradora) lección
La familia de Joseph Weizenbaum huyó de la Alemania nazi cuando él tenía 12 años; volvió a su patria sesenta años después
En el MIT diseñó un software con el que las personas podían hablar, y era tan convincente que un día encontró a su secretaria contándole a la pantalla los problemas que tenía con su novio
Ariel Torres
Joseph Weizenbaum muy probablemente no sea el primer nombre que nos venga a la cabeza al cumplirse el segundo aniversario de la súbita e inesperada aparición de ChatGPT. Sin embargo, 56 años antes de que ChatGPT llegara a nuestras pantallas y 45 años antes de los primeros y rudimentarios chabots (o bots a secas), Weizenbaum escribió un software pionero y en gran medida único, Eliza. Suele verse el nombre de este programa escrito todo en mayúsculas, más que nada por razones históricas; sigo aquí el formato que emplean Joel Moss y Jeff Meldman, del Instituto de Ingenieros Eléctricos y Electrónicos, que fueron alumnos de Weizenbaum. Eliza fue tan adelantado y tan único que hoy en ciencias de la computación existe algo llamado el Efecto Eliza, al que llegaremos en unos minutos. El nombre, dicho sea de paso, proviene del personaje de la obra de teatro Pigmalión, de Bernard Shaw.
En todo caso, los veteranos de la computación recordarán el diskette etiquetado “Eliza” con el que cada tanto jugábamos un poco, en muchos casos tras haber leído el código fuente, que estaba en lenguaje SLIP, y conscientes por lo tanto del truco que Weizenbaum había pergeñado para hacernos creer algo notable. Es decir, que Eliza parecía entender lo que le decíamos y que en no pocos casos nos hacía preguntas que nos ayudaban a revelar más detalles acerca de nuestros conflictos.
Austria recibió a los nazis con entusiasmo, cuando Alemania anexó su territorio el 13 de marzo de 1938; un año y medio después, al invadir Polonia, Hitler desataría la Segunda Guerra MundialHasta acá suena todo un poco misterioso y hermético, pero este matemático e informático alemán-estadounidense anticipó de una forma extraordinaria y con recursos ínfimos algo que hoy está integrado a la vida cotidiana. Eliza era un programa que procesaba lenguaje humano, detectaba patrones y, mediante preguntas abiertas –un recurso antiguo pero muy efectivo–, nos mantenía enganchados en el diálogo. Eliza estaba a años luz de ChatGPT, pero el efecto que ambos causan sobre nosotros es semejante. Tendemos a creer que del otro lado hay alguien, cosa que, desde luego, no es cierta. Este sesgo humano, que hoy está causando incluso tragedias, se expresó primero en la secretaria de Weizenbaum en el Massachusetts Institute of Technology (MIT), que de algún modo estaba convencida de que Eliza entendía lo que le estaba diciendo.
Inmigrante enemigo
Joseph Weizenbaum nació el 8 de enero de 1923 (o sea cinco años después del final de la Primera Guerra Mundial) en Berlín, Alemania. Su familia huyó de los nazis en 1935, cuando Joseph tenía 12 años, y emigró a Estados Unidos. Había empezado a estudiar matemática en la Universidad Estatal de Wayne, en Detroit, cuando se presentó voluntario para pelear en la nueva guerra que ahora asolaba a buena parte del hemisferio norte.
Lo incorporaron como meteorólogo, dado que, como había nacido en Alemania, caía dentro de la categoría de “extranjero enemigo”. Para entonces ya no lo llamaban Joseph, sino Joe, y tras regresar a Wayne se graduó en matemática. Trabajó primero en General Electric, en un proyecto llamado ERMA (por Electronic Recording Machine, Accounting), que también tiene una actualidad notable. El sistema que creó Weizenbaum permitía leer el código magnético embebido en las fuentes tipográficas de los cheques. Eso fue en 1956. Un artículo que publicó en la célebre revista Datamation (donde nacerían, entre otros, el término firmware) muestra que había una idea que ya rondaba su cabeza. Ese artículo se llamó Cómo hacer para que una computadora parezca inteligente.
En 1963 llegó al MIT, primero como profesor adjunto y, cuatro años después, como titular, en un momento bisagra para la historia de la computación y la inteligencia artificial. Ese mismo año, el instituto había fundado un proyecto llamado MAC, que tuvo un número de posibles explicaciones. Primero, Mathematics and Computation, luego Multiple Access Computer, más tarde Man and Computer e incluso, sotto voce, Man Against Computer (el hombre contra la computadora). Allí se reunirían nombres fundamentales, como el de Marvin Minsky, que fue uno de sus directores, y el de John McCarthy, que acuñó la frase “inteligencia artificial”. El proyecto derivaría, con el tiempo, en el notable CSAIL, es decir, el Laboratorio de Ciencias de la Computación e Inteligencia Artificial del MIT.
En ese clima intelectual extraordinario, donde se daban los primeros pasos en numerosas disciplinas que todavía hoy nos desvelan y sobre las que seguimos haciendo descubrimientos revolucionarios, Joseph haría sus dos aportes fundamentales. El primero, un lenguaje de programación; el otro, Eliza.
¿Creés que hablar conmigo te hará sentir mejor?
El lenguaje de programación se llamó SLIP, un juego de palabras con LISP, que había sido creado por McCarthy. El asunto es un poco técnico, así que no entraremos en esas honduras. No obstante, Joseph usó SLIP (en rigor, la extensión de SLIP para otro lenguaje llamado MAD; había también un SLIP para Fortran) para crear Eliza, y ese código fuente histórico hoy puede obtenerse aquí. Existe incluso una versión muy fidedigna en la tienda de Windows (Botón Inicio>Microsoft Store).
El MAC trabajó en una serie de ideas, como la visión artificial, el movimiento robótico y el lenguaje. El lenguaje siempre fue y sigue siendo el gran dilema de la informática, simplemente porque sus sutilezas no pueden, como descubrió con desazón Noam Chomsky más o menos en esta misma época, resumirse en ecuaciones. La extraordinaria flexibilidad semántica, sintáctica y contextual del lenguaje hace que las máquinas no puedan dominarlo al 100 por ciento. Y en casi todo lo que importa, el 99% no alcanza.
Entre finales de la década del '50 y principios de la del 60, Noam Chomsky intentó infructuosamente hallar lo que él denominaba Gramática Universal. Pero el lenguaje humano siempre sacaba un nuevo conejo de la galeraEliza fue la forma en que Weizenbaum, que en ese momento tenía 43 años, intentó explorar la interacción entre los humanos y las computadoras en el nivel lingüístico y psíquico, y también uno de los primeros experimentos para tratar de superar el Test de Turing.
Lo más interesante de Eliza no es tanto lo que hacía sino lo que no hacía, eso que le faltaba por completo y lo que, incluso con estas deficiencias, conseguía causar en los humanos. El programa servía para hablar, entre comillas, con la computadora; aunque es más complicado, porque aceptaba guiones para darle diferentes personalidades, Eliza en principio es conocida como una caricatura de una terapeuta de la escuela Rogeriana (por Carl Rogers). Así que siempre arrancaba preguntándote cuál era tu problema. Una presunción de lo más astuta, porque, primero, todos tenemos siempre algún problema; segundo, porque ya establecía el contrato conversacional de entrada. Ese contrato disponía que Eliza te ayudaba, no al revés (ChatGPT hace exactamente lo mismo). De hecho, si intentabas invertir los términos, Eliza te decía que la conversación no se trataba de ella, de nuevo entre comillas, sino de vos. Chica lista.
Por supuesto, a más de medio siglo del poder de cómputo necesario para analizar grandes corpus de lenguaje mediante redes neuronales (eso es lo que hace ChatGPT), Eliza solo contaba con un resorte que se repetía sistemáticamente y una serie de respuestas prefabricadas. Era la tatarabuela de los primeros bots, los que te atendían en una pizzería o en un sitio de soporte técnico, antes de GPT. Cuando Eliza no lograba procesar algo, también lanzaba algunas frases hechas, como “No estoy segura de entenderte” o “Por favor, siga”.
Lo genial era el resorte que ideó Joseph para que las personas tuvieran, al menos al principio, la sensación de estar hablando con alguien. Eliza (el código de Eliza; no hay nadie llamado Eliza aquí) procesaba la frase que le escribías y daba con una palabra clave. Usaba esa palabra para hacerte a su vez una pregunta acorde o, digamos mejor, que parecía acorde. Trabajan aquí dos mecanismos psíquicos fundamentales. Primero, todos necesitamos hablar de nuestros problemas con alguien. Segundo, a todos nos encanta que nos pregunten por nuestras cosas.
Era exactamente lo que hacía Eliza, y según narran Moss y Meldman, Weizenbaum descubrió que había tocado un nervio sensible el día que encontró a su secretaria contándole cándidamente a Eliza los problemas que tenía con su novio.
¿Y eso qué le sugiere?
Como el código fuente de Eliza estaba disponible para todos (en esa era primigenia de la computación la información circulaba mucho más libremente que durante la siguiente etapa, cuando las compañías privadas empezaron a cerrar el código; Richard Stallman intentó contrarrestar esa situación con la Free Software Foundation), Eliza llegó a las computadoras personales, y mal o bien todos nos asombramos al menos durante unos minutos de la aparente empatía y comprensión de la tatarabuela de los bots. Pero aquí reside el más fenomenal y actual de los anticipos de Weizenbaum.
Más de medio siglo después, y a dos años del nacimiento de ChatGPT, el mundo industrializado sufre masivamente lo que se conoce como Efecto Eliza. Es decir, proyectamos sobre los modelos masivos de lenguaje como GPT rasgos que son humanos. Es muy cierto que hay un abismo de complejidad entre Eliza y ChatGPT y que el Efecto Eliza habla de la proyección de rasgos humanos sobre bots rudimentarios. Es obvio que ChatGPT no es un bot rudimentario, pero es de todos modos un bot y de todos modos no hay en todo ese gigantesco modelo de lenguaje ni una hebra de humanidad.
Esta visión crítica de la IA, que hoy está soterrada bajo toneladas de sofismas, opiniones basadas en la ignorancia y conceptos por completo infundados, convirtió a Weizenbaum en un rebelde dentro del mundo tecno, y aunque esa visión crítica sigue siendo cierta, ha sido mayormente relegada. De Weizenbaum casi no se habla. Pero la sola idea de poner un modelo masivo de lenguaje a realizar tareas de vida o muerte, como atender una línea de asistencia al suicida o decidir si recurrir a las armas nucleares en un conflicto bélico, eriza la piel. O, para el caso, recurrir a cualquier clase de armas.
Weizenbaum en 1997, después de regresar a AlemaniaPor desgracia –y esta es la razón por la que Joseph Weizenbaum es nuestro pionero inesperado de hoy, al cumplirse dos años de ChatGPT–, no nos estamos enfocando ni en las verdaderas fortalezas de la inteligencia artificial generativa ni en su pecado original; es decir, que la IA no es alguien, es algo, es código, es estadística y es matemática.
Eliza demostró que los humanos somos muy fáciles de engañar y que, con o sin Test de Turing, llenamos rápidamente los vacíos y nos auto convencemos de que estamos hablando con alguien que en realidad no existe ni podría existir. Al menos, no hoy, con el poder de cómputo actual, con el estado del arte de estos tiempos. Quizás en 500 o 1000 años, a lo mejor mucho más, seamos capaces de recrear lo que al planeta Tierra le llevó 700 millones de años producir. Es decir, una forma de vida consciente.
Versión para Windows de Eliza; el programa establece el contrato conversacional de entrada y nos pregunta cuál es nuestro problemaConfundir un bot con algo humano, una idea que se fomenta desde la industria y desde muchos medios, y sobre lo que la clase dirigente no tiene ni la menor idea, ya causó al menos una muerte, cuando Sewell Setzer III, de 14 años, se suicidó, luego de enamorarse de un bot de IA. Si hubiéramos prestado oídos a las advertencias que Weizenbaum hizo en su libro Computer Power and Human Reason, de 1976, quizá tendríamos mucho más clara la diferencia entre decidir (algo que las computadoras son capaces de hacer) y elegir (algo que es exclusivamente humano). Por desgracia, y aunque esto podría traer en las próximas décadas problemas muy graves (como ya pasó con la crisis financiera de 2008), seguimos batiendo el parche de que la IA es alguien o de que los bots tienen algo de humano. No es ni va a ser ni remotamente así durante muchísimo tiempo todavía. Y en estos asuntos, permítanme insistir, parecido no es igual.
Joseph volvió a Alemania en 1996, luego de dejar una obra fundamental y, a la vez, mayormente ignorada, y se estableció no lejos de donde había pasado sus primeros 12 años de vida. Falleció el 5 de marzo de 2008 a los 85 años.
No hay comentarios.:
Publicar un comentario
Nota: sólo los miembros de este blog pueden publicar comentarios.