Con la inteligencia artificial no importa el "porqué"
Existen disciplinas en las que el conocimiento precede a las explicaciones; suele pasar con la medicina y es un fenómeno en el que queda lo que algunos llaman la "deuda intelectual"
Con más de 300 millones de libros vendidos y adaptaciones a cine y TV de casi toda su obra, en el año 2000 el autor estadounidense Stephen King decidió publicar un ensayo sobre su oficio, titulado Mientras Escribo (On Writing). King cuenta en el prólogo que a principios de los años 90 formó una banda musical con varios colegas escritores, "Los Rock Bottom Remainders", todos muy exitosos (en la literatura), y que en las conversaciones con ellos durante los viajes surgía un tema común: nadie conocía "la fórmula" para hacer best sellers. Simplemente sucedía. "Evitamos preguntarnos mutuamente de dónde sacamos las ideas. Sabemos que no lo sabemos", cuenta el autor de Carrie, It y El resplandor. "Los narradores no tenemos una idea muy clara de lo que hacemos. Cuando algo es bueno no solemos saber por qué, y cuando es malo, tampoco".
Como en el chiste de economistas que sostiene que las estadísticas son como las salchichas ("pueden ser muy sabrosas, pero mejor no preguntar cómo se hicieron"), hay distintas disciplinas donde el conocimiento a menudo precede a las explicaciones. Primero, llegan las respuestas, que funcionan; y a veces las explicaciones aparecen décadas o siglos más tarde. Cuando lo hacen.
Esta dinámica es común, por ejemplo, en la medicina, donde cada año se aprueban remedios que son testeados para distintas enfermedades pero cuyos mecanismos para promover determinadas reacciones se desconocen (y así suele constar en el prospecto). A veces el éxito de un medicamento inspira y fondea nuevas investigaciones que pueden llegar a una explicación, pero esto no siempre ocurre. La aspirina se descubrió en 1897, pero recién en 1995 la ciencia logró una explicación convincente sobre su mecanismo. La estimulación cerebral (vía electrodos que se implantan) que se usa para algunos enfermos de Parkinson y otras enfermedades se aplica ya desde hace más de 20 años con éxito creciente, pero nadie puede decir exactamente cómo o por qué funciona.
El profesor de Ciencias y de la Computación y de Derecho de Internet de la Universidad de Harvard Jonathan Zittrain bautizó a este fenómeno de respuestas que se acumulan sin explicaciones que las sostengan como "deuda intelectual". En el pasado, este déficit estuvo limitado a determinadas disciplinas que avanzan mayormente con una dinámica de "prueba y error", como la medicina. La novedad es que con los avances más recientes en inteligencia Artificial (IA), la deuda intelectual se está multiplicando hasta niveles nunca conocidos. Esto es porque la avenida estrella de la IA de 2019, el aprendizaje automático ( machine learning), avanza justamente con esta lógica de prueba y error acelerada, sin capacidad para brindar explicaciones conceptuales de por qué descubrió un nuevo material o un nuevo tratamiento para el cáncer.
Hay varios factores que le dan combustible a este motor, explica Zittrain. Uno de ellos tiene que ver con que el boom del aprendizaje automático implica un negocio multimillonario fogoneado por el sector privado, que se contenta con soluciones que generen ganancias y no exige tantas explicaciones como suele pasar en el campo académico. "El aprendizaje automático funciona identificando patrones en océanos de datos. Usando esos patrones se aproximan respuestas que se testean y se van refinando. La mayoría de estos sistemas no se meten con una explicación conceptual, solo son máquinas de identificar correlaciones, 'no piensan' en un sentido humano", dice el profesor de Harvard.
En la medida en que el aprendizaje automático se vuelve ubicuo en nuestra vida cotidiana, aumenta la "deuda intelectual". En 2019, por primera vez las personas están confiando más en lo que les dicen los algoritmos que en lo que escuchan de otros pares.
Tercerizar la conciencia
El fenómeno no es nuevo y hay varios tecnólogos y especialistas en epistemología estudiándolo. En el libro This Will Change Everything (Esto lo va a cambiar todo), publicado en 2009 por el editor de Edge John Brockman, se especula en varios ensayos sobre una crisis del positivismo científico, en la medida en que los problemas se van haciendo más y más complejos.
Así como la edad promedio en la que hicieron sus descubrimientos principales los ganadores de premios Nobel se incrementó casi diez años, en distintas disciplinas se va tomando conciencia de que no basta con un solo cuerpo teórico para entender y atacar la complejidad de los problemas más graves que nos rodean.
Días atrás, el economista Tyler Cowen publicó un ensayo en The Atlanticl lamando a promover una "nueva ciencia del progreso". "El progreso en sí está subestudiado. Por ?progreso' entendemos una combinación de avances económicos, tecnológicos, científicos, culturales y organizacionales que vienen transformando y subiendo nuestro estándar de vida en los últimos dos siglos. Por varias razones, no hay estudios amplios sobre la dinámica del progreso, y de cómo hacer para profundizarlo y acelerarlo", explicó el economista. Para Cowen, muchas disciplinas atacan el tema, pero de manera fragmentada, y fallan al intentar dar con explicaciones a preguntas prácticas.
Ahora bien, si el nuevo conocimiento sirve para solucionar problemas, ¿cuál es el drama con que se demoren las explicaciones? Zittrain cree que muchas respuestas pueden funcionar bien "aisladas", pero que en un mundo de sistemas complejos recostarnos cada vez más sobre esta deuda intelectual puede resultar peligroso, porque empiezan a aparecer sesgos e inconsistencias en el conjunto de sugerencias de los algoritmos. La programadora australiana Kate Crawford mostró el año pasado una línea de tiempo donde las "catástrofes" producidas por algoritmos fuera de control (desde el affaire de Cambridge Analytica hasta fallas masivas de ciberseguridad) están aumentando su frecuencia e intensidad al mismo ritmo que ocurre con los desastres naturales con el cambio climático. "Si usamos aprendizaje automático para llegar a la mejor receta de pizza, tal vez no tenga mucho sentido preocuparnos por la explicación, convenga callarnos la boca y disfrutar de la pizza. Pero cuando confiamos en la IA para hacer predicciones de salud, más vale que estemos completamente informados", escribe Zittrain en un artículo de julio del New Yorker.
En su temporada 2019 del podcast Aprender de grandes, Gerry Garbulsky plantea con preocupación la posibilidad de que en un futuro cercano vayamos "tercerizando" muchas de nuestras funciones cognitivas en aplicaciones y programas más efectivos. Así como ya no recordamos los teléfonos de memoria (grabados en los contactos del celular) o no tenemos la necesidad de conocer las calles de la ciudad (porque existe Waze), si ese proceso se profundiza terminaría en seres humanos como un mero "hardware" de una conciencia tercerizada en otro lugar. Hasta a Stephen King le hubiera costado imaginar semejante escenario para una de sus novelas de terror. Y encima, sin poder explicar luego cómo se le ocurrió la idea.
S. C.
Días atrás, el economista Tyler Cowen publicó un ensayo en The Atlanticl lamando a promover una "nueva ciencia del progreso". "El progreso en sí está subestudiado. Por ?progreso' entendemos una combinación de avances económicos, tecnológicos, científicos, culturales y organizacionales que vienen transformando y subiendo nuestro estándar de vida en los últimos dos siglos. Por varias razones, no hay estudios amplios sobre la dinámica del progreso, y de cómo hacer para profundizarlo y acelerarlo", explicó el economista. Para Cowen, muchas disciplinas atacan el tema, pero de manera fragmentada, y fallan al intentar dar con explicaciones a preguntas prácticas.
Ahora bien, si el nuevo conocimiento sirve para solucionar problemas, ¿cuál es el drama con que se demoren las explicaciones? Zittrain cree que muchas respuestas pueden funcionar bien "aisladas", pero que en un mundo de sistemas complejos recostarnos cada vez más sobre esta deuda intelectual puede resultar peligroso, porque empiezan a aparecer sesgos e inconsistencias en el conjunto de sugerencias de los algoritmos. La programadora australiana Kate Crawford mostró el año pasado una línea de tiempo donde las "catástrofes" producidas por algoritmos fuera de control (desde el affaire de Cambridge Analytica hasta fallas masivas de ciberseguridad) están aumentando su frecuencia e intensidad al mismo ritmo que ocurre con los desastres naturales con el cambio climático. "Si usamos aprendizaje automático para llegar a la mejor receta de pizza, tal vez no tenga mucho sentido preocuparnos por la explicación, convenga callarnos la boca y disfrutar de la pizza. Pero cuando confiamos en la IA para hacer predicciones de salud, más vale que estemos completamente informados", escribe Zittrain en un artículo de julio del New Yorker.
En su temporada 2019 del podcast Aprender de grandes, Gerry Garbulsky plantea con preocupación la posibilidad de que en un futuro cercano vayamos "tercerizando" muchas de nuestras funciones cognitivas en aplicaciones y programas más efectivos. Así como ya no recordamos los teléfonos de memoria (grabados en los contactos del celular) o no tenemos la necesidad de conocer las calles de la ciudad (porque existe Waze), si ese proceso se profundiza terminaría en seres humanos como un mero "hardware" de una conciencia tercerizada en otro lugar. Hasta a Stephen King le hubiera costado imaginar semejante escenario para una de sus novelas de terror. Y encima, sin poder explicar luego cómo se le ocurrió la idea.
S. C.
No hay comentarios.:
Publicar un comentario
Nota: sólo los miembros de este blog pueden publicar comentarios.