sábado, 30 de diciembre de 2023

DE UN MUNDO A OTRO


La superinteligencia artificial multiplica los riesgos existenciales
El peligro de apocalipsis tecnológico se sitúa en un plazo de 20 a 30 años, pero las audacias para acelerar el momento en que la máquina supere al hombre tercian en la rivalidad geopolítica entre EE.UU. y China
Carlos A. Mutto Especialista en inteligencia económica y periodista

ChatGPT apenas cumplió un año –el 30 de noviembre pasado–, pero gran parte del planeta ya lo considera la mayor amenaza que acecha el futuro de la humanidad. A la edad en que los bebés desafían las leyes del equilibrio con pasos titubeantes y balbucean las primeras sílabas, el modelo de lenguaje de inteligencia artificial desarrollado por OpenAI es percibido por el ser humano como un brioso acelerador de nuevas tecnologías de ruptura que algunos ensayistas, como el historiador Yuval Noah Harari, no hesitan en describir como un potencial exterminador de la civilización.
Como a los humanos les fascina tutearse con el diablo, un sondeo de la consultora alemana Forsa reveló que una de cada tres personas ya usa el programa o, al menos, lo experimentó alguna vez para saciar su curiosidad. En noviembre, la sociedad de análisis Similarweb contabilizó 1430 millones de visitas mensuales en todo el mundo. Sin embargo, muchos usuarios no consultan el sitio web, sino que acceden a la red neuronal a través de otras aplicaciones. Por lo tanto, es verosímil que el número de consultas sea significativamente mayor. La mayoría confiesa su inquietud por su futuro laboral, sobre todo después de que el banco de inversiones Goldman Sachs estimó que 300 millones de puestos de trabajo podrán ser automatizados en todo el mundo gracias a los sistemas de inteligencia artificial general (IAG o AGI por sus siglas en inglés) como ChatGPT. Pero, en sentido inverso, esa nueva tecnología permitiría aumentar el PBI mundial el 7% anual. En otro estudio realizado conjuntamente, las prestigiosas universidades MIT (Massachusetts Institute of Technology) y Stanford se aventuraron a pronosticar un aumento inmediato de productividad de 14%.
Para buscar una respuesta más precisa, Jim Reid y Henry Allen se sumergieron en las profundidades de la historia. En un estudio que remonta a 1589, cuando la reina Isabel I de Inglaterra se negó a patentar un telar mecánico para proteger a las tejedoras manuales, esos dos estrategas del Deutsche Bank descubrieron que ninguna nueva tecnología jamás había provocado una espiral mundial de desempleo, ni siquiera la revolución industrial ni el fordismo. Inclusive determinaron que, paradójicamente, el porcentaje de personas sin empleo es, en la actualidad, más bajo que en el siglo XIX.
Esas conclusiones no autorizan a suspirar con alivio porque la inquietud que desvela al mundo comprende un perímetro mucho más amplio. Esta “explosión tecnológica” imprimirá, por cierto, un impulso decisivo a todas las disciplinas científicas. Pero lo que alarma a ciertos expertos –y líderes políticos– es su capacidad potencial de desarrollar tecnologías que van desde la amenaza de transformar la guerra con la aparición de nuevas armas “autónomas” hasta la eclosión de nuevas tecnologías inspiradas en el único objetivo de ganar dinero. Estas disrupciones abren incluso la perspectiva de convertir las nuevas versiones de inteligencia artificial en un “riesgo existencial para la humanidad”, como advirtió Toby Ord, investigador en filosofía de la Universidad de Oxford.
En una entrevista que concedió en 2016 a la revista New Yorker, Sam Altman –el creador de la start up OpenAI, que desarrolló ChatGPT– expuso abiertamente los riesgos que plantea la nueva tecnología, incluyendo la hipótesis de un “ataque de la inteligencia artificial”. Pero él no teme un apocalipsis porque está organizado para sobrevivir gracias a un plan “survivalista” que prepara desde hace años: “Tengo armas, oro, yoduro de potasio, antibióticos, baterías, agua, máscaras antigás y un ranch” con búnker antiatómico en la costa sur de California, confesó.
En el actual estado de desarrollo de la inteligencia artificial, la hipótesis de un riesgo “apocalíptico” a corto o mediano plazo “es simplemente tecnomitología especulativa”, asegura Rowan Curran, analista de la firma de mercadotecnia Forrester.
El gran temor se concentra en Q* (que se pronuncia Q-Star). El nuevo sistema autónomo que desarrolla OpenAI aspira a superar a los humanos en la mayoría de las “tareas económicamente valiosas”. Después del reciente psicodrama que vivió OpenAI con la renuncia y posterior regreso de Altman como líder indiscutido de la empresa, toda la energía parece estar concentrada en explorar las perspectivas que ofrece la inteligencia artificial general (IAG). La IAG es conceptualmente un sistema más avanzado que el modelo de lenguaje perfeccionado utilizado por ChatGPT. Las pocas indiscreciones que filtraron de OpenAI permiten imaginar que se trata de sistemas autónomos que buscan superar a los humanos en la mayoría de las “tareas económicamente valiosas”.
No pocos expertos de Silicon Valley temen que Q* pueda convertirse en una “amenaza para la humanidad”. Las denuncias formuladas durante la crisis confirmaron la existencia del proyecto, pero no aportaron ningún detalle sobre su contenido. Las sospechas sobre su futuro poder de destrucción provienen de su capacidad para resolver ciertos problemas matemáticos complejos, que son una frontera muy difícil de franquear entre sistemas. La actual IA se distingue por su pericia en la escritura y la traducción de idiomas porque está entrenada para predecir estadísticamente la palabra siguiente. Pero hacer matemáticas es mucho más difícil porque en esa disciplina solo existe una respuesta correcta. Eso pondría a prueba la mayor capacidad de razonamiento de la IAG, que –al menos en términos relativos– obtendría resultados cercanos a la inteligencia humana, condición imprescindible para abordar investigaciones científicas novedosas.
Algo de eso debe haber. “Estaba en la sala de computadoras cuando, en cierto modo hicimos retroceder el velo de la ignorancia y avanzar la frontera del descubrimiento”, sentenció Altman hace algunas semanas durante la cumbre de líderes mundiales de San Francisco. Un año antes, en noviembre de 2022, había pronosticado que “la IAG va a aparecer mucho antes de lo que piensa la gente”, aunque relativizó todo optimismo al decir que “cambiar todo, sin embargo, tomará más tiempo de lo que la gente piensa”.
Ese punto de ruptura, previsible dentro de “dos a tres décadas”, marcará la irrupción de la superinteligencia, como la definió uno de los mejores especialistas del tema: el filósofo sueco Nick Bostrom, profesor en Oxford y director del Strategic Artificial Intelligence Research Center. Bostrom dedicó casi 500 páginas de su libro Superinteligencia a estudiar el momento en que las máquinas superarán a la inteligencia humana. Una parte de ese trabajo aspira a determinar si los robots van a salvarnos o destruirnos, como temía Isaac Asimov en 1942 cuando escribió las tres leyes “perfectas e inviolables” de la robótica.
La carrera contra el reloj no será el único obstáculo. Altman necesita capitales para multiplicar la capacidad de cálculo de Q*. Eso explica su gira por Japón, Arabia Saudita y Abu Dhabi poco antes de la crisis en OpenAI en busca de socios para financiar Tigris, otro enigmático proyecto destinado a crear una empresa capaz de producir semiconductores para competir con el gigante Nvidia. Pero esa es una jugada de alto riesgo porque implica terciar en la rivalidad estratégica entre Estados Unidos y China, que se dirime esencialmente en el terreno de la alta tecnología. El “riesgo existencial para la humanidad” que predice Toby Ord a lo mejor aparece inesperadamente en la inquietante intersección de geopolítica y tecnología.
La hipótesis de un riesgo “apocalíptico” a corto o mediano plazo “es simplemente tecnomitología especulativa”, asegura Rowan Curran

http://indecquetrabajaiii.blogspot.com.ar/. INDECQUETRABAJA

No hay comentarios.:

Publicar un comentario

Nota: sólo los miembros de este blog pueden publicar comentarios.