domingo, 7 de enero de 2024

OPINIÓN


En poco más de un año, ya estamos al servicio de CHATGPT
La ia se metió en nuestras vidas y, lo que es curioso, nos enseñó a considerar sus defectos y errores como propios
Vauhini Vara
Hace mucho que se utilizan distintas formas de inteligencia artificial, pero la presentación de CHATGPT a finales de 2022 hizo que la IA entrara de repente en nuestra conciencia pública. En febrero, CHATGPT era la aplicación de consumo de más rápido crecimiento en la historia. Nuestros primeros encuentros revelaron que esas tecnologías eran extremadamente excéntricas y que a menudo, como fue mi experiencia, resultaban muy proclives al error.
Desde entonces han pasado muchas cosas en el campo de la inteligencia artificial: las empresas fueron más allá de los productos básicos e introdujeron herramientas más sofisticadas como chatbots personalizados, servicios que pueden procesar fotos y sonido junto con texto y más. La rivalidad entre Openai y las tecnológicas más consolidadas se volvió más intensa. Los gobiernos de China, Europa y Estados Unidos dieron pasos importantes hacia la regulación del desarrollo de la tecnología al tiempo que intentaban no ceder terreno competitivo.
Sin embargo, lo que distinguió al año fue la forma en que la IA se introdujo en nuestra vida cotidiana y nos enseñó a considerar sus defectos como propios, mientras las empresas que la impulsan nos utilizaban hábilmente para entrenar a su creación. Para mayo, cuando se supo que unos abogados habían utilizado un escrito jurídico que CHATGPT había llenado con referencias a resoluciones judiciales que no existían, los que quedaron mal, como lo ilustra la multa de 5000 dólares que los abogados tuvieron que pagar, fueron ellos, no la tecnología.
Para marzo, cuando la modelo Chrissy Teigen no podía discernir si era auténtica una imagen del papa con una campera acolchada inspirada en la marca Balenciaga publicó en redes sociales este mensaje: “¿Es real?”. Los colegios y las universidades pasaron rápidamente de preocuparse por cómo evitar que los estudiantes utilizaran la IA a enseñarles a utilizarla con eficacia. La IA sigue sin ser muy buena para escribir, pero ahora, cuando muestra sus carencias, son los estudiantes que no saben usarla de quienes nos burlamos, no de los productos.
Quizá pienses que eso está bien, ¿pero no nos hemos adaptado a las nuevas tecnologías durante la mayor parte de la historia de la humanidad? Si vamos a utilizarlas, ¿no deberíamos ser más inteligentes? Esta línea de razonamiento sortea la que debería ser una cuestión central: ¿debería haber chatbots mentirosos y motores de ultrafakes disponibles, en primer lugar?
Los errores de la inteligencia artificial tienen un nombre entrañablemente antropomórfico –alucinaciones–, pero este año ha quedado claro lo mucho que está en juego. Tenemos titulares sobre cómo la IA podría dar instrucciones a drones asesinos (con la posibilidad de un comportamiento impredecible), mandar gente a la cárcel (aunque sea inocente), diagnosticar todo tipo de enfremedades (a veces de manera errónea) y producir informes noticiosos que suenan convincentes (en algunos casos, con el fin de divulgar desinformación política).
Como sociedad, es evidente que nos hemos beneficiado de prometedoras tecnologías basadas en la IA que podrían detectar el cáncer de mama o permitir que los humanos descifren las comunicaciones de las ballenas. Sin embargo, al centrarnos en esas ventajas y culparnos de las muchas formas en que nos fallan las tecnologías de inteligencia artificial, absolvemos a las empresas que están detrás de esas tecnologías y, más concretamente, a las personas que están detrás de esas empresas.
En retrospectiva, se me ocurre que, en mis primeras partidas con CHATGPT, identifiqué mal a mi rival. Pensé que se trataba solo de la tecnología. Lo que debí recordar es que las tecnologías tienen un valor neutro. No lo tienen, en cambio, los seres humanos ricos y poderosos que están detrás de ellas y las instituciones creadas por esos seres humanos.
Las empresas de inteligencia artificial están trabajando de manera ardua para corregir los defectos de sus productos. Con toda la inversión que están atrayendo, uno imagina que se lograrán algunos avances. Pero incluso en un mundo hipotético en el que se perfeccionen las capacidades de la IA –quizá especialmente en ese mundo–, el desequilibrio de poder entre sus creadores y sus usuarios debería hacernos desconfiar de su insidioso alcance.
El aparente afán de CHATGPT no solo por presentarse, por decirnos qué es, sino también por decirnos quiénes somos nosotros y qué debemos pensar, es un ejemplo de ello. Hoy en día, cuando la tecnología está comenzando, ese poder parece novedoso, incluso divertido. Mañana podría no serlo.
Periodista y escritora

http://indecquetrabajaiii.blogspot.com.ar/. INDECQUETRABAJA

No hay comentarios.:

Publicar un comentario

Nota: sólo los miembros de este blog pueden publicar comentarios.