domingo, 28 de julio de 2024

MUNDO TECNO....EL TRABAJO Y LA IA


La IA y el trabajo: el factor humano será clave en el desarrollo y uso de la inteligencia artificial general
El avance tecnológico podría llevar al mundo a una utopía del ocio creativo o a una distopía social
Eduardo Levy Yeyati...Darío Judzik
En febrero pasado, la autora belga Saskia De Coster se instaló en una habitación de 12 metros cuadrados con paredes de cristal ubicada en una de las salas de los Museos Reales de Bellas Artes de Bélgica. En una suerte de performance, De Coster se propueso escribir un libro desde cero en un mes, sin salir de la habitación. Satisfacía sus necesidades diarias, como comer y dormir, en la habitación contigua. Los visitantes del museo podían verla mientras trabajaba concentrada en su escrito. Una computadora, una mesa, una silla y 28 libros que la autora llevó consigo eran su compañía en la habitación. De Coster llamó a su acto “La autora está aquí”, acaso para desmarcarse de la virtualidad. Ignoramos la calidad del texto que produjo, así como si resistió la tentación deacudir al ChatGPT.
Hace pocos años, la discusión sobre el impacto de la IA en el mercado laboral apuntaba a los trabajos manuales o repetitivos de habilidades medias y bajas, en vías de extinción debido al impulso de las tecnologías digitales, con el consiguiente impacto en la distribución del ingreso: el certificado de defunción definitivo de la clase media vendría de la mano de un aumento del premio a la calificación y de una mayor inequidad de ingresos. Del mismo modo, se preveía una mayor inequidad global: en 2016, el Banco Mundial ubicaba a los países en desarrollo bien por encima de las economías avanzadas en términos de su vulnerabilidad a la sustitución tecnológica. No solo eso: en mayo de 2023, una encuesta entre especialistas todavía sostenía que los países ricos no verían una caída en la cantidad de trabajos porque la tecnología “crearía tantos trabajos como los que destruye”.
"La inteligencia artificial reduce la amplitud del acto creativo"
Hoy, en un mundo pospandemia de trabajo remoto sorprendido por la aparición de los Grandes Modelos de Lenguajes (o LLM, por sus siglas en inglés) como ChatGPT, el consenso giró 180 grados. La inteligencia artificial (IA) generativa reemplaza tanto los trabajos rutinarios como los más sofisticados, el programador ya es un trabajador blue collar y los tecnólogos ubican en el mediano plazo (digamos, veinte años) la aparición de la inteligencia artificial general, que hará todo lo que hace el ser humano, pero mejor. En este mundo nuevo, ninguna tarea es inmune, y cuanto mayor capital humano tenga el trabajador (o el país), más tendrá para perder (por eso, un estudio de 2024 del FMI estima una menor vulnerabilidad de los países emergentes en relación con los avanzados). Por otro lado, el “efecto Robin Hood” de una IA que reemplaza la calificación iguala a los trabajadores hacia abajo (a priori, un resultado virtuoso), al tiempo que reduce la participación de los trabajadores en el ingreso nacional (un resultado menos virtuoso).
En un libro reciente, organizamos este debate en caliente en torno a cuatro ideas centrales.



La primera es que habrá menos trabajos: si bien es cierto que la tecnología hará el trabajo más productivo, también lo es que reemplazará en gran medida el trabajo como lo conocemos; es probable que se creen nuevas demandas y tareas, pero no hay razones para suponer que no serán sustituidas del mismo modo que las actuales.
La segunda idea es que el futuro no solo no está decidido, sino que tampoco está en nuestras manos, en el presente: más allá consideraciones morales, es la gestión de esta transición y, en particular, la solución al problema de la distribución del ingreso que esta plantea lo que determinará si en el futuro vivimos en una utopía de ocio creativo o en una distopía de estancamiento económico y social.
La tercera tesis del libro es que el trabajo no se pierde, sino que se transforma en trabajo no remunerado, libre de la ética protestante del vivir para trabajar y de la mercantilización de las actividades humanas: si el ocio absoluto es un equilibrio imposible, el trabajo se convertirá en actividades con propósito alrededor de las cuales se organizarán las interacciones sociales.
Por último, la cuarta proposición del libro levanta un punto crucial, aunque poco estudiado: la diferencia entre las posibilidades tecnológicas y su grado de adopción. Los límites a la automatización probablemente no sean solo tecnológicos. No será la oferta, sino la demanda de productos artificiales la que dibuje el perímetro del trabajo humano. Detengámonos en esta última tesis.
La trampa de Turing
El trabajador que fue músculo, luego rutina, más tarde cerebro, ahora debe ser corazón y alma. Su ventaja, al menos por un tiempo, será su emocionalidad, su empatía, su creatividad. Habilidades como la flexibilidad para adaptarse a cambios constantes, la inteligencia social y emocional, la gestión de equipos y proyectos serán esenciales para aquellos que deban operar y supervisar un proceso de trabajo cada vez más automatizado.
Parte del debate sobre la frontera humana está guiado por una premisa engañosa, la idea de que los humanos son ineficientes (falibles, propensos al error, esclavos de sus afectos y de necesidades básicas como la comida y el descanso). En cambio, el objetivo de la máquina es ser cada vez más autónoma e inteligente, más eficiente en el sentido productivo, para reducir los costos (laborales) al reemplazar a los trabajadores con algoritmos entrenados en cantidades masivas de datos conductuales.
Hay algo en este razonamiento que suena pequeño y limitado. ¿Qué significa ser inteligente en el sentido humano? En la mayoría de nuestras tareas, debemos resolver problemas, a veces con soluciones basadas en experiencias pasadas, empleando flexibilidad y adaptación al contexto, o incluso interactuando socialmente para promover la cooperación o la creatividad colectiva. Las habilidades blandas tal vez sean la mayor ventaja comparativa humana en el universo laboral: improvisación, empatía, disrupción; también duda, fracaso. El “imperfeccionismo” como atributo. En un futuro cercano, equivocarse voluntariamente o ser políticamente incorrecto será una valiosa prueba de humanidad.
Esta tendencia a sustituir al hombre en todas sus funciones, que Erik Brynjolfsson denominó la trampa de Turing (por Alan Turing, que propuso como prueba de una máquina inteligente que sus respuestas sean indistinguibles de las de un humano), contrasta con otra versión de la IA, complementaria, que se enfoca en aumentar las capacidades humanas en lugar de imitarlas y reemplazarlas.
Cuando los humanos cooperan hombro a hombro con personas con diferentes ventajas comparativas, basadas en diferentes entornos, habilidades y características, el resultado es a menudo superior. Lo mismo ocurre cuando los humanos cooperan con máquinas. Es el criterio humano, complementado con técnicas de aprendizaje automático, la fórmula detrás de las aplicaciones de IA más exitosas.
Barreras no tecnológicas
Hay un aspecto adicional relacionado con el factor humano que suele pasarse por alto. El futuro de la automatización no solo será moldeado por las capacidades tecnológicas, sino también por las preferencias de los consumidores. Hay una distancia importante entre la sustitución potencial, impulsada por la oferta tecnológica, y la sustitución real, influenciada por la demanda de los usuarios. Por eso, la frontera de la sustitución probablemente no sea (exclusivamente) tecnológica.
Veamos algunos ejemplos. Una brújula moral puede ser una característica deseable en la mayoría de los servicios. ¿Cómo tendría que reaccionar un auto autónomo si para evitar matar a cinco personas que cruzan mal la calle debe girar y matar a una persona que camina por la vía contraria? La pregunta, una versión tecnológica del célebre problema del tranvía, figura recurrentemente en los experimentos de La Máquina Moral, una página ideada por expertos en psicología experimental y computación para recolectar “la perspectiva humana sobre decisiones morales tomadas por la inteligencia artificial”. ¿Por qué es relevante esto para el tema de este artículo? Porque, si bien aceptamos la respuesta imperfecta de un conductor humano en un accidente, cualquier decisión del auto autónomo generaría una responsabilidad legal y comercial al fabricante que lo programa, lo que demoraría la adopción de coches autónomos aun cuando estén disponibles tecnológicamente.
Otro ejemplo: el Correctional Offender Management Profiling for Alternative Sanctions (Compas), un algoritmo utilizado por jueces de los Estados Unidos para evaluar el riesgo de reincidencia, demostró reproducir los prejuicios humanos, incluido el racismo. No debería sorprender: los modelos se entrenan en base a datos y acciones producidas por humanos. De nuevo, mientras el racismo de un juez es criticable e incluso punible, el de un algoritmo plantea una responsabilidad adicional, legal y económica, que podría postergar su implementación. (Revertir estos sesgos con una programación fuertemente inclusiva podría llevar el problema al otro extremo, como lo ilustraron los nazis afroamericanos o los Papas femeninos que dibujó Gemini, el ilustrador IA de Google, antes de ser sacado de circulación).
Otro ejemplo: la demanda de The New York Times contra el propietario de ChatGPT, OpenAI por regurgitar sin atribución material gráfico protegido por derechos de autor. OpenAI argumentó, con razón, que usar textos (y otros materiales) producidos por humanos es esencial para entrenar modelos como GPT. Y siempre lo será: ¿cómo, si no, incorporarían los cambios lingüísticos, estéticos, culturales, sociales, morales? Pero, entonces, si se impone el respeto a los derechos de autor, ¿hasta qué punto esos modelos seguirán entrenándose para alcanzar a la inteligencia artificial general (IAG), la próxima frontera?
Y todo esto sin siquiera mencionar las barreras asociadas a preocupaciones sobre la desinformación y la ciberseguridad, dos temas que están en el centro del debate sobre la regulación de la IA.
El factor humano
A lo anterior, debemos sumarle un conjunto de barreras no tecnológicas de una naturaleza distinta, más intrínsecamente humana.
Pensemos en el “aura” que rodea a los creadores y artesanos. La IA ya puede componer música indistinguible de las composiciones humanas, pero dudo (porque nada del futuro es cierto) que el consumidor cultural abrace esta música artificial o que asista a conciertos sin intérpretes humanos. Imaginemos una noche de lírica cibernética en el Colón o un recital de Kraftwerk donde los cuatro miembros del grupo dejan su lugar en el escenario a las computadoras.
Un ejemplo reciente: el ascenso y caída en popularidad de Late Night with the Devil, una película de terror independiente de bajo presupuesto de este año que provocó un debate en redes sobre el uso, totalmente marginal y accesorio, de IA para la producción de unos pocos separadores. Las mismas barreras culturales podrían aplicarse al artesano, al chef o a los regurgitados escribas del NYT.
La IA también podrá en el futuro producir películas completas basadas en la semblanza de los actores, pero hay algo inquietante en esta perfección artificial, que remite a la teoría del uncanny valley (algo así como el “valle inquietante”), que postula que nuestra respuesta emocional a un objeto o una imagen se vuelve menos amable a medida que el parecido se profundiza. Pensemos en el vaquero cyborg de Yul Brynner en la versión original de Westworld, o en un Harrison Ford artificialmente joven en la última de Indiana Jones. Las mismas barreras psicológicas protegerían a los docentes, los terapeutas, los cuidadores.
Puestos a conjeturar, es probable que esta “resistencia cultural” a la automatización sea más fuerte en países como la Argentina. A riesgo de sonar folclóricos, nos cuesta menos imaginar niñeras robot en China o terapeutas incorpóreos en Japón que en un país latinoamericano tradicional.
A la luz de esto, pensamos que la tecnología por sí sola no dictará la sustitución tecnológica. Y que el marco temporal del tecnólogo podría estar subestimando no el tiempo de desarrollo tecnológico, pero sí su adopción.
Una cosa es segura: las medidas actuales de vulnerabilidad a la IA reportadas en los informes y publicaciones que más circulan no terminan de capturar los factores no tecnológicos que serán críticos para definir la sustitución tecnológica en el futuro visible.


Creemos que los consumidores, impulsados por el deseo de autenticidad y el toque único y espontáneo que solo la creatividad y habilidad humana pueden proporcionar, demandarán activamente productos y servicios creados por humanos, incluso más cuanto mayor sea el avance de la ola automatizadora.
Nuevo sello de valor
Lo “hecho por humanos” será un sello de valor similar a las certificaciones existentes de productos orgánicos o de comercio justo. Y, si bien la automatización seguirá avanzando y el número de trabajos (y su remuneración) serán menores, siempre habrá una frontera donde los bienes y servicios producidos por trabajadores de carne y hueso serán apreciados.
Naturalmente, esto no elimina la necesidad de repensar nuestros esquemas de distribución de ingresos, para evitar que la concentración derive en depresión económica. Pero, una vez zanjado este debate, la demanda por lo natural, por lo creativo y lo artesanal, equilibrarán el sesgo utilitarista hacia un mundo excesivamente artificial. Y nos llevará a abrazar actividades que exploten y potencien nuestro lado más humano.
Los autores acaban de publicar Automatizados. Vida y trabajo en tiempos de inteligencia artificial

Emplear la IA mejora la inspiración, pero acaba con la creatividad colectiva
Un estudio demuestra que el uso de ChatGPT para ayudar a los escritores genera patrones repetitivos y produce historias más parecidas entre sí e ideas menos originales
MADRID Natalia Ponjoan
Ernest Hemingway estaba en un bar junto a otros escritores cuando uno de ellos propuso una apuesta por 10 dólares: ver quién era capaz de escribir allí mismo una historia con solo seis palabras. Hemingway tomó una servilleta y escribió: “For sale: baby shoes, never worn” (“Se vende: zapatos de bebé, sin uso”) y ganó la apuesta. Anil Doshi, profesor de estrategia en la Universidad Londres, y Oliver Hauser, codirector del Instituto de Ciencia de Datos e Inteligencia Artificial en la Universidad de Exeter (Reino Unido), hicieron una prueba de escritura parecida en un estudio que demuestra que la inteligencia artificial (IA) puede ayudar a mejorar la creatividad individual, pero disminuye la novedad colectiva de las historias, pues genera relatos más parecidos entre sí. “Si el sector editorial (y el de la autopublicación) adoptara más historias inspiradas en la IA generativa, nuestros resultados sugieren que las historias producidas serían menos únicas en su conjunto y más similares entre sí”, explican Doshi y Hauser, autores del estudio publicado en la revista Science Advances.
Una herramienta de IA como ChatGPT puede afectar a la escritura creativa de distintas maneras. Las ideas que genera pueden utilizarse como trampolín a la hora de escribir, como puntos de partida que ayuden al escritor a superar el miedo a la página en blanco. Los escritores menos creativos que la utilizaron aumentaron su capacidad de creación en un 10% y sus historias fueron más amenas. “Reciben ideas de desarrollo que quizá no habrían sido capaces de idear por sí solos. Sin ese trampolín, podrían tener un punto de partida relativamente decepcionante”, añade Hauser. Sin embargo, la inteligencia artificial también puede anclar al escritor en una idea específica, ocupando el lugar de las ideas propias.
Los autores del estudio, inspirados por la anécdota de Hemingway, pidieron a 293 voluntarios que escribieran una historia con ocho frases; algunos de ellos tuvieron que escribirla solo con ideas propias, otros podían recurrir a ChatGPT para que les diera una idea inicial, y los demás podían recibir hasta cinco ideas del bot de OpenAI. Los resultados del estudio revelaron que tener acceso a ideas de la IA generativa hace que una historia sea más parecida a la media de otras historias.
Los que no usaron la IA tuvieron una puntuación de similitud de 8,10 puntos, frente a los 10,7 y 8,9 puntos de aquellos que sí la utilizaron con una o cinco ideas, respectivamente. Los escritores que usaron la IA generativa sí se aferraron a la idea que les dio el chatbot, utilizando el modelo grande de lenguaje GPT-4.
El acceso a la IA profesionaliza las historias más allá de lo que podrían haber conseguido los escritores por sí solos. Los menos creativos salen ganando. Profesionales, como investigadores, políticos o trabajadores interesados en fomentar la creatividad son los que más notan sus efectos. “Es posible que los artistas o escritores quieran replantearse el uso de estas herramientas para sus escritos, sabiendo que su producción puede ser más similar a la de otros que utilicen las mismas herramientas; su producción puede ser menos única”, explica Hauser. No es el caso, por ejemplo, de Patricio Pron, escritor que se enfrentó a GPT-4 Turbo en un concurso literario y ganó a la máquina por goleada, sobre todo en la categoría de creatividad y voz propia.
El uso de la IA puede provocar una reducción colectiva de la novedad y reduce la amplitud creativa. José Antonio Alguacil, CEO de Ilusion Labs, explica por qué: “Si todos los creativos recurren a la IA para obtener ideas, podríamos acabar unificando todo el contenido y que carezca de esa chispa única que la experiencia e imperfección humana pueden aportar. La creatividad genuina proviene de las experiencias individuales, de esas vivencias que cada persona aporta. La inteligencia artificial tiende a homogeneizar ideas y a crear patrones repetitivos”.
Para Teresa Mateo, profesora de didáctica de la Universidad Complutense de Madrid, el problema radica en el famoso algoritmo de la probabilidad: “A pesar de que la IA puede almacenar y procesar más datos que la memoria humana, su manera de generar texto está limitada a las respuestas más probables. No alcanza la sutileza de la incoherencia humana, que se caracteriza por juegos de palabras y sorpresivas evocaciones, elementos ambos esenciales de la genialidad creativa que la IA aún no logra replicar plenamente”.
Ética y uso de la IA
El uso de inteligencia artificial en la producción creativa hurga en ciertas heridas. Se debate si es ético su uso, quién es el propietario en caso de utilizarla o cómo debe repartirse la autoría del trabajo, entre otras cosas. El 58% de los evaluadores del estudio dijeron que el uso de la IA era ético y que era un “acto creativo”, mientras que solo el 20% pensaba que era aceptable hacerlo sin reconocer su aportación. Eso sí, impusieron una penalización a los escritores que utilizaron la IA (en comparación con los que no la recibieron).
¿Puede la inteligencia artificial suplantar los procesos necesarios para desarrollar la creatividad? “El ser humano puede frustrarse y dejar de desarrollarse de manera más generalizada por el uso indebido de una tecnología que merma un proceso cognitivo”, explica Mateo. La clave está en ver la inteligencia artificial como una herramienta y no como un sustituto: “Como creativos, tenemos la responsabilidad de abrazar esta tecnología sin perder de vista lo que nos hace únicos: nuestra capacidad de conectar emocionalmente, de contar historias que no solo venden, sino que inspiran y transforman”, señala Aguacil.
Los expertos señalan la importancia de mantener el desarrollo de la creatividad como un proceso cognitivo esencial del ser humano, sin ponérselo en bandeja a la máquina. ¿Qué le pasó al bebe de la historia de Hemingway? ¿Por qué se vendían sus zapatos sin usar? Su microrrelato deja paso a imaginar innumerables historias, todas ellas diferentes entre sí.
La inteligencia artificial reduce la amplitud del acto creativo Lo que nos hace únicos es la capacidad de conexión emocional La IA ha de ser una herramienta, no un sustituto


http://indecquetrabajaiii.blogspot.com.ar/. INDECQUETRABAJA

No hay comentarios.:

Publicar un comentario

Nota: sólo los miembros de este blog pueden publicar comentarios.