¿Cómo reaccionaría la inteligencia artificial si le mentimos?
Es raro, nunca nos pusimos a pensar en qué edad tiene un modelo de lenguaje; en la imagen, una escena de Chappie
Estamos preocupados porque los modelos de IA generativa pueden crear realidades apócrifas muy difíciles de detectar; es un temor justificado, pero el verdadero peligro está en lo que podría ocurrir si tratamos de engañar a los algoritmos (y tal vez ya lo estamos haciendo)
Ariel Torres
Estos días, en una entrevista que le concedieron a la BBC, los periodistas del Watergate, Bob Woodward y Carl Bernstein, hablaron de muchas cosas, incluida, por supuesto, la inteligencia artificial (IA). Woodward dijo que, al revés que la IA, él puede llamar al número uno del Pentágono y hacerle preguntas. El funcionario puede optar por responder o por no responder (lo que constituye por sí una respuesta), pero es lo de menos. El asunto es que la IA no puede hacer el trabajo fundamental del cronista: chequear la información con sus fuentes.
Parece una obviedad, pero es así de simple. He oído a varios colegas preocupados porque sistemas como GPT tomen por asalto sus puestos de trabajo. Cierto que GPT y todos los demás grandes modelos de lenguaje son capaces de escribir. De forma mediocre y edulcorada, hay que decirlo. Pero pueden escribir. Ahora, el periodista primero que nada pregunta; luego se sienta a redactar un texto.
Hola, soy yo
Pensaba en esto cuando me di cuenta de que podíamos redoblar la apuesta. ¿Qué tendría de raro que un modelo de lenguaje sea entrenado específicamente para llamar por teléfono a las fuentes y hacerles preguntas? Nada. Es perfectamente posible. Cierto que un periodista no es simplemente un “sistema de hacer preguntas”. Pero somos capaces de emular voces a la perfección y con el entrenamiento adecuado es posible que una red neuronal pueda formular las preguntas pertinentes. Pertinentes, dije; no comprometidas o conscientes. Será un interrogatorio estocástico, cierto. Pero no es imposible.
Tampoco está prohibido que un medio adopte modelos de lenguaje preguntones para investigar. Pueden llamar por teléfono, pueden chatear. Llegado el caso, en un futuro que no está a la vuelta de la esquina, pero que ya podemos palpar, serían capaces de cubrir las noticias en persona. Bueno, en persona robótica, pero ustedes me entienden.
Hasta acá, el planteo de Woodward (que suscribo y que he dicho varias veces en charlas y conferencias, porque es de sentido común en las redacciones), empezaba a flaquear. No es necesariamente cierto que la IA no sea capaz de llamar a una fuente y hacerle preguntas. Es verdad que los medios tendrían que blanquear la situación. Un modelo de lenguaje debería, para que la consulta sea lícita, decirle a la fuente: “Hola, me llamo PGT (Periodista Generativo Transformador), soy un modelo de lenguaje del diario Tal o Cual y necesito hacerle unas preguntas”.
Los periodistas Carl Bernstein y Bob Woodward, en la época del Watergate
Seguimos en territorio verosímil. Por ahí algunos entrevistados se nieguen a hablar con un robot al principio, pero no todos. Además, si el resto de nosotros se habituó a que en el soporte técnico te atienda una máquina, ¿por qué no algoritmos periodísticos? Y, dicho sea de paso, muchas fuentes se niegan a hablar con periodistas humanos. Así que no es delirante (todavía) imaginar fuentes entrevistadas por máquinas.
El modelo de lenguaje devenido en periodista podría incluso exponer las contradicciones del entrevistado, contrastando sus respuestas con el vasto archivo que guarda en su memoria. Puesto que ha sido alimentado con todo lo que decimos en Reddit, Twitter y demás, sería capaz incluso de repreguntar y ponerse picante. En ese momento me di cuenta del principal punto débil de la IA en este terreno (y, para el caso, en casi todos los demás). Woodward sigue teniendo razón, pero con una vuelta de tuerca.
Es tan infantil
El debate estos días estuvo orbitando varios asuntos. Uno de ellos es que la IA generativa es capaz de engañar hasta al más curtido. La foto falsa de una explosión en el Pentágono sembró mucha alarma en las redes, el lunes último. Sin embargo, el problema no es que se use la IA para embaucarnos. El problema es exactamente el opuesto. Es decir, que la IA sea engañada por humanos maliciosos (un poco como ocurre en Chappie).
O sea, la IA podría levantar un teléfono, llamar a una fuente, preguntarle cosas e incluso repreguntar con agudeza. El obstáculo está en que como tiene una experiencia mediatizada del mundo (lo conoce por leernos, no de primera mano), sería relativamente fácil engañarla. Como es sabido, ni siquiera es menester que la engañe todo el tiempo; una sola respuesta floja de papeles o por completo mendaz alcanza para envenenar todo un testimonio. Por eso, lo que esperamos de un periodista es que tenga una visión tan cercana del asunto (el que le toque, los hay de muchas clases) que la duda aparezca de forma sistemática e intuitiva. Se espera que el periodista dude incluso cuando ya es excesivo dudar. Que tenga olfato.
HAL sabe que o no le dicen toda la verdad o, como se plantea en la siguiente película de la saga, lo están obligando a mentir; en la imagen, una escena de 2001 Odisea en el espacio
¿Duda la IA? Si es capaz de poner en duda lo que le dice una fuente, cosa que dudo, ¿cuándo le pondrá fin al interrogatorio? ¿Se violentará, si se da cuenta de que la fuente le está mintiendo? Los periodistas no podemos hacer eso. ¿O acaso se va a poner a hacer un berrinche porque se está dando cuenta de que la fuente puso el casete y está respondiendo con un discurso prefabricado? O sea que ni es verdad ni es mentira; es verso.
No sé si la IA haría un papel digno levantando el teléfono y preguntando; de lo que estoy seguro es de que sería como encomendarle esa tarea a un chico de cinco años.
Los modelos generativos son tan buenos como la calidad de los datos con los que se los alimenta. Dos observaciones del estribo en este punto. Primero, no todo lo que metemos en un modelo de lenguaje es verdadero, por muchas razones; entre otras, porque definir qué es verdad es bastante complicado. Segundo, si, como parece que va a ser el caso durante las próximas décadas, la IA va a producir una parte sustancial de lo que hay en Internet, ¿la IA va a terminar alimentándose con lo que la misma IA produzca? ¡Ay!
http://indecquetrabajaiii.blogspot.com.ar/. INDECQUETRABAJA
No hay comentarios.:
Publicar un comentario
Nota: sólo los miembros de este blog pueden publicar comentarios.