jueves, 25 de junio de 2020
TECNOLOGÍA Y OTRAS ARBITRARIEDADES,
De esta no nos salvan los algoritmos: una receta simple para lidiar con los videos falsos
Esta semana las deepfakes volvieron a los titulares, pese a la pandemia y también un poco a causa de la crisis. las deepfakes son videos creados por medio de inteligencia artificial para que alguien aparezca diciendo o haciendo algo que no dijo ni hizo. la tecnología ha avanzado tanto que ahora es posible crear una producción de calidad aceptable con una computadora convencional. En una demostración que hicieron estos días en el canal TN, hizo falta, además, un imitador profesional para darle al video la verosimilitud del caso. Es lo de menos, porque los vectores de esta industria apuntan siempre para adelante.
Es decir, lo único que harán los algoritmos será progresar. con un poco más de fuerza bruta informática hoy ya es posible producir metamorfosis imposibles de distinguir de la realidad, sin fisuras, como cuando cambiaron el rostro de Bill Hader por el de Tom cruise, toda vez que aquel imitó al actor. En este capítulo de nuestro podcast Señales, donde pueden ver el video (https://www.lanacion.com.ar/2277923), analizamos la cuestión.
Faceapp (https://www.lanacion. com.ar/2379980) puso su granito de arena para despedazar cualquier certeza que nos quedara en medio de esta realidad entre comillas en la que nos ha colocado la cuarentena. El año pasado Faceapp envejecía nuestra imagen a partir de una foto. ahora volvió con otra sutileza: cambia el género de la persona retratada. El resultado, en la mayor parte de los ejemplos que vi, es bastante poco feliz, pero, de nuevo, muestra lo que la inteligencia artificial puede hacer con la realidad. la modifica, la retuerce, la anima con las deepfakes y nos deja la sensación de que ya no podemos creer ni siquiera en nuestra imagen en el espejo.
El eterno debate, toda vez que las imágenes y los videos falsos aparecen en escena, es cómo hacer para detectarlos. Ese debate es innecesario, inútil y un poco delirante. para empezar, existen un número de herramientas capaces de determinar si una imagen o un video han sido alterados. algunas son gratis y están en la web. pero el problema no es ese. El problema está en otro lado. El problema somos nosotros.
Durante la evolución de todas las formas de vida en la Tierra, los sistemas nerviosos se adaptaron para confiar en sus sensores: visuales, auditivos, de infrarrojos, de ultrasonido, eléctricos, químicos. ningún ser vivo pone en duda lo que percibe.
Estamos adaptados a confiar en nuestros sentidos, fin de la discusión. intentar zafarse de una adaptación evolutiva es, digamos, bastante complicado. Traten de hacer casi cualquier cosa sin usar los pulgares y van a entender lo que quiero decir.
Pues bien, las deepfakes apuntan a esa adaptación evolutiva. no importa que la voz sea imitada y que lo que dice el funcionario, el deportista o la celebrity sea absurdo. lo primero que nuestros sistemas nerviosos hacen es reaccionar dándole crédito a sus sensores. no estaríamos aquí hoy y nos habríamos extinguido hace rato, si no fuera así. Desde un insecto hasta un entomólogo, todos los seres vivos funcionamos sobre ese principio fundamental.
Si no lo creo, no lo veo
Ahora, nosotros, los humanos, tenemos algunas destrezas únicas. Hemos desarrollado sistemas simbólicos complejos y explotamos la razón para crear ciencia y tecnología. al revés que los demás seres vivos, somos capaces de poner en duda lo que los sensores le envían al sistema nervioso. Esto es muy novedoso.
En un primer vistazo, no, es casi imposible evitar que la reacción inicial no sea completamente involuntaria. De entrada, creemos y reaccionamos emocionalmente. allí anclan sus trampas los piratas que emplean ingeniería social. aprovechan nuestra primera reacción instintiva que cree en lo que ve y en lo que oye.
Como ocurre con las estafas online (loterías, cuentas abandonadas, alertas del banco y otros anzuelos por el estilo), no existe modo alguno de anticipar todos los trucos del delincuente. Solo en mi cuenta de Gmail recibo unas 17.000 estafas de este tipo por año. así que no solo es ridículo imaginar que cada persona va a pasar una foto o una deepfake por pruebas de laboratorio para verificar su autenticidad, sino que es igual de ridículo esperar que seamos capaces de detectar cada pase mágico de los creadores de noticias falsas. Tarde o temprano, algo nos tocará un nervio sensible y caeremos en la trampa. ¿no hay solución?
La hay. no es fácil, pero la hay. respecto de las estafas online, en mi último libro, Hackearán tu mente, publicado por Editorial planeta, establecí una suerte de dogma: “Si algo te llega por internet, te afecta emocionalmente y te pide que hagas algo con urgencia, entonces es una estafa”. Siempre. Sin dudarlo. Solo es cuestión de no creer en nada que presente tales rasgos. El otro día Spotify me avisó que no había podido procesar el pago con mi tarjeta. pero se apresuraban a aclarar que no me preocupara, que de todos modos tratarían de volver a cobrarme en los próximos días. Me pedían que revisara mis datos de pago, pero sin urgencia. la receta funciona a la perfección.
Con las imágenes y videos falsos ocurre algo semejante. Se puede establecer un dogma. Mi regla, en todos los casos, es que lo que veo en la pantalla es una ilusión. punto. como mínimo, porque se ha retocado un poquito la foto para que la estrella de cine se vea mejor. o porque en realidad ese perro y ese gato no están abrazándose; podría ser un montaje con Photoshop o podrían estar peleándose. De la pantalla hay que desconfiar siempre, porque detrás de esas imágenes y videos solo hay unos y ceros, fáciles de hilvanar y transmutar.
Pero sería inviable simplemente no creer en nada de lo que muestra una pantalla, porque vivimos entre pantallas. la otra cara de esta disciplina es la de esperar un poco. no parece difícil. pero lo es, y mucho.
Pese a eso, hay que tratar de incorporarla. Si después de unas horas los profesionales de la información replican el contenido y diversas fuentes confirman que aterrizó un plato volador en plaza de Mayo y los extraterrestres están dándole de comer a las palomas, ok, entonces es muy probable que sea verdad. imágenes y videos falsos se viralizan con rapidez explosiva. Viceversa, las noticias verdaderas pueden viralizarse o no (depende del humor popular), pero siempre hay fuentes que las confirman. Y una cosa más que caracteriza a los contenidos falsificados. no tienen crédito. nadie se hace cargo. El video circula. la foto explota en las redes. les cuento un secreto: ni las fotos ni los videos tienen vida propia. no circulan. no nacen de forma espontánea. o hay un autor o son fake.
Somos capaces de poner en duda lo que nuestros sensores le envían al cerebro
Lo que está en la pantalla es siempre una ilusión basada en unos y ceros
A. T.
Suscribirse a:
Comentarios de la entrada (Atom)
No hay comentarios.:
Publicar un comentario
Nota: sólo los miembros de este blog pueden publicar comentarios.