jueves, 30 de noviembre de 2017

"SI NO LO VEO; NO LO CREO" ¿ESTÁS SEGURO?


La idea de que "hay que ver algo antes de creerlo" tiene orígenes bíblicos. Según el Nuevo Testamento, uno de los apóstoles, Santo Tomás, se rehusó a creer que Cristo hubiera resucitado hasta ser capaz de observarlo con sus propios ojos. Cuando finalmente se encontraron cara a cara, continúa el texto, Tomás constató que era cierto, pero Jesús le reprochó su incredulidad inicial.



Esta máxima de "ver para creer" expresa dos pilares de la experiencia humana del mundo. Por un lado, que fuera del ámbito específico de la fe religiosa resulta fundamental buscar evidencias materiales como base para formar nuestras convicciones. Por otro, que la vista nos ha resultado siempre el más confiable de nuestros sentidos, el preferido a la hora de separar lo verdadero de lo falso.
Las ilusiones ópticas ponen, en cierta medida, un signo de pregunta a esa convicción. Es posible construir figuras que engañen nuestra percepción y logren que, por ejemplo, veamos de longitud distinta dos segmentos que miden lo mismo.
No importa cuánto nos muestren con una regla que se trata de una ilusión, nuestro cerebro se rehúsa a ver ambos como iguales.
Pero fuera de este contexto limitado y artificial, la vista siempre nos resultó precisa y nos sirvió como principal herramienta para capturar la realidad de cómo son las cosas. Si alguien tiene dudas sobre algo, basta decir que "lo vimos con nuestros propios ojos" para dar un halo de credibilidad al hecho en cuestión.

Sin embargo, la tecnología se está ocupando de socavar esta certeza. Hace rato ya que el Photoshop hizo que debiéramos desconfiar de toda imagen digital, especialmente de las publicidades, intencionalmente alteradas para vulnerar nuestros sentidos. Pero hoy seguimos confiando en las filmaciones de video. En un primer paso que anticipa mucho sobre lo que se viene, un equipo de investigadores de la Universidad de Washington logró crear una inteligencia artificial capaz de tomar una foto y generar los movimientos faciales y de la boca que se corresponden a decir cualquier texto.
Esto puede combinarse con otra desarrollada por el startup canadiense Lyrebird preparada para, a partir de una grabación, generar el sonido de la frase correspondiente imitando cualquier timbre de voz. En otras palabras, a partir de un retrato estamos a muy poco tiempo de poder hacer a cualquier persona decir cualquier cosa, con su propia cara, sus gestos y su tono de voz.
Amplificando el problema, una inteligencia artificial diseñada por la empresa fabricante de procesadores de imagen Nvidia permite crear nuevos rostros humanos, fotografías completamente realistas de personas que no existen. Así, no sólo será posible hacer que alguien existente aparezca diciendo algo que nunca dijo, sino que también se volverá difusa la frontera entre ver personas que existen y otras que no.
La posibilidad de generar imágenes y videos falsos pero indiscernibles de los reales presenta un desafío enorme, tanto en el plano individual como en el social. Por un lado, en la era de las noticias falsas, cuesta imaginar las posibilidades de manipulación que se abren hacia delante. Por otro, la administración de justicia hoy se basa en el uso de pruebas como grabaciones de audio, videos o testimonios de lo que alguien dice haber visto.
¿Qué pasará en el mundo del "ver para creer" cuando ya no podamos creer en nada de lo que vemos? ¿En qué basaremos entonces nuestras convicciones cuando toda evidencia material pueda ser digitalmente creada o alterada?

S. B.

No hay comentarios.:

Publicar un comentario

Nota: sólo los miembros de este blog pueden publicar comentarios.