Algoritmos humanos: la inteligencia artificial se equivoca, ¿pero por casa cómo andamos?
Eso que llamamos realidad es tan solo una interpretación. Que las máquinas a su vez interpretan y reinterpretan. Al final, es imposible saber quién está al mando
A. T.
Podríamos llenar resmas de papel con todos los conceptos asociados a esta imagen, sus ecos y los ecos de sus ecos. Nosotros también pensamos con "tags"
Los algoritmos tienen algo de cómico, como todo automatismo o como todo títere. Pasó el otro día algo muy gracioso. Me escribió por Instagram un amigo con el que hacía cien años que no hablaba, chateamos un rato y después conversamos por WhatsApp. Hasta ahí, normal. Pero a partir de ese momento, los títeres algorítmicos creyeron que debía mostrarme todas sus Historias y todas sus novedades de Facebook. Quise creer –no, no quise, pero hice el intento– que este amigo de pronto se había puesto a publicar cosas como loco. Pero no. Revisando sus perfiles advertí que lo que ocurría en realidad es que la inteligencia artificial (llamémosla así) había resuelto que, si nos habíamos mensajeado y, mucho peor, hablado por WhatsApp, entonces tenían que mostrarme todas sus publicaciones. Si me lo preguntan, podría tener un poco de sentido. Pero hay algo que está definitivamente torcido en este razonamiento, y para verlo hay que dar vuelta el tablero.
Es decir, tendemos a creer que lo que aparece en Instagram, Twitter, Facebook y demás es lo que efectivamente está pasando en el mundo. De hecho, esa es la pretensión de las redes sociales, en especial Twitter. Pero no. No es lo que está pasando. Es lo que lo que un conjunto de algoritmos interpreta que podría atraer nuestra atención para que pasemos la mayor cantidad de tiempo posible en esa plataforma. Y esto, como saben, no es nuevo. Pero siempre se puede dar un pasito más hacia la distopía, y eso es lo que ocurrió hace poco con Google Maps.
Como les habrá ocurrido en más de una ocasión, Maps te pregunta cómo estuvo cierto restaurante, un supermercado, un hotel, una feria artesanal, y así. Eso se puede desactivar, desde Ajustes> Notificaciones> Tus opiniones> Sugerencias para escribir opiniones. Pero, obviamente, no puedo andar desactivando todo lo que me importuna. La única forma de enterarme de que una plataforma, un sistema operativo o un programa hacen algo mal es dejarlos hacer todo lo que quieren hacer. Así, en plena la pandemia, durante una breve visita a la farmacia, Maps me preguntó cómo había estado el barrio donde vivo. O sea, se le cruzaron todos los cables y pensó que estaba de visita ahí donde vivo.
Tiene sentido. Es solo inteligencia artificial (IA, para abreviar). Y para los algoritmos el teléfono estuvo quieto en un mismo lugar durante varios meses. De pronto, se movió. La IA advirtió que había salido de un lugar etiquetado y quiso conocer mi opinión. Supuso que estaba de visita. O algo así. Es lo de menos. Se confundió mucho.
¿Arañas o abejas?
De momento, tenemos, por un lado, datos masivos (big data, en inglés) y, por el otro, algoritmos, y esta combinación da origen a un fenómeno que, entre los humanos, se denominaría interpretación.
Las interpretaciones no son ninguna tontería. No solo han dado origen a cismas religiosos, sino que están detrás de toda nuestra percepción de la realidad. Nunca es la realidad. Es nuestra interpretación de la realidad. No seré el primero en decirlo, y leía sobre esto cuando tenía veintipocos y estudiaba filosofía en la universidad, pero viene al caso: somos incapaces de tener contacto directo con la realidad. Ni siquiera podemos establecer una buena definición de qué es la realidad.
Nuestros propios algoritmos –de una complejidad incalculable, comparados con los de las máquinas– tejen sobre la realidad (cualquier cosa que sea, pero antes de pasar por la consciencia humana) una red de símbolos cuyos hilos son los prejuicios, los sesgos, los recuerdos, las experiencias tempranas y también las recientes, los lenguajes que conocemos, las asociaciones perceptivas, lo que sabemos y lo que ignoramos, y podría seguir la lista hasta llenar todas las páginas del diario durante un año. O sea, también nosotros pensamos con etiquetas.
Ejemplo: las arañas, que se cuentan entre los bichos más beneficiosos del planeta, despiertan odio, repugnancia o ambos entre personas de toda extracción. Las abejitas, en cambio, no; son buenas. Ahora, resulta que las arañas matan a 7 personas por año, mientras que las abejas causan la muerte de 58 personas en el mismo período. Así que de realidad, cero. Vivimos dentro de nuestra burbuja. (Por si acaso, esto no significa que no haya que proteger a las abejas y demás, sino que también hay que proteger a las arañas, las hormigas, las libélulas, los mantis, y así.)
El hecho preocupante es que si una persona no es un buen juez, porque no puede o le costaría un trabajo inmenso el romper su propia burbuja simbólica, ¿qué tan desastroso puede ser un algoritmo? Bastante, a decir verdad, y mi mejor consejo es nunca tomar decisiones basándonos solo en el juicio de la inteligencia artificial. Es cierto, hay criterios humanos que son todavía más catastróficos, pero eso es harina de otro costal.
Con un adicional. Los algoritmos no nacen de un repollo, sino que son creados por humanos, que los escriben desde su propia telaraña simbólica, para seguir con los bichitos. Hasta acá estamos más o menos dentro de terreno muy nuevo, pero visitado. No demasiado visitado, es verdad. La mística de la inteligencia artificial sube en uno de los cohetes de Elon Musk, mientras que los hechos intentan subir por una conexión de 3 Mbps, como las que que abundan lejos de los centros urbanos. Pero hay todavía otra cosa, y es que esos algoritmos sesgados creados por personas atrapadas en su campo de distorsión simbólico son capaces de escribir a su vez nuevos algoritmos. Ups.
Así que acá va una nota al futuro: estamos en la tercera década del silgo XXI y la cuestión ya no es si las decisiones las toman las personas o las máquinas. La cuestión es que ya no podemos saber quién las toma.
Podríamos llenar resmas de papel con todos los conceptos asociados a esta imagen, sus ecos y los ecos de sus ecos. Nosotros también pensamos con "tags"
Los algoritmos tienen algo de cómico, como todo automatismo o como todo títere. Pasó el otro día algo muy gracioso. Me escribió por Instagram un amigo con el que hacía cien años que no hablaba, chateamos un rato y después conversamos por WhatsApp. Hasta ahí, normal. Pero a partir de ese momento, los títeres algorítmicos creyeron que debía mostrarme todas sus Historias y todas sus novedades de Facebook. Quise creer –no, no quise, pero hice el intento– que este amigo de pronto se había puesto a publicar cosas como loco. Pero no. Revisando sus perfiles advertí que lo que ocurría en realidad es que la inteligencia artificial (llamémosla así) había resuelto que, si nos habíamos mensajeado y, mucho peor, hablado por WhatsApp, entonces tenían que mostrarme todas sus publicaciones. Si me lo preguntan, podría tener un poco de sentido. Pero hay algo que está definitivamente torcido en este razonamiento, y para verlo hay que dar vuelta el tablero.
Es decir, tendemos a creer que lo que aparece en Instagram, Twitter, Facebook y demás es lo que efectivamente está pasando en el mundo. De hecho, esa es la pretensión de las redes sociales, en especial Twitter. Pero no. No es lo que está pasando. Es lo que lo que un conjunto de algoritmos interpreta que podría atraer nuestra atención para que pasemos la mayor cantidad de tiempo posible en esa plataforma. Y esto, como saben, no es nuevo. Pero siempre se puede dar un pasito más hacia la distopía, y eso es lo que ocurrió hace poco con Google Maps.
Como les habrá ocurrido en más de una ocasión, Maps te pregunta cómo estuvo cierto restaurante, un supermercado, un hotel, una feria artesanal, y así. Eso se puede desactivar, desde Ajustes> Notificaciones> Tus opiniones> Sugerencias para escribir opiniones. Pero, obviamente, no puedo andar desactivando todo lo que me importuna. La única forma de enterarme de que una plataforma, un sistema operativo o un programa hacen algo mal es dejarlos hacer todo lo que quieren hacer. Así, en plena la pandemia, durante una breve visita a la farmacia, Maps me preguntó cómo había estado el barrio donde vivo. O sea, se le cruzaron todos los cables y pensó que estaba de visita ahí donde vivo.
Tiene sentido. Es solo inteligencia artificial (IA, para abreviar). Y para los algoritmos el teléfono estuvo quieto en un mismo lugar durante varios meses. De pronto, se movió. La IA advirtió que había salido de un lugar etiquetado y quiso conocer mi opinión. Supuso que estaba de visita. O algo así. Es lo de menos. Se confundió mucho.
¿Arañas o abejas?
De momento, tenemos, por un lado, datos masivos (big data, en inglés) y, por el otro, algoritmos, y esta combinación da origen a un fenómeno que, entre los humanos, se denominaría interpretación.
Las interpretaciones no son ninguna tontería. No solo han dado origen a cismas religiosos, sino que están detrás de toda nuestra percepción de la realidad. Nunca es la realidad. Es nuestra interpretación de la realidad. No seré el primero en decirlo, y leía sobre esto cuando tenía veintipocos y estudiaba filosofía en la universidad, pero viene al caso: somos incapaces de tener contacto directo con la realidad. Ni siquiera podemos establecer una buena definición de qué es la realidad.
Nuestros propios algoritmos –de una complejidad incalculable, comparados con los de las máquinas– tejen sobre la realidad (cualquier cosa que sea, pero antes de pasar por la consciencia humana) una red de símbolos cuyos hilos son los prejuicios, los sesgos, los recuerdos, las experiencias tempranas y también las recientes, los lenguajes que conocemos, las asociaciones perceptivas, lo que sabemos y lo que ignoramos, y podría seguir la lista hasta llenar todas las páginas del diario durante un año. O sea, también nosotros pensamos con etiquetas.
Ejemplo: las arañas, que se cuentan entre los bichos más beneficiosos del planeta, despiertan odio, repugnancia o ambos entre personas de toda extracción. Las abejitas, en cambio, no; son buenas. Ahora, resulta que las arañas matan a 7 personas por año, mientras que las abejas causan la muerte de 58 personas en el mismo período. Así que de realidad, cero. Vivimos dentro de nuestra burbuja. (Por si acaso, esto no significa que no haya que proteger a las abejas y demás, sino que también hay que proteger a las arañas, las hormigas, las libélulas, los mantis, y así.)
El hecho preocupante es que si una persona no es un buen juez, porque no puede o le costaría un trabajo inmenso el romper su propia burbuja simbólica, ¿qué tan desastroso puede ser un algoritmo? Bastante, a decir verdad, y mi mejor consejo es nunca tomar decisiones basándonos solo en el juicio de la inteligencia artificial. Es cierto, hay criterios humanos que son todavía más catastróficos, pero eso es harina de otro costal.
Con un adicional. Los algoritmos no nacen de un repollo, sino que son creados por humanos, que los escriben desde su propia telaraña simbólica, para seguir con los bichitos. Hasta acá estamos más o menos dentro de terreno muy nuevo, pero visitado. No demasiado visitado, es verdad. La mística de la inteligencia artificial sube en uno de los cohetes de Elon Musk, mientras que los hechos intentan subir por una conexión de 3 Mbps, como las que que abundan lejos de los centros urbanos. Pero hay todavía otra cosa, y es que esos algoritmos sesgados creados por personas atrapadas en su campo de distorsión simbólico son capaces de escribir a su vez nuevos algoritmos. Ups.
Así que acá va una nota al futuro: estamos en la tercera década del silgo XXI y la cuestión ya no es si las decisiones las toman las personas o las máquinas. La cuestión es que ya no podemos saber quién las toma.
http://indecquetrabajaiii.blogspot.com.ar/. INDECQUETRABAJA
No hay comentarios.:
Publicar un comentario
Nota: sólo los miembros de este blog pueden publicar comentarios.