¿Puede sobrevivir el gusto personal a la angustia algorítmica?
Sometidos a las recomendaciones constantes de las plataformas y los influencers, nuestras preferencias se ven cada vez más condicionadas por la estandarización
Laura Marajofsky
En una época donde no solo abunda la información, sino que la generación de contenido automático mediante la Inteligencia Artificial se ha vuelto frecuente, la atención resulta el commodity más preciado. Desde otra perspectiva, el filtro del “gusto” se vuelve, en un mundo de sobreabundancia, un recurso para navegar a través de la maraña de contenidos.
Desde los temas del artista del momento hasta la serie de la que todos hablan, casi la totalidad del ecosistema online ha sido diseñado para influir –en maneras más o menos sutiles– en nuestro comportamiento. Gracias al todopoderoso algoritmo y la información que recaba de los usuarios, lo que vemos, leemos, escuchamos, deseamos –aquello que puede ser constitutivo de nuestro “gusto personal”– está cada vez más influenciado por entidades no humanas. Quizá valga la pena empezar a pensar dónde comienzan –y dónde terminan– nuestras preferencias, y hasta dónde somos moldeados en nuestras elecciones por una ecuación o por las voluntades que la manejan, sean influencers o empresas tecnológicas. Tal vez, más crucial aún sea considerar a qué costo individual y colectivo “adoptamos” estos gustos.
Según el crítico cultural estadounidense Kyle Chayka, autor del libro Filterworld. How Algorithms Flattened Culture (2024), es importante advertir los fenómenos de homogeneización de la cultura que derivan en parte del control que ejercen las plataformas sobre nosotros, y, en consecuencia, la creciente relevancia de acercarse más artesanalmente a lo que consumimos. ¿Estamos ingresando, como proponen algunos autores, a una era de “ansiedad algorítmica”, a raíz de las propuestas constantes a las que estos nos someten? En ese caso, ¿cómo podemos recuperar cierta agencia ante los sistemas de recomendación online, que ahora inciden en nuestros hábitos cotidianos, opiniones y hasta procesos creativos?
‘Que alguien elija por nosotros, sea un algoritmo o una empresa, se volvió una comodidad en esta cultura con tantas distracciones’, dice la especialista Carolina Martínez Elebi
Tanto el avance tecnológico como las condiciones del medio digital hicieron que el algoritmo se volviera el rey del ecosistema digital. “Es importante ser conscientes de que, en líneas generales, todo lo que hacemos en Internet se traduce en datos. Cada cosa que hacemos es un dato más que los sistemas analizan para decidir qué perfil de usuario nos corresponde y, a partir de ahí, empezar a recomendarnos. Los tipos de datos que usan para ese análisis son de lo más diversos, pero esta información no es completamente transparente, como para que podamos saber con certeza cuáles son”, aclara Carolina Martínez Elebi, licenciada en Comunicación, docente de la UBA e investigadora especializada en el impacto de las TIC en la sociedad y los derechos humanos, sobre la consabida opacidad de la big data.

De acuerdo a Elebi, los sistemas de recomendaciones de los sitios (qué contenido se prioriza, cuál se muestra, cuál se oculta) tienen que ver con la curación algorítmica de las plataformas y responden a una lógica interna. Muchas veces, más que vinculadas a nuestros propios gustos, reflejan aquello que es más viral o tiene más likes. “Que alguien elija por nosotros, sea un algoritmo o una empresa, se volvió una comodidad en esta cultura con tantas distracciones. En las plataformas de streaming se ve muy clara la ilusión de estar eligiendo en medio de muchas opciones, cuando en realidad ya vienen filtradas por un algoritmo. Tal vez lo que verdaderamente nos gusta puede estar escondido. Entonces, nos quedamos como encerrados en recomendaciones ajenas”, dispara Melisa Avolio, periodista especializada en tecnología y autora del libro Qué es la inteligencia artificial y cómo impacta en nuestras vidas.
"Un giro significativo se produjo durante la pandemia, cuando la actividad virtual aumentó considerablemente y el marketing de afiliación se convirtió en una variedad dominante del modelo de negocio online"
Sin embargo, vale la pena hablar de al menos dos puntos de inflexión que catalizaron aún más este fenómeno. Por un lado, la explosión de las redes sociales, que a mitad de la última década hizo que la recomendación se volviera clave en su modelo de negocio, y por tanto, parte intrínseca de nuestras vidas. Facebook, Instagram, Twitter, y luego sitios como YouTube, Spotify, y ahora TikTok, comenzaron a emplear el algoritmo para organizar su contenido, determinar la disposición de las publicaciones en el feed y sugerir contenidos similares a los usuarios. No hay que olvidar que, en la prehistoria de las redes sociales, los feeds eran cronológicos y los contenidos se veían por orden de aparición y no por criterios opacos y cambiantes.
En segunda instancia, como explica Chayka, un giro significativo se produjo durante la pandemia, cuando la actividad virtual aumentó considerablemente y el marketing de afiliación se convirtió en una variedad dominante del modelo de negocio online. Esto es, cuando los influencers comenzaron a ganar comisiones basadas en ventas realizadas gracias a recomendaciones o comentarios sobre productos en sus redes, sea un jabón, un alimento o un disco. Esto se dio junto al enorme crecimiento de plataformas capaces de gran viralización, como TikTok, y terminó de cimentar la relación comercial entre “recomendados profesionales”, llamados también “creadores de contenido”, y las marcas.
El fin del gusto
Quizás tengamos algo de culpa en promover modelos en torno a la monetización de nuestros gustos y preferencias, fomentando el valor aspiracional, sobre todo en los más jóvenes, de ser “influencer”. Las empresas y las plataformas solo cumplen su objeto, maximizar sus ganancias, al aprovechar la eficacia del supuesto “marketing orgánico” (aquel realizado por pares), que tiene más credibilidad que el tradicional.
Sin embargo, según el libro Filterworld, lo que sucede cuando las redes ingresan a una era de formatos multimedia que ensalzan rostros y voces –podemos pensar a TikTok como una pequeña TV–, es que se crean microcultos a la personalidad y se banaliza la recomendación en una época donde todo es contenido, cuando haría más falta. “Un problema con las recomendaciones como alimento para la fábrica de contenido digital es que hay un número limitado de cosas para recomendar. La repetición, o la escalabilidad, es enemiga del gusto”, dice Chayka sobre el uso –y abuso– de la recomendación online de la que todos somos un poco culpables.
"Como simple estrategia para evitar que nuestras preferencias se viralicen y –paradójicamente– pierdan valor, algunos plantean erigir nuevas formas de “gatekeeping” al no recomendar online"
Probablemente no tenga sentido recordar con nostalgia cómo eran las cosas. Jamás hubiéramos descubierto esa banda si no íbamos a una disquería o algún amigo nos la recomendaba; o no hubiéramos conocido a un determinado director si no fuera porque leíamos una revista especializada y luego decidíamos alquilar el VHS. La televisión, la radio, las revistas –y hasta la primera internet– también operaban como filtros o “gatekeepers” del gusto, aunque de modo más lento. El actual modelo tecnológico, aparte de ser más ubicuo, es mucho más potente y, por ende, digno de ser observado de cerca con una dosis mínima de escepticismo.
Como simple estrategia para evitar que nuestras preferencias se viralicen y –paradójicamente– pierdan valor, algunos plantean erigir nuevas formas de “gatekeeping” al no recomendar online. Algo así como guardar esa información privilegiada para uno mismo, en lugar de arrojarla a la web y dejar que el algoritmo se la fagocite. De cualquier modo, según Chayka todavía es posible encontrar algún resquicio de frescura y originalidad en la red; existe una nueva ola de “curadores culturales online” que ponen el foco en aquello singular. Por otra parte, también existen maneras de “hackear al algoritmo”.
Cómo pelearle al algoritmo
Si los viejos modelos han sido reemplazados por las grandes plataformas, que además de unificar criterios nos extraen datos, ¿cómo contraatacar? ¿Es posible escindir la cultura y el gusto de las dinámicas online? Actualmente pareciera imposible pensar las industrias creativas y culturales por fuera de internet.
"Desarrollar el gusto requiere esfuerzo y participación activa. Los algoritmos convierten el gusto en consumo"
Desarrollar el gusto requiere esfuerzo y participación activa. Los algoritmos convierten el gusto en consumo. “El gusto no es solo una preferencia individual, sino que es un reflejo de una posición social vinculado a nuestra educación, nuestra cultura y entorno, y todo esto está en movimiento, porque somos seres humanos que estamos en transformación permanente. Este es uno de los problemas de los límites que imponen las fórmulas algorítmicas y el sistema de perfilamiento de las plataformas, que buscan encasillarnos y moldear el comportamiento. Las personas, en algún momento, nos aburrimos de eso y buscamos otra cosa, algo que nos sorprenda y que nos presente una mirada nueva. Nos rebelamos”, contextualiza Elebi.
¿Qué podemos hacer? “Podemos dialogar con los algoritmos tocando los botones de retroalimentación que están en redes o plataformas. También, usar las opciones “esto no me interesa” o “mesura”. Ignorar lo que no nos gusta es otra opción. Podemos borrar nuestro historial de búsqueda y hacer alguna evaluación periódica de qué cuentas seguimos o a cuáles nos suscribimos”, sugiere Avolio.
Por su parte, Elibi propone como “antídoto” volver un poco a la curación humana, artesanal y personal de qué es lo que nos interesa ver, escuchar, leer, comprar, dentro de las plataformas. “Insisto con la importancia de conectar más con nosotros mismos para descubrir qué es lo que realmente nos interesa y nos gusta. Correrse un poco del ritmo vertiginoso de esos espacios en los que todos hablan igual, se visten igual, toman café en los mismos lugares. Corrernos un poco de las plataformas nos permitiría conectar más con nuestro espacio físico y con nosotros mismos. Así evitaríamos ser uno más, homogéneo y estandarizado, dentro un sistema que nos usa como producto y como consumidores”.
La paradoja de un mundo donde lo previsible es ley
Eficiencia, personalización, optimización. Los algoritmos están modelando una nueva forma de organización social, señala Augusto Salvatto, politólogo y consultor en innovación. Al tal punto, que en su libro La era del malestar. Algoritmos y redes antisociales (Lea), habla de “la sociedad algorítmica” y previene contra los efectos negativos de nuestra dependencia respecto de un sistema controlado y predecible.
“Bajo la superficie de esta promesa tecnológica se esconden profundas implicaciones que afectan la libertad, la individualidad y la humanidad misma”, escribe en el libro. “La sociedad algorítimica, al eliminar la posibilidad de lo inesperado y lo impredecible, se convierte naturalmente en una sociedad menos innovadora”.
El control y la previsibilidad, dos ideales modernos, son condiciones que se consideran beneficiosas, pero el hecho de que nuestras actividades cotidianas acaben ajustándose a modelos predefinidos limita nuestra creatividad, dice Salvatto. “La libertad se sacrifica en el altar de la eficiencia, y el individuo se ve obligado a conformarse a los parámetros establecidos por los algoritmos”. Se produce la paradoja, señala el autor, de que una época consagrada a la innovación en realidad la está poniendo en jaque. Y crece en las personas un malestar que proviene de la estandarización de nuestras experiencias cotidianas.
En el prólogo de su libro, Salvatto cita al ensayista italiano Nuccio Ordine, quien en su libro La utilidad de lo inútil advierte que la obsesión actual por la eficiencia amenaza actividades que nos hacen humanos, como el arte, la filosofía y la literatura.
“¿Cómo salir de esta lógica?”, se pregunta Salvatto. “Rompiendo el algoritmo. Esto es, abrazar la esencia de los que nos hace humanos. Cultivar espacios donde la creatividad y el pensamiento crítico puedan florecer. Sometiéndonos a lo distinto, lo diferente, lo que nos incomoda. Abrazando las contradicciones que son propias de la humanidad”.
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
«Hay empresas que tienen una influencia alucinante sobre cómo pensamos»
El experto estadounidense, estudioso de los algoritmos, distingue las certezas y mitos sobre su funcionamiento
Jordi Pérez Colomé
Alan Mislove es profesor de ciencias de la computación de la Universidad de Northeastern, en Estados Unidos, y lleva años estudiando cómo funcionan los algoritmos que regulan nuestras vidas: desde los precios de vuelos a los anuncios o la concesión de créditos. Su experiencia lo llevó a trabajar en la Casa Blanca un año y medio para ayudar a crear una nueva legislación al respecto. Mislove, de 44 años y nacido en Nueva Orleans, Estados Unidos, colaboró también en la orden ejecutiva sobre Inteligencia Artificial (IA) de Biden, que ahora está en peligro con el nuevo presidente Trump.
–¿Un algoritmo puede tener tanta importancia como para afectar el futuro de la democracia?
–Sí, claro que puede ser clave. Hay un montón de gente que no se informa a través de medios tradicionales. Plataformas como X o TikTok son, en muchos casos, la forma en que la gente accede a información y, con tanto contenido disponible, necesitan algoritmos para decidir qué van a ver. En política es clave escuchar ambos bandos para entender cuáles son sus argumentos, pero eso no es lo que los algoritmos suelen hacer. Están optimizados para la interacción, para que uno pase más tiempo en la plataforma. La mejor manera de lograrlo es mostrarte más contenido en el que estás interesado en lugar de contenido que tal vez no te interese, pero que podría serte útil para tomar una decisión política.
–¿Los algoritmos logran cambiar opiniones?
–Es una pregunta interesante. No creo que realmente sepamos la respuesta. Hace 20 o 30 años había un tipo de medios que la mayoría consumía. Por tanto, había una especie de base común de qué se consideraba aceptado en general. Hoy en día, ya no es así.
–¿Es preocupante no saber cómo nos afectan?
–Es cierto que es cada vez más difícil entender cómo los algoritmos afectan exactamente a nuestras vidas. Muchas veces la gente ni se da cuenta de que detrás de los sistemas que usan hay algoritmos de recomendación o de clasificación. Uno de los puntos clave en los que trabajamos cuando estuve en la Casa Blanca fue definir las prácticas que el gobierno debe seguir al usar IA. Uno de los puntos principales fue la transparencia: notificar a las personas cuando hay un algoritmo que toma una decisión sobre ellas que podría afectarlos negativamente.
–Eso para los algoritmos en sistemas públicos, pero los usuarios ya saben que las redes sociales se ordenan con algoritmos...
–La mayoría sí, pero lo que no saben es cuántos datos recoge. Por ejemplo, las apps en un celular recogen un chorro de información sobre el que lo usa. La gente no se da cuenta de la cantidad de datos que van a parar a esos algoritmos, ni de cómo de descompensado está por la cantidad de esfuerzo, dinero y recursos que se meten para afinar esos algoritmos y que te muestren justo lo que quieren.
–El objetivo de estas compañías es ganar dinero. Si también cambian la sociedad, ¿es un efecto imprevisto?
–No puedo hablar de sus motivaciones, pero sí, el objetivo de estas compañías es sacarte el máximo provecho. Algunas de las empresas más grandes del mundo manejan una cantidad de datos y tienen una influencia alucinante sobre cómo hablamos o pensamos, ya sea a nivel nacional o mundial. Es fácil imaginar cómo eso puede salirse de control.
–¿El gobierno de Estados Unidos trata de prohibir TikTok por esos motivos?
–Hay un montón de razones para prohibir TikTok. Cada vez más gente se da cuenta de lo poderosos que son estos sistemas. Tienen el poder de influir en la gente de muchos modos. Vi por ejemplo un gráfico que circulaba por X, que decía que la plataforma recomienda más contenido de derecha. Aunque fuera cierto, que podría serlo, quizá sería porque ese tipo de personas es más activo en Twitter, o podría ser porque el algoritmo realmente lo está recomendando. No sé cuál de las dos es verdad. Pero hay muchas explicaciones potenciales. Que uno vea una diferencia no significa que la culpa sea del algoritmo.
–Es difícil esperar cuando hay gente que se pregunta por la influencia de X en la elección de Trump...
–Otras veces ya hemos tenido casos donde estábamos seguros y después no era así. Por ejemplo, hace diez años, cuando estudiábamos la discriminación en los precios de los vuelos. Hubo momentos en que la gente decía “busqué un vuelo y otro buscó el mismo vuelo y ¡los precios eran diferentes!”. Nos pusimos a diseñar experimentos durante un año y a controlar variables y descubrimos que solo en circunstancias muy específicas eso era cierto. Casi siempre lo que pasaba era pura casualidad.
–¿Todo casualidad?
–Había alguna excepción. Descubrimos que en algunas apps cambia si se está en celular o computadora. En otros, depende del país donde creen que estás: aunque sea el mismo vuelo, si lo compro en Estados Unidos o en España podría poner precios distintos. Las aerolíneas llevan haciendo esto años. Hay una tendencia natural de pensar, cada vez que se ve una diferencia, “ah, un algoritmo me está embromando”, lo que a veces es verdad, pero la mayoría de las veces, no.
–También hay quien sospecha del celular porque le salen anuncios sobre cosas que acaba de comentar en voz alta...
–Diría que hay un poco sesgo de confirmación. Solo te das cuenta cuando sucede, no cuando no sucede. Probablemente, hay mil otras cosas que le dijiste a tu pareja ese día y no tuvieron ningún resultado. Unos colegas míos hicieron un estudio porque la gente está preocupada por si Alexa o las apps del celular están escuchando o grabando. Hicieron un estudio con apps móviles. Encontraron apps que hacían otras cosas horribles, pero no que te grababan secretamente.
–¿Tiene más miedo o esperanza para los próximos cinco años?
–Si me hubiera preguntado hace cinco años, habría dicho que la gente no tiene ni idea de lo que está pasando, habría sido más pesimista. Ahora, siento que hay más conciencia de cuánto están involucrados los algoritmos en estos sistemas. La respuesta optimista es que ves a los gobiernos realmente lidiando con estos temas, lo que me da esperanza de que, en cinco o diez años, habremos encontrado una manera de equilibrar las cosas. La respuesta pesimista es que estos sistemas avanzan tan rápido y las empresas son tan poderosas que los gobiernos van a tener problemas para seguir el ritmo.
http://indecquetrabajaiii.blogspot.com.ar/. INDECQUETRABAJA
Alan Mislove es profesor de ciencias de la computación de la Universidad de Northeastern, en Estados Unidos, y lleva años estudiando cómo funcionan los algoritmos que regulan nuestras vidas: desde los precios de vuelos a los anuncios o la concesión de créditos. Su experiencia lo llevó a trabajar en la Casa Blanca un año y medio para ayudar a crear una nueva legislación al respecto. Mislove, de 44 años y nacido en Nueva Orleans, Estados Unidos, colaboró también en la orden ejecutiva sobre Inteligencia Artificial (IA) de Biden, que ahora está en peligro con el nuevo presidente Trump.
–¿Un algoritmo puede tener tanta importancia como para afectar el futuro de la democracia?
–Sí, claro que puede ser clave. Hay un montón de gente que no se informa a través de medios tradicionales. Plataformas como X o TikTok son, en muchos casos, la forma en que la gente accede a información y, con tanto contenido disponible, necesitan algoritmos para decidir qué van a ver. En política es clave escuchar ambos bandos para entender cuáles son sus argumentos, pero eso no es lo que los algoritmos suelen hacer. Están optimizados para la interacción, para que uno pase más tiempo en la plataforma. La mejor manera de lograrlo es mostrarte más contenido en el que estás interesado en lugar de contenido que tal vez no te interese, pero que podría serte útil para tomar una decisión política.
–¿Los algoritmos logran cambiar opiniones?
–Es una pregunta interesante. No creo que realmente sepamos la respuesta. Hace 20 o 30 años había un tipo de medios que la mayoría consumía. Por tanto, había una especie de base común de qué se consideraba aceptado en general. Hoy en día, ya no es así.
–¿Es preocupante no saber cómo nos afectan?
–Es cierto que es cada vez más difícil entender cómo los algoritmos afectan exactamente a nuestras vidas. Muchas veces la gente ni se da cuenta de que detrás de los sistemas que usan hay algoritmos de recomendación o de clasificación. Uno de los puntos clave en los que trabajamos cuando estuve en la Casa Blanca fue definir las prácticas que el gobierno debe seguir al usar IA. Uno de los puntos principales fue la transparencia: notificar a las personas cuando hay un algoritmo que toma una decisión sobre ellas que podría afectarlos negativamente.
–Eso para los algoritmos en sistemas públicos, pero los usuarios ya saben que las redes sociales se ordenan con algoritmos...
–La mayoría sí, pero lo que no saben es cuántos datos recoge. Por ejemplo, las apps en un celular recogen un chorro de información sobre el que lo usa. La gente no se da cuenta de la cantidad de datos que van a parar a esos algoritmos, ni de cómo de descompensado está por la cantidad de esfuerzo, dinero y recursos que se meten para afinar esos algoritmos y que te muestren justo lo que quieren.
–El objetivo de estas compañías es ganar dinero. Si también cambian la sociedad, ¿es un efecto imprevisto?
–No puedo hablar de sus motivaciones, pero sí, el objetivo de estas compañías es sacarte el máximo provecho. Algunas de las empresas más grandes del mundo manejan una cantidad de datos y tienen una influencia alucinante sobre cómo hablamos o pensamos, ya sea a nivel nacional o mundial. Es fácil imaginar cómo eso puede salirse de control.
–¿El gobierno de Estados Unidos trata de prohibir TikTok por esos motivos?
–Hay un montón de razones para prohibir TikTok. Cada vez más gente se da cuenta de lo poderosos que son estos sistemas. Tienen el poder de influir en la gente de muchos modos. Vi por ejemplo un gráfico que circulaba por X, que decía que la plataforma recomienda más contenido de derecha. Aunque fuera cierto, que podría serlo, quizá sería porque ese tipo de personas es más activo en Twitter, o podría ser porque el algoritmo realmente lo está recomendando. No sé cuál de las dos es verdad. Pero hay muchas explicaciones potenciales. Que uno vea una diferencia no significa que la culpa sea del algoritmo.
–Es difícil esperar cuando hay gente que se pregunta por la influencia de X en la elección de Trump...
–Otras veces ya hemos tenido casos donde estábamos seguros y después no era así. Por ejemplo, hace diez años, cuando estudiábamos la discriminación en los precios de los vuelos. Hubo momentos en que la gente decía “busqué un vuelo y otro buscó el mismo vuelo y ¡los precios eran diferentes!”. Nos pusimos a diseñar experimentos durante un año y a controlar variables y descubrimos que solo en circunstancias muy específicas eso era cierto. Casi siempre lo que pasaba era pura casualidad.
–¿Todo casualidad?
–Había alguna excepción. Descubrimos que en algunas apps cambia si se está en celular o computadora. En otros, depende del país donde creen que estás: aunque sea el mismo vuelo, si lo compro en Estados Unidos o en España podría poner precios distintos. Las aerolíneas llevan haciendo esto años. Hay una tendencia natural de pensar, cada vez que se ve una diferencia, “ah, un algoritmo me está embromando”, lo que a veces es verdad, pero la mayoría de las veces, no.
–También hay quien sospecha del celular porque le salen anuncios sobre cosas que acaba de comentar en voz alta...
–Diría que hay un poco sesgo de confirmación. Solo te das cuenta cuando sucede, no cuando no sucede. Probablemente, hay mil otras cosas que le dijiste a tu pareja ese día y no tuvieron ningún resultado. Unos colegas míos hicieron un estudio porque la gente está preocupada por si Alexa o las apps del celular están escuchando o grabando. Hicieron un estudio con apps móviles. Encontraron apps que hacían otras cosas horribles, pero no que te grababan secretamente.
–¿Tiene más miedo o esperanza para los próximos cinco años?
–Si me hubiera preguntado hace cinco años, habría dicho que la gente no tiene ni idea de lo que está pasando, habría sido más pesimista. Ahora, siento que hay más conciencia de cuánto están involucrados los algoritmos en estos sistemas. La respuesta optimista es que ves a los gobiernos realmente lidiando con estos temas, lo que me da esperanza de que, en cinco o diez años, habremos encontrado una manera de equilibrar las cosas. La respuesta pesimista es que estos sistemas avanzan tan rápido y las empresas son tan poderosas que los gobiernos van a tener problemas para seguir el ritmo.
http://indecquetrabajaiii.blogspot.com.ar/. INDECQUETRABAJA
No hay comentarios.:
Publicar un comentario
Nota: sólo los miembros de este blog pueden publicar comentarios.