domingo, 1 de diciembre de 2024

MUNDO TECNO Y LA IA PARA LA ESTAFA


¿Es posible que la inteligencia artificial nunca se equivoque?
La IA no piensa ni razona, solo identifica patrones repetidos y los replica
Mara Borchardt
Las aplicaciones de Inteligencia Artificial (IA) no se confunden: generan siempre las respuestas que pueden producir, aunque muchas veces no sean las que esperamos. El resultado que ofrecen es la aproximación estadística conseguida por el sistema, y esa respuesta puede no ser adecuada para la pregunta formulada. Cuando un programa califica a un perro como una galletita esto resulta claro. El problema puede menos evidente, y más grave, si se trata por ejemplo de una aplicación de selección laboral.
Asumiendo esta forma coloquial del lenguaje, para responder la pregunta sobre si la IA se equivoca podríamos a su vez preguntarnos: ¿es posible que no se equivoque? De este modo, resaltamos la excepcionalidad de que un artefacto esté exento de cualquier posibilidad de falla. En tanto es una creación material hecha por personas, los errores son (y serán) inevitables.
Si las aplicaciones de IA no funcionan siempre como se espera, se imponen otras preguntas: ¿hay aplicaciones que se equivocan menos que otras? ¿Es posible medir cuántas veces comete “errores” una aplicación de IA? ¿Y qué tan lejos de la respuesta correcta está cada “error”? ¿Cuáles son las consecuencias de esos “errores”?
Es posible establecer un control de calidad de las aplicaciones de IA similar al de otros productos. Es decir, ponerla a funcionar, observar sus resultados y analizar si son considerados correctos o no. Sin embargo, la cantidad y la variedad de casos de prueba pueden determinar fuertemente la evaluación.
Imaginemos un sistema de clasificación de imágenes para detectar tumores que funciona de manera muy aceptable, excepto porque omite un tipo muy particular de tumor infrecuente y maligno que no fue incluido como dato en el conjunto de información con que se entrenó el modelo. En un conjunto de pruebas, o aun si se observa su funcionamiento, estos “errores” serán muy infrecuentes y, por lo tanto, serán estadísticamente despreciables. Será muy difícil tener en cuenta esta falla a la hora de comparar con otras aplicaciones o de estimar el riesgo de utilizarlo para el diagnóstico.
Entonces, no solo importa cuántos “errores” comete un sistema basado en IA, sino también de qué tipo son y a quién afecta. Un sistema de IA puede resultar una herramienta para que las y los profesionales de la salud con conocimiento y formación específica puedan realizar diagnósticos más precisos, pero no los sustituye en esa función.
Del mismo modo, tanto los modelos de clasificación de imágenes como los modelos de lenguaje, por ejemplo el ChatGPT, suelen generar textos no esperados, contradictorios o falsos. Este comportamiento se denomina alucinación. Esto ocurre porque no responden al sentido al texto, sino que predicen estadísticamente la siguiente palabra en una oración o producen la imagen más cercana posible a la información ingresada.
Los sistemas de IA construidos con técnicas de aprendizaje automático están preparados para imitar las relaciones estadísticas que deducen de los datos de entrenamiento, suponiendo que en las correlaciones de estos datos está la clave para predecir soluciones al problema que la aplicación ayuda a resolver.
En definitiva, los modelos están preparados para identificar patrones repetidos y replicarlos automáticamente. No piensan, no razonan, no evalúan. Los datos son un producto cultural y humano, y por lo tanto contingente; pueden incluir correlaciones de comportamientos no deseados.
Por ejemplo, en el historial de contrataciones de una empresa de tecnología se puede encontrar una correlación muy fuerte entre autopercibirse varón y tener un puesto en el área de desarrollo de software, lo que refleja de manera muy fiel la desigualdad de género que existe en los equipos técnicos TIC. Un modelo de aprendizaje automático entrenado con este conjunto de datos identificará esta mayoría y “aprenderá” para replicarla. Es decir, cuando reciba postulaciones para puestos de desarrollo priorizará las de varones por sobre las de las mujeres, independientemente de la formación o experiencia laboral de los y las postulantes: su objetivo es replicar fielmente el universo expresado del conjunto con el que fue entrenado.
Este y otros aspectos vinculados a la aparición de la IA se tratan con mayor profundidad y detalle en la guía “10 preguntas frecuentes y urgentes sobre Inteligencia Artificial”, publicada por la Fundación Sadosky. Esta guía tiene como objetivo contribuir a la democratización del conocimiento especializado para reflexionar informada y críticamente sobre el impacto de la IA, y aporta elementos para seguir investigando, pensando y discutiendo sobre el tema.

&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&

Una abuela con inteligencia artificial es la peor pesadilla de los estafadores telefónicos
Yahoo Spanish
PorAli Watkins



A Daisy Harris le gustan las aves: hay una al otro lado de su ventana. Su gato se llama Fluffy y le encantaría hablarte de su afición a tejer. Le gustan el té y las galletas. Y la verdad es que no entiende cómo funciona eso del internet.
¿Pero quizá puedas explicárselo tan solo una vez más?
Más o menos así sería una charla con Daisy Harris, una abuelita generada con ayuda de la inteligencia artificial presentada este mes por la gran compañía telefónica británica O2, como parte de sus esfuerzos para frenar a los estafadores telefónicos. No tiene placa, ni orden judicial, ni forma alguna de realmente detenerlos. Pero cuando un desafortunado estafador marca su número, Daisy tiene el poder de hacerle perder una cantidad ilimitada de tiempo.
Hay muchas personas de carne y hueso a las que les gusta tenderles trampas a los estafadores: identifican a posibles ladrones y les dan una sopa de su propio chocolate, inician conversaciones interminables para que no puedan llamar a otras posibles víctimas. A diferencia de ellos, Daisy no tiene impedimentos, como la necesidad de dormir.
"Estas personas no pueden hablar con miles de estafadores", comentó Morten Legarth, quien ayudó a desarrollar Daisy con VCCP, una agencia de publicidad de Londres. "Pero existe la idea de que la IA sí puede".
Las estafas telefónicas han alcanzado niveles alucinantes: el año pasado, el número de llamadas fraudulentas se disparó a decenas de millones, según la empresa de seguridad telefónica Hiya. Un consorcio de lucha contra las estafas afirma que se robaron más de un billón de dólares, la mayoría de las veces cuando las víctimas facilitaban sin sospechar datos bancarios, contraseñas u otra información personal.
Internet no ha hecho más que facilitar estas estafas y, aunque los estafadores no discriminan, los adultos mayores son presa fácil: en un estudio británico, el 40 por ciento de los mayores de 75 años declararon recibir llamadas fraudulentas al menos una vez al mes, si no a diario.
Daisy, con su desconcierto ante la tecnología y sus ganas de complacer, se presenta, al menos al principio, como el objetivo perfecto. Sus desarrolladores explicaron que se basaron en las expectativas, a menudo inspirándose en sus propias abuelas.
"Me inspiré mucho en mi abuela. Siempre hablaba de los pájaros de su jardín", recordó Ben Hopkins, quien también trabajó en el proyecto VCCP. En lugar de recurrir a un actor de doblaje para entrenar a Daisy, el equipo optó por utilizar a la abuela de uno de sus compañeros, que vino a tomar un té y grabó horas de diálogo.
Un caza estafadores prolífico que reside en Irlanda del Norte y publica videos en YouTube con el nombre de Jim Browning trabajó con O2 y VCCP en el desarrollo de Daisy, dotándola de técnicas para mantener a los estafadores al teléfono. Entre ellas: salirse por la tangente con temas como aficiones y familia, y fingir ineptitud tecnológica.
En un caso, tres estafadores telefónicos se unieron en una llamada que duró casi una hora, intentando que Daisy tecleara "www." en un navegador web.
Aun así, dado el enorme volumen de llamadas fraudulentas, los esfuerzos de Daisy distan de ser una barricada y son apenas un pequeño obstáculo. Los clientes de O2 no pueden desviar las llamadas sospechosas a Daisy; más bien, ella responde a unos cuantos números de teléfono diferentes del inmenso pajar de dígitos que pueden marcar los estafadores.
"Aunque, en la práctica, interrumpe las operaciones , no detiene el fraude en sentido amplio", señaló Elisabeth Carter, profesora adjunta de Criminología y lingüista forense de la Universidad Kingston de Londres.
Carter desaconsejó intentar seguir el ejemplo de Daisy de hacer batallar a los estafadores. Por muy satisfactorio que parezca, "lo mejor que puedes hacer si recibes una llamada de un estafador es no involucrarte, colgar y denunciarlo", aconsejó.
Una imagen generada mediante inteligencia artificial del aspecto de Daisy Harris, la abuelita de O2, y su gato Fluffy. (O2/The New York Times)

http://indecquetrabajaiii.blogspot.com.ar/. INDECQUETRABAJA

No hay comentarios.:

Publicar un comentario

Nota: sólo los miembros de este blog pueden publicar comentarios.