“Jugar al fleje”: los shocks negativos a los que estará expuesta la economía hasta las elecciones, según Levy Yeyati
Para el jefe de Research de Adcap, el Gobierno priorizó la inflación y el ajuste fiscal antes que mantener competitivo el tipo de cambio y acumular reservas, por lo cual esta situación deja al país “muy débil” frente a posibles situaciones externas
Sofía Diamante
El economista Eduardo Levy Yeyati se sumó como advisor del equipo de Research de Adcap
El mercado financiero cerró un mes de octubre optimista como hace tiempo no se veía. El Banco Central (BCRA) logró comprar US$1530 millones y fue el mejor octubre de los últimos 15 años. El agro acompañó con una liquidación de US$2553 millones, pese a los temores de apreciación cambiaria (hubo venta de granos para afrontar los gastos de la siembra gruesa y atender contratos de alquiler). Y el riesgo país cayó casi 24%.
“Mucho del rally tiene que ver con el convencimiento del mercado de que Javier Milei es una persona que apunta al superávit fiscal y que no va a cambiar de opinión por más que haya una manifestación. Ninguno de nosotros creía que se podía hacer un ajuste de 5% del PBI y ahora se convencieron. El sentimiento de los fondos es de euforia porque hubo un cambio que no pensábamos que iba a pasar. Pero el mercado no está pensando en los riesgos que podrían ocurrir a si hay cambios en la macroeconomía”, describió la situación el analista financiero Javier Timerman, fundador de Adcap, quien suele transmitir la mirada de los traders.
El economista Eduardo Levy Yeyati, quien se sumó como advisor del equipo de Research de la misma firma, agregó que en este momento predomina el sentimiento FOMO –acrónimo de fear of missing out (miedo de quedarse afuera)–. “El mercado está entusiasta porque está la idea de que el Gobierno no va a dar macha atrás con lo fiscal y entonces nadie quiere quedarse afuera. Se le empieza a creer al equipo económico de que la tablita [cambiaria] va a seguir, que van a hacer lo necesario para que continúe”, explicó.
El ministro de Economía, Luis Caputo, junto al presidente del Banco Central, Santiago Bausili
“Se alinearon las expectativas por lo menos de corto plazo, porque le dan la razón al ministro [de Economía, Luis Caputo] de que va a seguir esta política económica unos meses más. Tienen argumentos para hacerlo, está la elección y el apoyo popular”, agregó.
Para ampliar acerca del momentum financiero, Federico Filippini, también flamante incorporación como economista jefe al equipo de investigación de Adcap, señaló: “Hay un ajuste fiscal sostenido, que se complementa con buenos índices de confianza y de popularidad de Milei”. El economista indicó que esa “creencia” del mercado comenzó a ocurrir con las buenas noticias en lo político (se sostuvieron los vetos al financiamiento universitario y jubilados), en la recuperación de los salarios reales y cuando la confianza en el Gobierno volvió a subir.
Los economistas, sin embargo, advirtieron que tampoco “nadie, ni el mercado ni el Gobierno, se puso a pensar cómo salir del cepo después de las elecciones, minimizando el impacto de la devaluación en la inflación”, dijo Levy Yeyati.
Las buenas noticias en lo fiscal y en lo monetario se complementan con una certeza de las que ya pocos dudan: tanto para los analistas económicos como para las empresas, el tipo de cambio se apreció muy rápido, pero no creen que vaya a haber cambios, devaluación o salida del cepo, por lo menos hasta las elecciones legislativas. “Lo van a desarmar después de las elecciones, salvo que tengan una crisis antes. Si no, van a dejar todo como está”, sumó Levy Yeyati.
“El Gobierno priorizó la inflación y el ajuste fiscal frente a mantener competitivo el tipo de cambio y acumular reservas. Esta situación deja al país expuesto a shocks negativos, porque el frente de reservas viene muy débil”, agregó el también profesor de la Universidad Di Tella. Actualmente, pese al blanqueo y a la compra de dólares que hizo el Banco Central, las reservas netas siguen siendo negativas en torno a los US$4500 millones.
Para el economista, todos los eventos que puedan golpear al sector externo son el “Talón de Aquiles” de la economía. Entre los shocks negativos que podrían ocurrir, enumera: una sequía o un aumento inesperado de la popularidad de Cristina Kirchner, lo cual podría hacer que el inversor patee proyectos de inversión o que el mercado financiero deje de renovar deuda y se amplíe la brecha. También, dijo, se está expuesto a los precios de las commodities, que pueden bajar si China sufre una desaceleración mayor de la actividad económica de la que está teniendo, y eso impacta en una caída de los precios internacionales por menor consumo.
“Una cosa es la expectativa, pero después hay riesgos, porque la Argentina siempre juega muy al fleje, no solo este Gobierno”, concluyó Levy Yeyati.
&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&&
Los peligros de la IA: cómo prevenir las “alucinaciones” en las finanzas
La información falsa o engañosa representa una amenaza muy grande en terrenos sensibles como el manejo de inversiones o el otorgamiento de créditosSuscriptores
Clarisa Herrera
La IA incrementará la productividad económica, pero también traerá riesgos especialmente en el campo de las finanzas
¿Qué pasaría si un sistema de inteligencia artificial (IA) diseñado para predecir el futuro del mercado de valores y entrenado en un período de estabilidad económica se enfrentara a una crisis inminente? Si no fue entrenado para reconocer señales de este tipo, podría interpretar un pequeño aumento en las transacciones como una señal de crecimiento continuo. El modelo también podría predecir erróneamente que los precios de las acciones subirán, con serias consecuencias en el mercado.
Si una herramienta con IA que analiza el sentimiento del mercado financiero basándose en noticias y publicaciones en redes sociales recibiera un inadecuado entrenamiento, podría interpretar incorrectamente las expresiones o contextos, lo que podría conducir a un análisis que no represente la verdadera opinión del mercado, llevando a decisiones de inversión basadas en información distorsionada.
Estos ejemplos muestran que a medida que la IA se hace más presente en el sector financiero, no solo se abren caminos para la innovación y la automatización, también desafíos como las llamadas “alucinaciones” de IA, término referido a situaciones en las que los modelos de IA generan y diseminan información falsa o engañosa.
En el mundo fintech la IA llegó para quedarse: fue valorada en US$1120 millones en 2023, además, el rápido crecimiento de sus tasas sugiere que llegará a los US$4370 millones para 2027, según estimaciones de Market.us. Sin embargo, según los análisis de la startup Vectara, la tasa de “alucinación” de los chatbots oscila entre un 3% hasta un 27%, lo que se convierte en un problema para el área financiera, donde las decisiones precisas son cruciales.
Julián Colombo, CEO y fundador de N5, sostiene que la IA puede presentar alucinaciones que se refieren a errores o interpretaciones incorrectas de datos, lo que “lleva a conclusiones erróneas”. Julio Blanco, cofundador & CBO de Zentricx, aclara que básicamente, “el resultado es un invento del modelo y no se sustenta con información real”.
Los grandes modelos de lenguaje natural (LLMs) -según explica Weslley Rosalem, líder principal de IA de Red Hat- funcionan basados en probabilidades condicionales aprendidas a partir de los datos de entrenamiento. “Generan la siguiente palabra o token en función de las distribuciones de probabilidad de esas secuencias. Las alucinaciones ocurren cuando el modelo produce salidas que son estadísticamente plausibles pero no corresponden a la realidad factual. Estos modelos capturan relaciones estadísticas, pero no tienen una comprensión verdadera del contenido”, aclara.
En la mira
En las áreas financieras, estas alucinaciones pueden ocurrir en varias áreas, como el análisis de crédito, donde un modelo puede asignar a un cliente “un perfil de riesgo que no refleja su verdadera situación financiera, lo que potencialmente resulta en decisiones de concesión de crédito inadecuadas”, apunta Colombo.
Blanco suma que en el caso de la atención del cliente, pueden existir buscadores de consulta (en reemplazo de las “preguntas frecuentes”) y el buscador podría realizar recomendaciones erróneas en cuanto a servicios o costos de los mismos. A su vez, podrían alucinar de tal manera de no resolver las consultas de los clientes de ninguna manera”. Los modelos también pueden alucinar en la generación de reportes financieros, en el caso de realizar cálculos complejos de estimación o predicción de tendencias: “Más que prediciendo, estarían adivinando un futuro sin ningún sustento real”, puntualiza.
En asesoría financiera automatizada las alucinaciones pueden recomendar estrategias de inversión inadecuadas basadas en datos o algoritmos defectuosos. Asimismo, pueden traer problemas en la detección de fraudes y gestión de riesgos. “Las alucinaciones pueden llevar a falsos positivos o negativos, comprometiendo la eficacia en la identificación de actividades fraudulentas o en la evaluación de riesgos”, indica Rosalem.
La naturaleza de estas alucinaciones en el sector, puede llevar a pérdidas financieras significativas, daños a la reputación de las instituciones y a la insatisfacción del cliente. “Además, las decisiones basadas en análisis erróneos pueden aumentar el riesgo de fraudes o incumplimiento normativo, exponiendo a las empresas a sanciones regulatorias. Es crucial implementar medidas de validación y supervisión para garantizar que los sistemas de IA operen con precisión y transparencia, minimizando así los riesgos asociados”, subraya Colombo.
Asimismo, las alucinaciones pueden conducir a una toma de decisiones ineficiente. “Las alucinaciones pueden comprometer la calidad de las decisiones estratégicas, afectando la competitividad de la institución en el mercado”, agregan desde Red Hat.
Minimizar el riesgo
Desde Zentricx comentan que la principal manera de minimizar la alucinación es que la información que se utilice sea fehaciente. “Si el modelo se alimenta de información falsa, aprende a repetir las mismas falsedades. Siempre recomendamos un proyecto de asesoramiento de datos antes de desarrollar un modelo de IA complejo”.
Respecto de la calidad de los datos, Blanco resalta que es un punto “central” para disminuir las alucinaciones. “Es necesario asegurarse que los modelos de IA estén entrenados con datos diversos, equilibrados y bien estructurados. También realizar pruebas de estrés al modelo de IA”, resalta.
En Red Hat sugieren que estrategias como RAG (Retrieval-Augmented Generation) o RIG (Retrieval Interleaved Generation) minimizan los efectos de las alucinaciones en los LLMs, ya que “combinan modelos de lenguaje con sistemas de recuperación de información”. El LLM es alimentado con información específica recuperada de una base de datos o documentos relevantes, lo que permite que el modelo genere respuestas más precisas y actualizadas y se disminuye la dependencia exclusiva de los datos de entrenamiento, que pueden estar desactualizados o incompletos.
Métodos y herramientas de código abierto como TrustyAI y guardrails pueden ser implementados con modelos de lenguaje de gran tamaño (LLMs) para mitigar alucinaciones y mejorar la confiabilidad.
TrustyAI es un conjunto de herramientas orientadas a la explicabilidad y confiabilidad de modelos de IA, que proporciona recursos para interpretar las decisiones de los modelos, identificar sesgos y monitorear el rendimiento. “Al aplicar TrustyAI a LLMs, es posible comprender mejor cómo el modelo genera respuestas e identificar posibles alucinaciones o información incorrecta”, aporta Rosalem.
Los guardrails por su parte, son mecanismos que imponen restricciones o verificaciones en las salidas de los modelos de IA. Pueden ser implementados para garantizar que las respuestas estén dentro de un determinado alcance, sigan políticas específicas o sean fácticamente correctas.
Colombo suma además la necesidad de implementar revisiones humanas “para datos críticos y respuestas sensibles puede aumentar la precisión, especialmente en áreas como riesgo y cumplimiento”.
En N5 desarrollaron la solución Fin Sky que combina dos enfoques eficaces. En primer lugar, adoptaron un modelo distribuido, que utiliza múltiples IA trabajando en conjunto. Implementaron un proceso de retroalimentación, donde validan continuamente la entrada, el procesamiento y la salida de cada consulta de los usuarios. “Esto nos ha permitido reducir la tasa de alucinaciones a 0,3%, en comparación con la tasa del 3% al 27% observada en chatbots, según datos de la startup Vectara”, aclara Colombo y cierra subrayando que sus IA están entrenadas con datos exclusivos de la institución, evitando consultas a información aleatoria de Internet, lo que aumenta aún más la precisión de las respuestas. “Esta combinación de métodos garantiza que las soluciones sean confiables y seguras teniendo en cuenta un sector donde la información juega un rol crítico”.
http://indecquetrabajaiii.blogspot.com.ar/. INDECQUETRABAJA
No hay comentarios.:
Publicar un comentario
Nota: sólo los miembros de este blog pueden publicar comentarios.