¿Se desacelera el progreso de la inteligencia artificial? Igualar al cerebro humano ahora parece más lejano
OpenAI, Google y otros titanes de la IA están encontrando que les resulta complicado mantener el ritmo de crecimiento y renovación de sus motores de inteligencia artificial, pese a estar invirtiendo miles de millones de dólares
Un estudio calcula que en menos de diez años no habrá más datos públicos disponibles para entrenar a una inteligencia artificial
La IA parece desacelerarse en su camino hacia igualar al humano. Un runrún corre por zonas de Silicon Valley: los avances de la Inteligencia Artificial (IA) hasta llegar al nivel del ser humano, hito repetido por las grandes empresas que desarrollan esta tecnología, parece que se están desacelerando. Desde el deslumbrante lanzamiento de ChatGPT hace dos años, los gurús de la IA afirman que las capacidades de esta tecnología se acelerarán exponencialmente a medida que las grandes empresas tecnológicas sigan añadiendo datos para mejorar su entrenamiento y aumentando su potencia de cálculo.
El razonamiento era que si se aportaba suficiente potencia de cálculo y el volumen de datos que usa esta tecnología, surgiría la Inteligencia Artificial General (AGI), capaz de igualar o superar la capacidad humana. Los avances fueron tan rápidos que figuras destacadas del sector, como Elon Musk, pidieron una moratoria en el desarrollo de la IA .Sin embargo, las gigantes tecnológicas, incluida la del propio Musk, siguieron adelante y gastaron decenas de miles de millones de dólares para no quedarse atrás en esta carrera.
OpenAI, la empresa creadora de ChatGPT con el apoyo de Microsoft, recaudó recientemente 6.600 millones de dólares para financiar nuevos avances. xAI, la empresa de IA de Musk, busca inversores que aporten 6000 millones de dólares para comprar 100.000 chips de Nvidia, fabricante de componentes necesarios para el desarrollo de la IA, según informó la CNBC.
Pero parece que el camino hacia la AGI está lleno de obstáculos. Los expertos del sector empiezan a darse cuenta de que los grandes modelos lingüísticos (LLM) no aumentan a la velocidad esperada aunque se les alimente con más potencia y datos. A pesar de las enormes inversiones, las mejoras de esta tecnología muestran signos de estancamiento. Los valores que alcanzan en los mercados empresas “como OpenAI y Microsoft se basan en gran medida en la idea de que los LLM se convertirán en inteligencia artificial general con un escalado continuo”, afirma Gary Marcus, experto y crítico de la IA. “Eso no es más que una fantasía”.
Un nuevo estudio publicado por el grupo de investigación Epoch AI prevé que las empresas tecnológicas agotarán el suministro de datos de entrenamiento disponibles públicamente para los modelos lingüísticos de IA en algún momento entre 2026 y 2032. A corto plazo, empresas tecnológicas como OpenAI, el desarrollador de ChatGPT, y Google, se esmeran en conseguir, y a veces a pagar, fuentes de datos de alta calidad para entrenar sus modelos de lenguaje de gran tamaño de IA. Para ello, por ejemplo, han suscrito acuerdos para aprovechar el flujo constante de frases procedentes de los foros de Reddit y de los medios de comunicación. A largo plazo, no habrá suficientes nuevos blogs, artículos noticiosos y comentarios en las redes sociales para mantener la trayectoria actual de desarrollo de la IA, lo cual obligará a las empresas a recurrir a datos sensibles que ahora se consideran privados, como correos electrónicos o mensajes de texto, o a basarse en “datos sintéticos” generados por los propios chatbots, los cuales son menos fiables.
“No hay barreras”
Una de las principales cortapisas a la que se enfrentan los desarrolladores es que la cantidad de datos lingüísticos para el entrenamiento de la IA es finita. Según Scott Stevenson, CEO de la empresa de IA Spellbook, que trabaja con OpenAI y otros proveedores, focalizar el avance en la acumulación de datos lingüísticos está destinado al fracaso. ”Algunos laboratorios se han centrado demasiado en introducir más lenguaje, pensando que así (la IA) será más inteligente”, explica Stevenson.
Sasha Luccioni, investigadora y responsable de IA en la startup Hugging Face, afirma que era previsible que esta carrera sufriera un frenazo, ya que las empresas se centran más en el tamaño que en el desarrollo de modelos y sus finalidades. ”La búsqueda de la inteligencia artificial siempre ha sido poco realista, y el enfoque de la IA basado en ‘cuanto más grande, mejor’ tenía que llegar a un límite en algún momento, y creo que eso es lo que estamos viendo ahora”, explica a la AFP.
Los desarrolladores de la IA refutan estas ideas. Sostienen que el progreso hacia una inteligencia artificial igualable a la de los humanos es impredecible. ”No hay barreras”, publicó el jueves en X Sam Altman, fundador y director ejecutivo de OpenAI, sin dar más detalles. El consejero delegado de Anthropic, Dario Amodei, cuya empresa desarrolla el chatbot Claude en colaboración con Amazon, sigue siendo optimista: “Si nos fijamos en el ritmo al que aumentan estas capacidades, nos hace pensar que llegaremos a ese punto en 2026 o 2027″.
Según Bloomberg, además de tener problemas para encontrar nuevas fuentes de material de entrenamiento de alta calidad y validador por humanos para educar a los LLMs, todos estos nuevos sistemas requieren de cuantiosas inversiones en hardware, pero las mejorías en los resultados no parecen justificar los gastos, por ahora.
“Enfoque homo sapiens”
A pesar de este optimismo, OpenAI ha retrasado el lanzamiento del sucesor de GPT-4 porque está por debajo del rendimiento esperado, según fuentes citadas por The Information. Por eso, la empresa se está centrando en usar la capacidad de su tecnología de forma más eficiente. Este cambio de estrategia se ve reflejado en su modelo o1, diseñado para dar respuestas más precisas gracias a una mejora de su razonamiento y no por el aumento de datos de entrenamiento.
Stevenson recuerda que la decisión de OpenAI de enseñar a su modelo a “pasar más tiempo pensando en lugar de respondiendo” ha comportado “mejoras radicales”. El CEO de Spellbook compara la IA con el descubrimiento del fuego. En lugar de echar más leña para avivarlo a base de datos y potencia informática, ha llegado el momento de usarlo para tareas específicas. El profesor de la Universidad de Stanford Walter De Brouwer compara los LLM con los estudiantes que pasan del instituto a la universidad: “El bebé de la IA era un chatbot que improvisaba mucho”, propenso a cometer errores, señala. ”El enfoque homo sapiens de pensar antes de actuar está llegando”, añadió.
Con información de AFP
http://indecquetrabajaiii.blogspot.com.ar/. INDECQUETRABAJA
No hay comentarios.:
Publicar un comentario
Nota: sólo los miembros de este blog pueden publicar comentarios.