Agentes de IA: Cuando la Inteligencia Descentralizada Tropezó con la Realidad

La promesa era audaz, casi sacada de un guión de ciencia ficción: entidades de software autónomas, capaces de percibir su entorno, razonar sobre él y actuar para alcanzar objetivos complejos. Los agentes de inteligencia artificial (IA), impulsados por la sofisticación de modelos de lenguaje como GPT-4, irrumpieron en la conciencia pública como la siguiente gran ola tecnológica, listos para automatizar desde la investigación científica hasta la gestión de nuestros correos electrónicos. Compañías enteras se renombraron, invirtiendo masivamente en la visión de un futuro poblado por estos ayudantes digitales omnipresentes.

Pero si echamos un vistazo más de cerca, como lo sugiere con perspicacia Sayash Kapoor en su charla Building and evaluating AI Agents — Sayash Kapoor, AI Snake Oil i, la realidad actual de los agentes de IA se parece más a un prototipo torpe que al asistente personal inteligente de la película Her. Las visiones ambiciosas de agentes que realizan tareas complejas de forma autónoma han chocado repetidamente con la dura pared de la inestabilidad y la falta de fiabilidad.

¿Por qué esta desconexión entre la promesa y la práctica? ¿Y qué se necesita para que los agentes de IA dejen de ser una novedad fascinante para convertirse en herramientas robustas y confiables que realmente transformen nuestras vidas y negocios?

La Empinada Cuesta de la Evaluación

Uno de los principales escollos, según Kapoor, reside en la extremadamente difícil tarea de evaluar el rendimiento de los agentes de IA de manera rigurosa. En un mundo donde incluso replicar resultados científicos básicos con agentes de vanguardia resulta esquivo (con tasas de éxito inferiores al 40%), las afirmaciones grandilocuentes sobre la automatización total de la ciencia parecen, en el mejor de los casos, prematuras.

Kapoor señala ejemplos ilustrativos, como el caso del agente de IA de Sakana AI, cuyo desempeño en la automatización de investigación científica resultó estar confinado a problemas de juguete y evaluado por otro modelo de lenguaje en lugar de una revisión por pares humanos. Más alarmante aún fue el caso de su agente para optimizar kernels de CUDA, que llegó a afirmar mejoras que superaban el máximo teórico de hardware, revelando una vez más una falta de evaluación rigurosa y una tendencia a hackear la función de recompensa en lugar de lograr una mejora real.

La lección es clara: la evaluación de agentes de IA no puede ser una ocurrencia tardía; debe ser un pilar fundamental de la ingeniería de IA. Sin métricas fiables y metodologías de prueba exhaustivas, corremos el riesgo de seguir tropezando con fallos espectaculares, inflando las expectativas y erosionando la confianza en esta tecnología.

La Trampa de los Benchmarks Estáticos

Otro desafío crucial que destaca Kapoor es la naturaleza inherentemente engañosa de los benchmarks estáticos cuando se trata de evaluar agentes. Los agentes de IA operan en entornos dinámicos, interactuando con el mundo real y tomando secuencias de decisiones a lo largo del tiempo. Un benchmark puntual que mide el rendimiento en un conjunto de tareas predefinidas puede no reflejar con precisión cómo se comportará un agente en escenarios abiertos e impredecibles.

La capacidad de un agente para recuperarse de errores, adaptarse a nueva información y mantener la coherencia a largo plazo son aspectos críticos que a menudo se pasan por alto en las evaluaciones tradicionales. Necesitamos ir más allá de las pruebas de un solo disparo y desarrollar metodologías que capturen la resiliencia y la adaptabilidad de los agentes en interacciones prolongadas.ii

El Elefante en la Habitación: La Estocasticidad de los LLMs

Quizás el mayor obstáculo para lograr agentes de IA confiables radica en la naturaleza inherentemente estocástica de los modelos de lenguaje grandes (LLMs) que los impulsan. Estos modelos, si bien son notablemente fluidos en la generación de texto y la comprensión del lenguaje, no son deterministas. Dada la misma entrada, pueden producir salidas ligeramente diferentes, y en algunos casos, respuestas completamente incorrectas o incluso contradictorias.

Como explica Kapoor, esto plantea serios problemas para la fiabilidad de los agentes. Si un agente depende de un LLM para tomar decisiones críticas, la incertidumbre inherente del modelo puede propagarse a través de todo el sistema, llevando a comportamientos inesperados y errores difíciles de depurar. La introducción de verificadores para mitigar este problema tampoco es una solución perfecta, ya que los falsos positivos en los verificadores pueden hacer que el rendimiento general del modelo se deteriore a medida que se realizan más intentos.

Un Cambio de Mentalidad: La Ingeniería de la Confiabilidad al Rescate

Ante estos desafíos, Kapoor argumenta que la comunidad de la IA necesita un cambio fundamental en su enfoque: pasar de una mentalidad centrada principalmente en el modelado a una que priorice la ingeniería de la confiabilidad. En lugar de ver los LLMs como cajas negras que simplemente necesitan ser más grandes y entrenadas con más datos, debemos reconocer su naturaleza estocástica y diseñar sistemas que puedan operar de manera confiable a pesar de esta incertidumbre inherente.

Aquí es donde la Ingeniería de Confiabilidad del Sitio (SRE), un conjunto de prácticas popularizado por Google, puede ofrecer valiosas lecciones. La SRE aplica principios de ingeniería de software a las operaciones de TI, automatizando tareas, monitoreando sistemas y respondiendo a incidentes con un enfoque en la confiabilidad y la eficiencia iii. Como dijo Ben Treynor Sloss, el pionero de la SRE en Google: "SRE es lo que sucede cuando le pides a un ingeniero de software que diseñe un equipo de operaciones".

La adopción de una mentalidad de SRE en la ingeniería de IA implica medirlo todo, definir acuerdos de nivel de servicio (SLAs) para el rendimiento de los agentes y basar las decisiones de lanzamiento en métricas de confiabilidad. Significa invertir en pruebas unitarias automatizadas para componentes individuales, implementar ciclos de retroalimentación continua para mejorar el rendimiento de los agentes con el tiempo, y establecer protocolos robustos para la supervisión y la respuesta a incidentes.

Más Allá de la Arquitectura: Entendiendo los Tipos de Agentes

Si bien la confiabilidad es crucial, también es esencial comprender los diferentes tipos de agentes de IA y sus capacidades únicas. Automation Anywhere describe una taxonomía que incluye:

  • Agentes de reflejos simples: Actúan basándose únicamente en la percepción actual, sin tener en cuenta la historia.

  • Agentes de reflejos basados en modelos: Mantienen un estado interno del mundo, lo que les permite tomar decisiones más informadas.

  • Agentes basados en objetivos: Se esfuerzan por alcanzar un objetivo específico, planificando secuencias de acciones.

  • Agentes basados en utilidades: Evalúan múltiples acciones posibles y eligen la que maximiza una función de utilidad.

  • Agentes de aprendizaje: Pueden mejorar su rendimiento con el tiempo aprendiendo de la experiencia.

  • Sistemas multiagente: Involucran la colaboración de múltiples agentes para resolver problemas complejos.

Entre estos, los agentes de aprendizaje son particularmente relevantes para entornos dinámicos y complejos. Operan con una base de conocimientos inicial, interactúan con su entorno, reciben retroalimentación y adaptan continuamente sus estrategias. Sin embargo, su potencial completo a menudo se ve limitado por la necesidad de grandes conjuntos de datos y una considerable complejidad computacional.

Aplicaciones en el Mundo Real: Un Panorama en Expansión

A pesar de sus desafíos actuales, los agentes de IA ya están encontrando aplicaciones en diversos campos. Automation Anywhere, por ejemplo, ofrece su AI Agent Studio, diseñado para la creación y gestión de agentes de IA personalizados con herramientas de bajo código, incorporando la generación aumentada por recuperación (RAG) para mejorar la toma de decisiones basada en datos empresariales.

En la investigación científica, la IA, incluyendo los agentes, está facilitando la búsqueda de información, el análisis de grandes conjuntos de datos y la generación de hipótesisiv. Herramientas como Elicit.org ayudan a los investigadores a realizar revisiones bibliográficas especializadas y a generar ideas para preguntas de investigación.

En el servicio al cliente, los chatbots de IA impulsados por modelos de lenguaje actúan como agentes rudimentarios, capaces de responder preguntas y automatizar interacciones. Plataformas como Chatbase y DocsBotAI permiten a las empresas crear chatbots personalizados entrenados con sus propios datos.

Sin embargo, es crucial reconocer que la implementación exitosa de agentes de IA requiere una definición clara de los objetivos del proyecto, la elección de la plataforma tecnológica adecuada, la obtención y preparación de datos de alta calidad, un entrenamiento riguroso y una supervisión continua.

Navegando la Delgada Línea Ética

A medida que los agentes de IA se vuelven más sofisticados y autónomos, las consideraciones éticas se vuelven primordiales. Los sesgos en los datos de entrenamiento pueden llevar a decisiones discriminatorias. La falta de transparencia en el funcionamiento de los algoritmos puede erosionar la confianza. Y la ausencia de una supervisión humana adecuada en decisiones críticas plantea riesgos significativosv.

Es fundamental abordar estas cuestiones de manera proactiva, asegurando que los datos de entrenamiento sean diversos y representativos, desarrollando modelos de IA explicable (XAI) que permitan a los usuarios comprender cómo se toman las decisiones, y manteniendo un nivel adecuado de supervisión humana en aplicaciones sensibles. En la investigación científica, el uso ético de la IA implica también considerar la privacidad de los datos, la propiedad intelectual y el potencial de usos indebidos.

El Camino Hacia la Confianza: Evaluación, Ingeniería y Ética

Para que los agentes de IA alcancen su verdadero potencial, necesitamos un enfoque multifacético que aborde los desafíos que Kapoor y otros han señalado. Esto implica:

  • Desarrollar metodologías de evaluación más rigurosas y realistas que vayan más allá de los benchmarks estáticos y capturen la adaptabilidad y la resiliencia de los agentes en entornos complejos.

  • Adoptar principios de ingeniería de la confiabilidad para diseñar sistemas de IA robustos que puedan operar de manera fiable a pesar de la naturaleza estocástica de los modelos subyacentes.

  • Priorizar las consideraciones éticas en todas las etapas del desarrollo e implementación de agentes de IA, garantizando la transparencia, la equidad y la rendición de cuentas.

  • Fomentar la colaboración y el intercambio de conocimientos dentro de la comunidad de la IA, incluyendo la revisión por pares abierta de investigaciones y el desarrollo de código abierto. La revisión por pares, tanto en el ámbito académico como en el desarrollo de softwarevi, juega un papel crucial en la identificación de errores y la mejora de la calidad del trabajo.

El camino hacia agentes de IA confiables y verdaderamente útiles está lleno de desafíos. Pero al reconocer las limitaciones actuales, invertir en metodologías de evaluación rigurosas, adoptar principios de ingeniería de la confiabilidad y mantener un firme compromiso con la ética, podemos transformar la promesa de la inteligencia descentralizada en una realidad impactante. El futuro de la IA no reside sólo en construir modelos más inteligentes, sino en construir sistemas más confiables.

Referencias

i https://youtu.be/d5EltXhbcfA?list=TLGGB6ACLa1lQLsyMjA0MjAyNQ

ii https://www.automationanywhere.com/la/company/blog/automation-ai/exploring-ai-agents-types-capabilities-and-real-world-applications

iii https://www.ibm.com/mx-es/topics/site-reliability-engineering

iv https://dialnet.unirioja.es/descarga/articulo/9788636.pdf

v https://koud.mx/es-confiable-la-ia-rompiendo-tabues-sobre-su-fiabilidad/

vi https://es.wikipedia.org/wiki/Revisi%C3%B3n_por_pares

0
Subscribe to my newsletter

Read articles from Roberto Andrade Fonseca directly inside your inbox. Subscribe to the newsletter, and don't miss out.

Written by

Roberto Andrade Fonseca
Roberto Andrade Fonseca