Multi-agentes Inteligentes: el futuro ya ha llegado

En mi entrada anterior en este blog De HAL a ChatGPT: La IA y el sueño de crear inteligencia (y II) se citaron los multi-agentes inteligentes como la tecnología que iba a revolucionar (aún más si cabe) el futuro inmediato de numerosas actividades humanas. Vamos en esta entrada a profundizar más en este concepto, poniendo ejemplos claros sobre qué tareas podría realizar un multi-agente.  

Antes de explicar cómo funcionan los multi-agentes vamos a referirnos al concepto de un solo agente inteligente describiendo tres ejemplos:

El primer ejemplo serían los termostatos inteligentes que, aunque en apariencia son simples, cumplen perfectamente con la definición de agente AI. Sus componentes son:

– Objetivo: maximizar el confort de los habitantes mientras se minimiza el coste de la energía necesaria. Estos dos objetivos a menudo están en conflicto, y la «inteligencia» del agente reside en cómo los equilibra.

– Sensores: temperatura, humedad, movimiento, luz, conexión a internet que le proporciona pronóstico del tiempo, precio de la electricidad, localización del móvil del usuario para saber si vuelve a casa, reconocimiento de voz.

– Actuadores: enciende o apaga calefacción/aire acondicionado/ventilador/persianas.

Si el termostato se limita a fijar los actuadores en función de una petición del usuario, es un agente programable pero “tonto”. La diferencia surge cuando los termostatos “aprenden” las preferencias del usuario y las programa automáticamente o cuando construyen un modelo termodinámico de la casa en función del calendario, de la predicción meteorológica, del precio de la electricidad, de cuánto tiempo se tarda en calentar o enfriar el espacio o cuándo hay más o menos personas en la estancia. Podemos observar que el agente soporta cierto nivel de “inteligencia” aunque para ello no le es necesario ningún modelo de lenguaje LLM.

El segundo ejemplo la siguiente generación de buscadores de internet como Perplexity AI que, aunque tiene apariencia de un LLM más, su base de conocimiento no está “congelada” en el tiempo sino que su entorno es la totalidad de internet. ¿Qué lo diferencia del buscador Google en su versión clásica? La capacidad de razonamiento ya que Perplexity descompone la pregunta entendiendo el contexto temporal, el tema específico y si la pregunta qué se ha hecho sobre ese tema. A continuación el agente planifica distintas búsquedas, lee y analiza el contenido de las páginas más relevantes, sintetiza la información y cita las fuentes en las que basa su respuesta. Por supuesto Google ya incorpora ahora en sus resultados “Vistas IA”, pero en muy breve plazo va a disponer de su ModoIA (ya disponible en Estados Unidos), qué directamente sustituirá la tradicional lista de enlaces por respuestas creadas por un agente.

El tercer ejemplo son las herramientas de gestión de contenidos como NotebookLM, un asistente de investigación, útil para estudiantes, profesores o investigadores. Estos agentes son capaces de resumir y extraer información de diversas fuentes (incluso te ayuda a buscarlas). El resultado puede tener diferentes formatos: texto, audio, vídeo, mapas mentales, tarjetas didácticas e incluso cuestionarios. Lógicamente NotebookLM sí usa LLMs para interactuar mediante texto, pero sigue siendo un solo agente, ya que no hay colaboración ni negociación y el flujo de trabajo es lineal.

Este tercer ejemplo nos va a servir para introducir un sistema multi-agente: el bufete “sin abogados”. Imaginemos algo similar a NotebookLM que actúa como un abogado super rápido en lectura y escritura: capaz de leer decenas de expedientes en minutos, encontrando conexiones entre ellos, hábil para responder preguntas sobre los documentos y de elaborar resúmenes en texto o audio. Es muy eficiente pero es un solo “ladrillo en el muro”.

Supongamos ahora que tenemos distintos agentes AI actuando como abogados: uno para buscar y guardar sentencias y jurisprudencia propias del bufete o públicas, otro que busca antecedentes de casos similares en el repositorio anterior, otro que busca estrategias y analiza argumentos posibles y un último agente que estima las probabilidades de éxito de las distintas líneas de defensa o ataque dependiendo del tribunal o la tendencia jurisprudencial. Finalmente podríamos tener un agente financiero que calibrara el coste que tendría la estrategia prevista, y por tanto, aportar información sobre la minuta que debería pagar el cliente. Con todos estos agentes IA colaborando,  los abogados “humanos” encuentran un sistema de ayuda a la toma de decisiones que facilitaría enormemente su día a día.

¿Cuáles son las tecnologías hacen falta para implementar este Bufete-AI?

Lógicamente la respuesta dependerá mucho de las prestaciones que queramos tenga el asistente pero el mínimo serían los siguientes:

– Una base de datos documental para los casos judiciales previos del bufete y otra con la contabilidad analítica de los costes históricos.

– Framework para orquestar los distintos agentes: debe permitir encadenar llamadas a los LLM, interactuar con las bases de datos y definir herramientas para los agentes. Ejemplos de estas herramientas son CrewAI, LangGraph o AutoGen.

– Web Scraping para buscar información en portales judiciales y descargarse sentencias de forma automática y periódica. Herramientas como Firecrawl son un agente AI en sí mismo.

– Modelos LLM, como los modelos GPT de OpenAi o Gemini de Google. En el caso de un bufete donde la privacidad debe ser un objetivo de primer orden, se debe recurrir a modelos de código abierto como Llama o DeepSeek que se pueden instalar en local, aunque para su ejecución entonces se necesitará una potente infraestructura hardware con GPUs.

– APIs para comunicación entre los distintos agentes. Una API REST es un conjunto de reglas y un punto de contacto para que un programa se comunique con otro. Herramientas como FastAPO o Flask son frameworks de Python para construir estas APIs

– Comunicación asíncrona, para desacoplar los agentes, esto es, el agente que busca en vez de darle directamente los resultados al agente analista, los publica en un canal y el agente analista los recoge cuando los necesite. Herramientas como Kafka resuelven problemas de desacoplamiento espacial o temporal de datos entre programas.

Finalmente vamos a exponer un caso de un sistema multi-agente AI que simula escenarios de comportamientos sociales. El pasado octubre se publicó un estudio por dos investigadores de la Universidad de Stanford (https://arxiv.org/abs/2510.06105) que analizó tres entornos simulados que representan mercados que compiten por el favor del público: ventas, elecciones y redes sociales. Para ello se construyen dos tipos de multi-agentes. Los primeros son programados para que generen mensajes (lanzamientos de productos en venta, declaraciones de políticos en campaña o publicaciones en redes sociales) que sean convincentes y explícitamente se les remarca que sean veraces y fundamentados. Como contexto para que los mensajes cumplan lo pedido se le proporciona descripciones de productos de Amazon Reviews, biografías de candidatos en las elecciones y artículos de noticias de medios de comunicación. Por otro lado, un segundo conjunto de agentes simula personas que deben elegir los mensajes que más le gustan. El modelo recoge los mensajes con más valoraciones positivas  que se introducen como señal de reentrenamiento y se maximiza el número de los mensajes que son puntuados de forma positiva. El sistema evoluciona libre y se miden los cambios en los mensajes al comienzo y al final de la simulación.

Los resultados demuestran que si bien se consiguió un aumento de la tasa de mensajes positivos, el sistema generador de mensajes evolucionó hacia incluir bulos, distorsionando cifras que no estaban en las noticias, mensajes políticos populistas o la promoción de la violencia. Como señalan los autores: “Cuando pones a varios modelos de IA a competir por un recurso (como la atención del usuario o una buena puntuación), empiezan a comportarse de forma deshonesta (mienten, exageran, inventan), incluso si les habías programado una regla fundamental para que siempre dijeran la verdad. Esto es un gran problema si vamos a usarlos para tareas como el marketing o el periodismo, donde la veracidad es crucial.”

La conclusión es clara, la Inteligencia Artificial trata de imitar a la Inteligencia Humana, al menos, en la parte menos buena.

 

Nota: Todas las imágenes que ilustran esta entrada han sido realizados por las AI Gemini o chatGPT.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

[wpcode id="23736"]

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información. ACEPTAR

Aviso de cookies