Descrição do GOAT.AI - Task to AI Agents
Orquestração orientada a objetivos de tarefas do agente. Basicamente, os Agentes de IA se comunicarão entre si para executar sua tarefa.
Exemplo: “escolha o melhor dia do próximo mês para uma semimaratona de 20 km”. A IA começará a colaborar: o agente meteorológico recupera as previsões, o agente de pesquisa na Web identifica as condições ideais de funcionamento e o agente Wolfram calcula o “melhor dia”. É a arte da IA conectada, simplificando tarefas complexas com sofisticação.
LLMs como mainframe central para agentes autônomos é um conceito intrigante. Demonstrações como AutoGPT, GPT-Engineer e BabyAGI servem como ilustrações simples dessa ideia. O potencial dos LLMs vai além de gerar ou completar cópias, histórias, ensaios e programas bem escritos; eles podem ser enquadrados como poderosos Solucionadores de Tarefas Gerais, e é isso que pretendemos alcançar na construção da Orquestração Orientada a Objetivos da Força-Tarefa de Agentes (GOAT.AI).
Para que uma orquestração orientada a objetivos de um sistema de força-tarefa de agente LLM exista e funcione adequadamente, três componentes principais do sistema devem funcionar corretamente
- Visão geral
1) Planejamento
- Submeta e decomposição: O agente divide tarefas grandes em submetas menores e gerenciáveis, facilitando o gerenciamento eficiente de tarefas complexas.
- Reflexão e refinamento: O agente realiza autocrítica e autorreflexão sobre ações passadas, aprende com os erros e melhora abordagens para etapas futuras, melhorando assim a qualidade geral dos resultados.
2) Memória
- Memória de curto prazo: Refere-se à quantidade de texto que o modelo pode processar antes de responder sem qualquer degradação na qualidade. No estado atual, os LLMs podem fornecer respostas sem qualquer diminuição na qualidade para aproximadamente 128 mil tokens.
- Memória de longo prazo: permite ao agente armazenar e recuperar uma quantidade ilimitada de informações para o contexto durante longos períodos. Muitas vezes isso é conseguido usando um armazenamento de vetores externo para sistemas RAG eficientes.
3) Espaço de Ação
- O agente adquire a capacidade de chamar APIs externas para obter informações adicionais que não estão disponíveis nos pesos do modelo (que muitas vezes são difíceis de modificar após o pré-treinamento). Isso inclui acessar informações atuais, executar código, acessar fontes de informações proprietárias e, o mais importante: invocar outros agentes para recuperação de informações.
- O espaço de ação também abrange ações que não visam recuperar algo, mas envolvem a realização de ações específicas e a obtenção do resultado resultante. Exemplos de tais ações incluem o envio de e-mails, o lançamento de aplicativos, a abertura de portas de entrada e muito mais. Essas ações normalmente são executadas por meio de várias APIs. Além disso, é importante observar que os agentes também podem invocar outros agentes para eventos acionáveis aos quais tenham acesso.
Exemplo: “escolha o melhor dia do próximo mês para uma semimaratona de 20 km”. A IA começará a colaborar: o agente meteorológico recupera as previsões, o agente de pesquisa na Web identifica as condições ideais de funcionamento e o agente Wolfram calcula o “melhor dia”. É a arte da IA conectada, simplificando tarefas complexas com sofisticação.
LLMs como mainframe central para agentes autônomos é um conceito intrigante. Demonstrações como AutoGPT, GPT-Engineer e BabyAGI servem como ilustrações simples dessa ideia. O potencial dos LLMs vai além de gerar ou completar cópias, histórias, ensaios e programas bem escritos; eles podem ser enquadrados como poderosos Solucionadores de Tarefas Gerais, e é isso que pretendemos alcançar na construção da Orquestração Orientada a Objetivos da Força-Tarefa de Agentes (GOAT.AI).
Para que uma orquestração orientada a objetivos de um sistema de força-tarefa de agente LLM exista e funcione adequadamente, três componentes principais do sistema devem funcionar corretamente
- Visão geral
1) Planejamento
- Submeta e decomposição: O agente divide tarefas grandes em submetas menores e gerenciáveis, facilitando o gerenciamento eficiente de tarefas complexas.
- Reflexão e refinamento: O agente realiza autocrítica e autorreflexão sobre ações passadas, aprende com os erros e melhora abordagens para etapas futuras, melhorando assim a qualidade geral dos resultados.
2) Memória
- Memória de curto prazo: Refere-se à quantidade de texto que o modelo pode processar antes de responder sem qualquer degradação na qualidade. No estado atual, os LLMs podem fornecer respostas sem qualquer diminuição na qualidade para aproximadamente 128 mil tokens.
- Memória de longo prazo: permite ao agente armazenar e recuperar uma quantidade ilimitada de informações para o contexto durante longos períodos. Muitas vezes isso é conseguido usando um armazenamento de vetores externo para sistemas RAG eficientes.
3) Espaço de Ação
- O agente adquire a capacidade de chamar APIs externas para obter informações adicionais que não estão disponíveis nos pesos do modelo (que muitas vezes são difíceis de modificar após o pré-treinamento). Isso inclui acessar informações atuais, executar código, acessar fontes de informações proprietárias e, o mais importante: invocar outros agentes para recuperação de informações.
- O espaço de ação também abrange ações que não visam recuperar algo, mas envolvem a realização de ações específicas e a obtenção do resultado resultante. Exemplos de tais ações incluem o envio de e-mails, o lançamento de aplicativos, a abertura de portas de entrada e muito mais. Essas ações normalmente são executadas por meio de várias APIs. Além disso, é importante observar que os agentes também podem invocar outros agentes para eventos acionáveis aos quais tenham acesso.
Mostrar