Aprendizagem pessoal com IA
e orientação prática
Beanbag Marscode1

Archon: uma estrutura de desenvolvimento para criar e otimizar inteligências de IA de forma autônoma

Introdução geral

O Archon é o primeiro projeto "Agenteer" do mundo criado pelo desenvolvedor Cole Medin (nome de usuário do GitHub coleam00) - uma estrutura de código aberto focada na criação, otimização e iteração autônomas de inteligências de IA. É uma estrutura de código aberto que se concentra na criação autônoma e na iteração de inteligências de IA. É uma ferramenta prática para desenvolvedores e uma plataforma educacional para demonstrar a evolução dos sistemas corporais inteligentes. O Archon, atualmente na versão V4, usa uma interface de usuário Streamlit totalmente otimizada para fornecer uma interface de gerenciamento intuitiva. Desenvolvido em Python, o projeto integra tecnologias como Pydantic AI, LangGraph e Supabase para evoluir da simples geração de inteligência para a colaboração complexa do fluxo de trabalho. O Archon demonstra os três princípios do desenvolvimento moderno de IA: raciocínio inteligente, incorporação de conhecimento e arquitetura extensível por meio de planejamento, loops de feedback e integração de conhecimento de domínio.

O Archon é o que eu gosto de chamar de "parasita" de outras estruturas de desenvolvimento de inteligência: ele pode criar e otimizar outras estruturas de desenvolvimento de inteligência, mas também é uma inteligência em si.

Archon: uma estrutura de desenvolvimento para criar e otimizar inteligências de IA de forma autônoma-1

 

Lista de funções

  • Geração automática de inteligênciasGeração de códigos de corpo de inteligência de IA personalizados com base nos requisitos de entrada do usuário.
  • Rastreamento e indexação de documentosRastreamento de documentos, como o Pydantic AI, gerando embeddings de vetores e armazenando-os no Supabase.
  • Suporte ao sistema RAGUtilização de técnicas de geração aprimoradas por pesquisa para fornecer sugestões e otimizações precisas de código.
  • Gerenciamento da interface do usuário do StreamlitConfigure variáveis de ambiente, bancos de dados e serviços de corpo inteligente por meio de uma interface visual.
  • colaboração de inteligência múltiplaBaseado em LangGraph Possibilitando fluxos de trabalho coordenados para raciocínio, codificação e roteamento de tarefas.
  • Compatível com local e nuvemSuporte para APIs OpenAI, Anthropic, OpenRouter ou nativas Ollama Modelos.
  • Implantação em contêineres do DockerFornece o contêiner principal e MCP Contêineres para garantir que os ambientes de produção estejam prontos para uso imediato.
  • Integração de MCPSuporte para integração com IDEs de IA (por exemplo, Windsurf, Cursor) para gerenciar arquivos e dependências.
  • Suporte à comunidadeFornecer uma plataforma para comunicação com o usuário por meio do fórum oTTomator Think Tank.

 

Usando a Ajuda

O Archon é uma estrutura de código aberto rica em recursos, projetada para ajudar os usuários a desenvolver e gerenciar rapidamente as inteligências de IA. Aqui está um guia detalhado de instalação e uso para garantir que você possa começar facilmente.

Processo de instalação

O Archon V4 oferece suporte a dois métodos de instalação: Docker (recomendado) e instalação local do Python. Veja a seguir as etapas:

Caminho 1: instalação do Docker (recomendado)

  1. Preparação do ambiente
    • Certifique-se de que o Docker e o Git estejam instalados.
    • Obtenha uma conta do Supabase (para bancos de dados vetoriais).
    • Prepare a chave de API do OpenAI/Anthropic/OpenRouter ou execute o Ollama localmente.
  2. armazém de clones
    É executado no terminal:

    git clone https://github.com/coleam00/archon.git
    cd archon
  1. Execução de um script do Docker
    Execute o seguinte comando para criar e iniciar o contêiner:

    python run_docker.py
    
    • O script cria automaticamente dois contêineres: o contêiner principal do Archon (que executa a interface do usuário do Streamlit e os serviços do Graph) e o contêiner do MCP (que oferece suporte à integração do IDE de IA).
    • se presente .env as variáveis de ambiente serão carregadas automaticamente.
  2. interface de acesso
    Abra seu navegador e acesse http://localhost:8501Para fazer isso, acesse a interface do usuário do Streamlit.

Maneira 2: instalação local do Python

  1. Preparação do ambiente
    • Certifique-se de que o Python 3.11+ esteja instalado.
    • Obter a conta do Supabase e a chave da API.
  2. armazém de clones
    git clone https://github.com/coleam00/archon.git
    cd archon
    
  3. Criação de um ambiente virtual e instalação de dependências
    python -m venv venv
    source venv/bin/activate # Windows: venv\Scripts\activate
    pip install -r requirements.txt
    
  4. Iniciar a interface de usuário do Streamlit
    streamlit run streamlit_ui.py
    
  5. interface de acesso
    Abra seu navegador e acesse http://localhost:8501.

Configuração da variável de ambiente

Na primeira vez que você executar o Docker ou uma instalação local, será necessário configurar as variáveis de ambiente. Crie uma variável .env com exemplos de conteúdo:

OPENAI_API_KEY=sua_openai_api_key
SUPABASE_URL=seu_supabase_url
SUPABASE_SERVICE_KEY=sua_chave_supabase_service_key
PRIMARY_MODEL=gpt-4o-mini
REASONER_MODEL=o3-mini

Essas informações estão disponíveis no painel do Supabase e no provedor de API.

Função Fluxo de operação

Depois de instalada, a interface de usuário do Streamlit oferece cinco módulos funcionais principais que orientam você passo a passo na configuração e no uso.

1. ambiente

  • procedimento::
    1. Vá para a guia "Environment" (Ambiente).
    2. Digite a chave da API (por exemplo, OpenAI ou OpenRouter) e as configurações do modelo (por exemplo gpt-4o-mini).
    3. Clique em "Save" (Salvar) e a configuração será armazenada no env_vars.json.
  • tomar nota deSe estiver usando o Ollama local, é necessário certificar-se de que o serviço esteja em execução no localhost:11434O streaming da interface do usuário é compatível apenas com a OpenAI.

2. configurações do banco de dados (Database)

  • procedimento::
    1. Vá para a guia "Database" (Banco de dados).
    2. Digite o URL do Supabase e a chave de serviço.
    3. Clique em "Initialise Database" (Inicializar banco de dados) e o sistema criará automaticamente o banco de dados. páginas_do_site Tabela.
    4. Verifique o status da conexão para confirmar o sucesso.
  • estrutura da tabela::
    CREATE TABLE site_pages (
    id UUID PRIMARY KEY DEFAULT uuid_generate_v4(),
    url TEXT,
    url TEXT, chunk_number INTEGER, title TEXT, url_generate_v4(), url
    url TEXT, chunk_number INTEGER, title TEXT, summary TEXT, título da página
    summary TEXT, content TEXT, url TEXT, chunk_number INTEGER
    content TEXT, metadata JSONB, metadata TEXT, metadata TEXT
    metadados JSONB,
    embedding VECTOR(1536)
    ).
    

3. rastreamento e indexação de documentação (Documentação)

  • procedimento::
    1. Vá para a guia "Documentation" (Documentação).
    2. Digite o URL do documento de destino (por exemplo, documento Pydantic AI).
    3. Clique em "Start Crawling" (Iniciar rastreamento) e o sistema agrupará os documentos, gerará incorporações e as armazenará no Supabase.
    4. Você pode visualizar o progresso da indexação na interface do usuário quando terminar.
  • uso: para RAG O sistema fornece a base de conhecimento.

4. serviço de corpo inteligente (serviço de agente)

  • procedimento::
    1. Vá para a guia "Agent Service".
    2. Clique em Start Service para executar o fluxo de trabalho do LangGraph.
    3. Monitore o status do serviço por meio de registros.
  • funcionalidadeCoordenar o raciocínio, a codificação e o roteamento de tarefas para garantir que a lógica central da geração de inteligências funcione adequadamente.

5. criação de um corpo inteligente (Chat)

  • procedimento::
    1. Vá para a guia "Chat".
    2. Insira um requisito, como "Gerar uma inteligência que analise arquivos JSON".
    3. O sistema combina o conhecimento recuperado pelo sistema RAG para gerar códigos e exibi-los.
    4. Copie o código para ser executado localmente ou implemente-o por meio de um serviço.
  • exemplo típico::
    Entrada: "Gerar um corpo inteligente que consulte o clima em tempo real".
    Exemplo de saída:

    from pydantic_ai import Agent, OpenAIModel
    agent = Agent(OpenAIModel("gpt-4o-mini"), system_prompt="Query real-time weather")
    result = agent.run("Get today's weather in Beijing")
    print(result.data)
    

Opcional: Configuração de MCP

  • procedimento::
    1. Vá para a guia "MCP".
    2. Configure a integração com um IDE de IA, como o Cursor.
    3. Inicie o contêiner do MCP e conecte-se ao serviço do Graph.
  • usoSuporte para criação automatizada de arquivos e gerenciamento de dependências no IDE para código smartbody.

exemplo de uso

Suponha que você queira desenvolver uma "Inteligência de análise de log":

  1. No Chat, digite: "Generate a Pydantic AI intelligence that parses Nginx logs" (Gerar uma inteligência de IA Pydantic que analisa os registros do Nginx).
  2. O Archon recupera a documentação relevante e gera o código:
from pydantic_ai import Agent, OpenAIModel
agent = Agent(OpenAIModel("gpt-4o-mini"), system_prompt="Analisando os registros do Nginx")
result = agent.run("Analisando access.log e extraindo endereços IP")
print(result.data)
  1. Salve o código localmente e certifique-se de configurar a chave da API antes de executá-la.

advertência

  • Compatibilidade de modelosApenas a OpenAI oferece suporte à saída de streaming da UI do Streamlit; outros modelos (por exemplo, Ollama) oferecem suporte apenas a não streaming.
  • requisito de rede: O rastreamento de documentos e a chamada de APIs requerem uma rede estável.
  • ajustar os componentes durante o testeSe algo der errado, verifique o registro da interface do usuário ou a saída do terminal.

Com essas etapas, você pode aproveitar ao máximo a capacidade do Archon de gerar e gerenciar rapidamente as inteligências de IA, tanto para o aprendizado quanto para o desenvolvimento real.


CDN1
Não pode ser reproduzido sem permissão:Chefe do Círculo de Compartilhamento de IA " Archon: uma estrutura de desenvolvimento para criar e otimizar inteligências de IA de forma autônoma

Chefe do Círculo de Compartilhamento de IA

O Chief AI Sharing Circle se concentra no aprendizado de IA, fornecendo conteúdo abrangente de aprendizado de IA, ferramentas de IA e orientação prática. Nosso objetivo é ajudar os usuários a dominar a tecnologia de IA e explorar juntos o potencial ilimitado da IA por meio de conteúdo de alta qualidade e compartilhamento de experiências práticas. Seja você um iniciante em IA ou um especialista sênior, este é o lugar ideal para adquirir conhecimento, aprimorar suas habilidades e realizar inovações.

Entre em contato conosco
pt_BRPortuguês do Brasil