Introdução geral
O AgenticSeek é um assistente de IA de código aberto que é executado de forma totalmente nativa, com base no Deepseek Desenvolvimento do modelo R1. Ele não exige uma API de nuvem nem incorre em centenas de dólares em taxas mensais. Seu objetivo é se tornar um assistente inteligente semelhante ao filme "Jarvis", capaz de executar tarefas como gravação de código, gerenciamento de arquivos, navegação na Web etc. no computador do usuário, garantindo a privacidade dos dados. Desenvolvedores Martin. A Legrand o posicionou como Manus Uma alternativa local à IA, com ênfase no 100% executado localmente. Em março de 2025, havia 181 estrelas e 16 bifurcações no GitHub, e a comunidade continua ativa e recebe colaboradores.
Lista de funções
- Operação totalmente localNão é necessária conexão com a Internet, todos os cálculos são feitos no dispositivo do usuário e não há vazamento de dados.
- interação por vozSuporte a comandos de entrada de voz e respostas de voz para aumentar a conveniência operacional.
- operação do sistema de arquivosNavegue e trabalhe com arquivos locais via Bash.
- Redação e depuração de códigoGeração de código e suporte à correção de erros para Python, C, Golang e outros.
- correção autônoma de errosQuando um comando falha ou um erro de código é encontrado, a IA tenta novamente e o corrige automaticamente.
- Tarefas inteligentesMódulo de função: seleciona automaticamente o módulo de função apropriado com base no tipo de tarefa.
- Colaboração com vários agentesTarefas complexas podem ser divididas, planejadas e executadas por vários agentes.
- Suporte a ferramentasPesquisa integrada, exploração de arquivos e outros utilitários.
- função de memóriaPreservação do histórico de diálogos e das preferências do usuário e suporte a longas trocas contextuais.
- navegador da webCapacidade de navegar em páginas da Web e extrair informações por conta própria.
Usando a Ajuda
A instalação e o uso do AgenticSeek requerem algum conhecimento técnico, mas as etapas são claras. Abaixo está um guia detalhado para garantir que você comece rapidamente.
Processo de instalação
- Preparação ambiental
- Certifique-se de que seu computador seja compatível com Python 3, que pelo menos 8 GB de RAM sejam recomendados e que sua GPU precise de mais de 8 GB de memória de vídeo (recomenda-se 12 GB para os modelos 14B).
- Instale o Git para fazer download do código.
- Baixe e instale o Ollama (ferramenta de execução de modelo local), que é uma dependência essencial. Visite o site Ollama Site oficial Obter.
- Baixar o AgenticSeek
- Abra um terminal (CMD ou PowerShell para Windows, Terminal para Mac/Linux).
- Digite o comando clone project:
git clone https://github.com/Fosowl/agenticSeek.git
- Vá para o catálogo de projetos:
cd agenticSeek
- Criação de um ambiente virtual
- Digite o comando para criar um ambiente autônomo:
python3 -m venv agentic_seek_env
- Ativar o ambiente:
- Windows:
agentic_seek_env\Scripts\activate
- Mac/Linux:
fonte agentic_seek_env/bin/activate
- Windows:
- Digite o comando para criar um ambiente autônomo:
- Instalação de dependências
- Depois de ativar o ambiente, execute-o:
pip install -r requirements.txt
- Ou use um script de instalação automatizado (Mac/Linux):
. /install.sh
- Depois de ativar o ambiente, execute-o:
- Configurar e fazer download de modelos
- Certifique-se de que o Ollama esteja instalado e inicie o serviço:
ollama serve
- download Deepseek R1 (14B recomendado, 7B para dispositivos de baixa configuração):
ollama pull deepseek-r1:14b
- compilador
config.ini
configurado para ser executado localmente:[MAIN] is_local = True nome_do_fornecedor = ollama provider_model = deepseek-r1:14b
- Certifique-se de que o Ollama esteja instalado e inicie o serviço:
- Iniciar o AgenticSeek
- Entrada:
python main.py
- A exibição de um prompt de terminal significa que a execução foi bem-sucedida.
- Entrada:
Função Fluxo de operação
interação por voz
- Método de abertura: em
config.ini
configurarfalar = Verdadeiro
responder cantandolisten = True
. - fazer uso deModo de voz: Diga "Start Voice Mode" ao iniciá-lo e faça perguntas com sua voz, como "Write code for me".
- pontoResposta: A IA responderá por voz, certificando-se de que o microfone e os alto-falantes estejam funcionando.
- tomar nota deVolume: O volume pode precisar ser ajustado pela primeira vez, e pode haver um atraso em dispositivos de baixo custo.
operação do sistema de arquivos
- Configuração do catálogo: em
config.ini
especificado emdiretório_de_trabalho
Por exemplo/Usuários/Seu nome de usuário/Documentos
. - fazer uso deDigite "List all text files" e o AI retornará os resultados.
- Recursos avançadosO sistema diz "analyse the contents of this file" (analisar o conteúdo deste arquivo) e extrairá as principais informações.
- delicadezaComandos do Bash, como "criar nova pasta", são suportados.
Redação e depuração de código
- método operacionalDigite "Write a Python sorting algorithm" (Escreva um algoritmo de classificação em Python) e a IA gerará o código.
- ajustar os componentes durante o testeSe houver um erro no código, diga "fix this error" e a IA analisará e modificará o código.
- Idiomas suportadosInclui atualmente Python, C, Golang e será expandido posteriormente.
navegador da web
- fazer uso deDigite "Find the latest AI news" e a IA navegará pela página e coletará as informações.
- restriçãoNo momento, somente o texto é extraído; não há suporte para análise de imagens ou vídeos.
- delicadezaVocê pode especificar palavras-chave, como "Search for Deepseek R1 updates".
correção autônoma de erros
- método operacionalNão são necessárias configurações especiais. Se o comando falhar, a IA tentará repará-lo automaticamente.
- exemplo típicoSe você digitar o comando errado "Abrir arquivo X", o AI indicará que o arquivo não existe e sugerirá uma alternativa.
Operação remota (opcional)
- tomarSe o desempenho do equipamento local for insuficiente, um servidor poderá ser usado para executar o modelo.
- mover::
- Inicie o Ollama no servidor e obtenha o IP (por exemplo
192.168.1.100
). - Execute o script do servidor:
python server_ollama.py
- modificação local
config.ini
::[MAIN] is_local = False nome_do_fornecedor = servidor provider_model = deepseek-r1:14b provider_server_address = 192.168.1.100:5000
- Executado localmente:
python main.py
- Inicie o Ollama no servidor e obtenha o IP (por exemplo
advertência
- Requisitos de hardwareOs modelos 7B requerem 8 GB de memória de vídeo, 14B requerem 12 GB (por exemplo, RTX 3060) e 32B requerem mais de 24 GB.
- ajustar os componentes durante o testeSe a inicialização falhar, verifique se o Ollama está em execução ou verifique o registro de erros do terminal.
- atualizaçãoOperação regular
git pull
Obtenha os recursos mais recentes. - licençaO projeto é de código aberto e gratuito sob a GPL-3.0.
cenário do aplicativo
- Auxiliares de programação
O AgenticSeek gera código e corrige erros, além de explicar os detalhes do código. - Gerenciamento de documentos
Os arquivos do computador são desordenados. Depois de configurar um diretório, o AI pode listar arquivos, extrair conteúdo e até mesmo executar operações em lote. - Apoio à aprendizagem
Os alunos podem usá-lo para analisar documentos, pesquisar informações e fazer anotações por meio de interação de voz para aumentar a eficiência. - Mandato de privacidade
O AgenticSeek é executado localmente sem uma conexão com a Internet para garantir a segurança das informações ao lidar com dados confidenciais.
QA
- É realmente o 100% que está sendo executado localmente?
Sim, ao usar o Ollama ou o modo Servidor, todo o processamento é local, e as opções não locais (como o OpenAI) são apenas opcionais. - E se eu não tiver hardware suficiente?
Use o modelo 7B ou execute um modelo superior em um servidor remoto. - E se algo der errado?
Certifique-se de que o Ollama esteja em execução, verifiqueconfig.ini
configuração. Se ainda assim falhar, você pode registrar um problema no GitHub. - O que é melhor do que a Manus AI?
Ele se concentra na operação local e na proteção da privacidade para aqueles que não querem usar serviços em nuvem.