AgenticSeek : un assistant IA pour l'automatisation des tâches qui fonctionne entièrement localement
Introduction générale
AgenticSeek est un assistant d'intelligence artificielle open source qui fonctionne de manière totalement native, basé sur le système de gestion de l'information de l'entreprise. Deepseek Développement du modèle R1. Il ne nécessite pas d'API dans le nuage et n'entraîne pas de frais mensuels de plusieurs centaines de dollars. Son objectif est de devenir un assistant intelligent similaire au film "Jarvis", capable d'effectuer des tâches telles que l'écriture de code, la gestion de fichiers, la navigation sur le web, etc. sur l'ordinateur de l'utilisateur, tout en garantissant la confidentialité des données. Développeurs Martin. Legrand l'a positionné comme Manus Une alternative locale à l'IA, avec un accent sur 100% fonctionnant localement. En mars 2025, il y a 181 étoiles et 16 forks sur GitHub, et la communauté continue d'être active et d'accueillir des contributeurs.

Liste des fonctions
- Opération entièrement localeLes données sont stockées dans l'appareil de l'utilisateur et il n'y a pas de fuite de données.
- interaction vocaleLe système de commande vocale : il prend en charge les commandes et les réponses vocales afin d'améliorer le confort d'utilisation.
- fonctionnement du système de fichiersBash : Parcourir et travailler avec des fichiers locaux via Bash.
- Rédaction de code et débogageLes logiciels d'aide à la décision : La génération de code et la correction de bogues pour Python, C, Golang, et bien d'autres.
- correction autonome des erreursLorsqu'une commande échoue ou qu'une erreur de code est rencontrée, l'IA réessaie automatiquement et corrige la situation.
- Tâches intelligentesLe module de fonction : sélectionne automatiquement le module de fonction approprié en fonction du type de tâche à effectuer.
- Collaboration multi-agentsLes tâches complexes peuvent être divisées, planifiées et exécutées par plusieurs agents.
- Soutien aux outilsRecherche intégrée, exploration de fichiers et autres utilitaires.
- fonction mémoireLes services d'aide à la décision : préserver l'historique du dialogue et les préférences de l'utilisateur, et prendre en charge les échanges contextuels de longue durée.
- navigateur webIl est capable de naviguer sur des pages web et d'extraire des informations par lui-même.
Utiliser l'aide
L'installation et l'utilisation d'AgenticSeek nécessitent quelques connaissances techniques, mais les étapes sont claires. Vous trouverez ci-dessous un guide détaillé qui vous permettra de démarrer rapidement.
Processus d'installation
- Préparation de l'environnement
- Assurez-vous que votre ordinateur supporte Python 3, qu'il dispose d'au moins 8 Go de RAM et que votre GPU a besoin de plus de 8 Go de mémoire vidéo (12 Go sont recommandés pour les modèles 14B).
- Installer Git pour télécharger le code.
- Télécharger et installer Ollama (outil d'exécution de modèles locaux), qui est une dépendance essentielle. Visiter le site Ollama Site officiel Obtenez-le.
- Télécharger AgenticSeek
- Ouvrez un terminal (CMD ou PowerShell pour Windows, Terminal pour Mac/Linux).
- Entrez la commande cloner le projet :
git clone https://github.com/Fosowl/agenticSeek.git
- Accédez au catalogue de projets :
cd agenticSeek
- Créer un environnement virtuel
- Entrez la commande pour créer un environnement autonome :
python3 -m venv agentic_seek_env
- Activer l'environnement :
- Fenêtres :
agentic_seek_env\Scripts\activate
- Mac/Linux :
source agentic_seek_env/bin/activate
- Fenêtres :
- Entrez la commande pour créer un environnement autonome :
- Installation des dépendances
- Après avoir activé l'environnement, exécutez-le :
pip install -r requirements.txt
- Ou utilisez un script d'installation automatique (Mac/Linux) :
./install.sh
- Après avoir activé l'environnement, exécutez-le :
- Configurer et télécharger des modèles
- Assurez-vous qu'Ollama est installé et démarrez le service :
ollama serve
- téléchargement Deepseek R1 (14B recommandé, 7B pour les appareils à faible configuration) :
ollama pull deepseek-r1:14b
- compilateur
config.ini
, configuré pour fonctionner localement :[MAIN] is_local = True provider_name = ollama provider_model = deepseek-r1:14b
- Assurez-vous qu'Ollama est installé et démarrez le service :
- Démarrer AgenticSeek
- Entrée :
python main.py
- L'apparition d'une invite dans le terminal signifie que l'opération s'est déroulée avec succès.
- Entrée :
Fonction Opération Déroulement
interaction vocale
- Méthode d'ouverture: en
config.ini
mettre en placespeak = True
répondre en chantantlisten = True
. - utiliserMode vocal : Dites "Démarrer le mode vocal" lorsque vous le démarrez, puis posez des questions avec votre voix, telles que "Écrivez du code pour moi".
- pointL'IA répondra par la voix, en s'assurant que le microphone et les haut-parleurs fonctionnent.
- prendre noteLe volume peut devoir être ajusté pour la première fois, et il peut y avoir un délai sur les appareils bas de gamme.
fonctionnement du système de fichiers
- Mise en place du catalogue: en
config.ini
spécifié danswork_dir
par exemple/Users/你的用户名/文档
. - utiliserL'AI vous renverra les résultats de la recherche.
- Fonctionnalités avancéesIl dit "analyser le contenu de ce fichier" et il extrait les informations clés.
- finesseLes commandes Bash telles que "créer un nouveau dossier" sont prises en charge.
Rédaction de code et débogage
- mode opératoireL'IA génère du code : tapez "Écrire un algorithme de tri en Python" et l'IA génère du code.
- ajuster les composants pendant les essaisSi le code contient une erreur, dites "corrigez cette erreur" et l'IA l'analysera et le modifiera.
- Langues prises en charge: Comprend actuellement Python, C, Golang, et sera élargi ultérieurement.
navigateur web
- utiliserL'IA se chargera de naviguer sur la page et de rassembler les informations.
- contrainteActuellement, seul le texte est extrait, l'analyse d'images ou de vidéos n'est pas prise en charge.
- finesseVous pouvez spécifier des mots-clés, tels que "Rechercher les mises à jour de Deepseek R1".
correction autonome des erreurs
- mode opératoireLa commande ne nécessite pas de paramètres particuliers. Si la commande échoue, l'IA tente automatiquement de la réparer.
- exemple typiqueSi vous entrez la mauvaise commande "ouvrir le fichier X", AI vous indiquera que le fichier n'existe pas et vous proposera une alternative.
Fonctionnement à distance (en option)
- prendreSi l'équipement local n'est pas suffisamment performant, un serveur peut être utilisé pour exécuter le modèle.
- déplacer: :
- Démarrer Ollama sur le serveur et obtenir l'IP (ex.
192.168.1.100
). - Exécutez le script du serveur :
python server_ollama.py
- modification locale
config.ini
: :[MAIN] is_local = False provider_name = server provider_model = deepseek-r1:14b provider_server_address = 192.168.1.100:5000
- Exécution locale :
python main.py
- Démarrer Ollama sur le serveur et obtenir l'IP (ex.
mise en garde
- exigences en matière de matérielLes modèles 7B nécessitent 8 Go de mémoire vidéo, les modèles 14B 12 Go (par exemple RTX 3060) et les modèles 32B 24 Go et plus.
- ajuster les composants pendant les essaisSi le démarrage échoue, vérifiez qu'Ollama est en cours d'exécution ou consultez le journal des erreurs du terminal.
- mise à jourFonctionnement régulier
git pull
Obtenez les dernières fonctionnalités. - licenceLe projet est open source et libre sous la licence GPL-3.0.
scénario d'application
- Aides à la programmation
AgenticSeek génère du code, corrige les erreurs et explique les détails du code. - Gestion des documents
Les fichiers informatiques sont encombrés. Après avoir créé un répertoire, AI peut répertorier les fichiers, en extraire le contenu et même effectuer des opérations par lots. - Soutien à l'apprentissage
Les étudiants peuvent l'utiliser pour analyser des documents, rechercher des informations et prendre des notes grâce à l'interaction vocale afin d'améliorer leur efficacité. - Mandat de protection de la vie privée
AgenticSeek fonctionne localement sans connexion Internet pour garantir la sécurité des informations lors du traitement de données sensibles.
QA
- Est-il vrai que 100% fonctionne localement ?
Oui, lorsqu'on utilise Ollama ou le mode serveur, tous les traitements sont locaux, et les options non locales (comme OpenAI) ne sont qu'optionnelles. - Que se passe-t-il si je n'ai pas assez de matériel ?
Utilisez le modèle 7B ou exécutez un modèle supérieur par l'intermédiaire d'un serveur distant. - Que se passe-t-il en cas de problème ?
Assurez-vous qu'Ollama fonctionne, vérifiezconfig.ini
configuration. Si l'échec persiste, vous pouvez déposer un problème sur GitHub. - Qu'y a-t-il de mieux que Manus AI ?
Il se concentre sur le fonctionnement local et la protection de la vie privée pour ceux qui ne veulent pas utiliser les services en nuage.
© déclaration de droits d'auteur
Article copyright Cercle de partage de l'IA Tous, prière de ne pas reproduire sans autorisation.
Articles connexes
Pas de commentaires...