AI Personal Learning
und praktische Anleitung
Sitzsack Marscode1

AgenticSeek: ein KI-Assistent für die Automatisierung von Aufgaben, der vollständig lokal läuft

Allgemeine Einführung

AgenticSeek ist ein quelloffener KI-Assistent, der vollständig nativ läuft und auf der Deepseek R1-Modellentwicklung. Es benötigt keine Cloud-API und verursacht keine monatlichen Gebühren in Höhe von Hunderten von Dollar. Sein Ziel ist es, ein intelligenter Assistent ähnlich dem Film "Jarvis" zu werden, der in der Lage ist, Aufgaben wie das Schreiben von Code, die Dateiverwaltung, das Surfen im Internet usw. auf dem Computer des Nutzers auszuführen und dabei den Datenschutz zu gewährleisten. Entwickler Martin. Legrand positioniert es als Manus Eine lokale Alternative zu AI, mit dem Schwerpunkt auf 100%, das lokal läuft. Mit Stand vom März 2025 gibt es 181 Sterne und 16 Forks auf GitHub, und die Community ist weiterhin aktiv und begrüßt Mitwirkende.

AgenticSeek: eine vollständig lokal betriebene Manus-KI-Alternative-1


 

Funktionsliste

  • Vollständig lokaler BetriebEs ist keine Internetverbindung erforderlich, alle Berechnungen werden auf dem Gerät des Nutzers durchgeführt, und es gibt keine Datenverluste.
  • Sprach-InteraktionUnterstützt Spracheingabebefehle und Sprachantworten, um den Bedienkomfort zu erhöhen.
  • DateisystembetriebDurchsuchen und Arbeiten mit lokalen Dateien über die Bash.
  • Schreiben von Code und DebuggingCodegenerierung und Fehlerbehebung für Python, C, Golang und andere Sprachen.
  • autonome FehlerkorrekturWenn ein Befehl fehlschlägt oder ein Code-Fehler auftritt, wiederholt die KI automatisch den Versuch und behebt ihn.
  • Intelligente AufgabenverteilungAutomatisches Auswählen des passenden Funktionsmoduls je nach Art der Aufgabe.
  • Zusammenarbeit zwischen mehreren AgentenKomplexe Aufgaben können aufgeteilt, geplant und von mehreren Agenten ausgeführt werden.
  • Werkzeug-UnterstützungIntegrierte Suche, Dateisuche und andere Dienstprogramme.
  • SpeicherfunktionDialoghistorie und Benutzerpräferenzen aufbewahren und lange kontextbezogene Austauschvorgänge unterstützen.
  • WebbrowserKann auf Webseiten navigieren und selbstständig Informationen extrahieren.

 

Hilfe verwenden

Die Installation und Nutzung von AgenticSeek erfordert ein gewisses technisches Grundwissen, aber die Schritte sind klar. Im Folgenden finden Sie eine detaillierte Anleitung, damit Sie schnell loslegen können.

Ablauf der Installation

  1. Vorbereitung der Umwelt
    • Vergewissern Sie sich, dass Ihr Computer Python 3 unterstützt, dass mindestens 8 GB RAM empfohlen werden und dass Ihr Grafikprozessor mehr als 8 GB Videospeicher benötigt (12 GB werden für 14B-Modelle empfohlen).
    • Installieren Sie Git zum Herunterladen von Code.
    • Laden Sie Ollama (Tool zur Ausführung lokaler Modelle) herunter und installieren Sie es, da es eine Kernabhängigkeit darstellt. Besuchen Sie Ollama Offizielle Website Holen Sie es sich.
  2. AgenticSeek herunterladen
    • Öffnen Sie ein Terminal (CMD oder PowerShell für Windows, Terminal für Mac/Linux).
    • Geben Sie den Befehl clone project ein:
      git clone https://github.com/Fosowl/agenticSeek.git
      
    • Rufen Sie den Projektkatalog auf:
      cd agenticSeek
      
  3. Erstellen einer virtuellen Umgebung
    • Geben Sie den Befehl ein, um eine eigenständige Umgebung zu erstellen:
      python3 -m venv agentic_seek_env
      
    • Aktivieren Sie die Umwelt:
      • Fenster:
        agentic_seek_env\Scripts\aktivieren
        
      • Mac/Linux:
        Quelle agentic_seek_env/bin/activate
        
  4. Installation von Abhängigkeiten
    • Nachdem Sie die Umgebung aktiviert haben, führen Sie sie aus:
      pip install -r anforderungen.txt
      
    • Oder verwenden Sie ein automatisches Installationsskript (Mac/Linux):
      . /install.sh
      
  5. Modelle konfigurieren und herunterladen
    • Stellen Sie sicher, dass Ollama installiert ist und starten Sie den Dienst:
      ollama dienen
      
    • Herunterladen von Tiefensuche R1 Modell (14B empfohlen, 7B für Geräte mit niedriger Konfiguration):
      Ollama ziehen Tiefensuche-r1:14b
      
    • Compiler config.ini, die lokal ausgeführt werden soll:
      [MAIN]
      is_local = Wahr
      anbieter_name = ollama
      Anbieter_Modell = deepseek-r1:14b
      
  6. AgenticSeek starten
    • Eingabe:
      python main.py
      
    • Wenn eine Eingabeaufforderung angezeigt wird, bedeutet dies, dass der Vorgang erfolgreich durchgeführt wurde.

Funktion Betriebsablauf

Sprach-Interaktion

  • Methode der Öffnung: in config.ini aufstellen sprechen = Wahr im Gesang antworten listen = True.
  • ausnutzenSagen Sie beim Starten "Sprachmodus starten" und stellen Sie dann Fragen mit Ihrer Stimme, z. B. "Schreiben Sie einen Code für mich".
  • PunktDie KI antwortet per Stimme und stellt sicher, dass das Mikrofon und die Lautsprecher funktionieren.
  • zur Kenntnis nehmenEs kann sein, dass die Lautstärke zum ersten Mal eingestellt werden muss, und dass es bei Geräten mit geringerer Leistung zu einer Verzögerung kommen kann.

Dateisystembetrieb

  • Einrichten des Katalogs: in config.ini angegeben in work_dirz.B.. /Benutzer/Ihr Benutzername/Dokumente.
  • ausnutzenGeben Sie "Alle Textdateien auflisten" ein, und AI wird die Ergebnisse zurückgeben.
  • Erweiterte FunktionenEs heißt "Analysieren Sie den Inhalt dieser Datei" und extrahiert die Schlüsselinformationen.
  • FähigkeitenBash-Befehle wie z. B. "Neuen Ordner erstellen" werden unterstützt.

Schreiben von Code und Debugging

  • ArbeitsweiseTippen Sie "Schreiben Sie einen Python-Sortieralgorithmus" und die KI generiert Code.
  • Komponenten während der Prüfung anpassenWenn es einen Fehler im Code gibt, sagen Sie "behebe diesen Fehler" und die KI wird ihn analysieren und ändern.
  • Unterstützte SprachenEnthält derzeit Python, C, Golang, wird später erweitert.

Webbrowser

  • ausnutzenTippen Sie "Finde die neuesten KI-Nachrichten" ein, und die KI wird die Seite durchsuchen und die Informationen zusammenstellen.
  • EinschränkungDerzeit wird nur Text extrahiert, das Parsen von Bildern oder Videos wird nicht unterstützt.
  • FähigkeitenSie können Schlüsselwörter angeben, z. B. "Suche nach Deepseek R1-Updates".

autonome Fehlerkorrektur

  • ArbeitsweiseEs sind keine besonderen Einstellungen erforderlich. Wenn der Befehl fehlschlägt, versucht die KI automatisch, ihn zu reparieren.
  • typisches BeispielWenn Sie den falschen Befehl "Datei X öffnen" eingeben, zeigt AI an, dass die Datei nicht existiert und schlägt eine Alternative vor.

Fernsteuerung (optional)

  • Nehmen SieWenn die Leistung der lokalen Geräte nicht ausreicht, kann ein Server für die Ausführung des Modells verwendet werden.
  • umziehen::
    1. Starten Sie Ollama auf dem Server und ermitteln Sie die IP (z.B. 192.168.1.100).
    2. Führen Sie das Serverskript aus:
      python server_ollama.py
      
    3. lokale Änderung config.ini::
      [MAIN]
      is_local = False
      anbieter_name = server
      Anbieter_Modell = deepseek-r1:14b
      anbieter_server_adresse = 192.168.1.100:5000
      
    4. Lokal laufen:
      python main.py
      

caveat

  • Hardware-Voraussetzung7B-Modelle erfordern 8 GB Videospeicher, 14B erfordert 12 GB (z. B. RTX 3060) und 32B erfordert 24 GB+.
  • Komponenten während der Prüfung anpassenWenn der Start fehlschlägt, überprüfen Sie, ob Ollama läuft, oder sehen Sie im Terminal-Fehlerprotokoll nach.
  • Update: Regelmäßiger Betrieb Git-Pull Holen Sie sich die neuesten Funktionen.
  • LizenzDas Projekt ist quelloffen und frei unter der GPL-3.0.

 

Anwendungsszenario

  1. Programmierhilfen
    Wenn Sie beim Schreiben von Code nicht weiterkommen, z. B. bei der Fehlersuche in komplexer Logik, generiert AgenticSeek Code, behebt Fehler und erklärt Code-Details.
  2. Verwaltung von Dokumenten
    Computerdateien sind unübersichtlich. Nach dem Einrichten eines Verzeichnisses kann AI Dateien auflisten, Inhalte extrahieren und sogar Stapelverarbeitungsvorgänge durchführen.
  3. Unterstützung beim Lernen
    Die Schüler können damit Dokumente analysieren, nach Informationen suchen und durch Sprachinteraktion Notizen machen, um die Effizienz zu steigern.
  4. Mandat zum Schutz der Privatsphäre
    AgenticSeek läuft lokal ohne Internetverbindung, um die Informationssicherheit beim Umgang mit sensiblen Daten zu gewährleisten.

 

QA

  1. Ist es wirklich 100%, das lokal läuft?
    Ja, wenn Sie Ollama oder den Server-Modus verwenden, ist die gesamte Verarbeitung lokal, und nicht-lokale Optionen (wie OpenAI) sind nur optional.
  2. Was ist, wenn ich nicht genügend Hardware habe?
    Verwenden Sie das Modell 7B, oder lassen Sie ein höheres Modell über einen Remote-Server laufen.
  3. Was ist, wenn etwas schief geht?
    Stellen Sie sicher, dass Ollama läuft, überprüfen Sie config.ini Konfiguration. Wenn es immer noch nicht klappt, können Sie einen Fehler auf GitHub melden.
  4. Was ist besser als Manus AI?
    Es konzentriert sich auf den lokalen Betrieb und den Schutz der Privatsphäre für diejenigen, die keine Cloud-Dienste nutzen möchten.
Darf nicht ohne Genehmigung vervielfältigt werden:Chef-KI-Austauschkreis " AgenticSeek: ein KI-Assistent für die Automatisierung von Aufgaben, der vollständig lokal läuft

Chef-KI-Austauschkreis

Der Chief AI Sharing Circle konzentriert sich auf das KI-Lernen und bietet umfassende KI-Lerninhalte, KI-Tools und praktische Anleitungen. Unser Ziel ist es, den Nutzern dabei zu helfen, die KI-Technologie zu beherrschen und gemeinsam das unbegrenzte Potenzial der KI durch hochwertige Inhalte und den Austausch praktischer Erfahrungen zu erkunden. Egal, ob Sie ein KI-Anfänger oder ein erfahrener Experte sind, dies ist der ideale Ort für Sie, um Wissen zu erwerben, Ihre Fähigkeiten zu verbessern und Innovationen zu verwirklichen.

Kontaktieren Sie uns
de_DE_formalDeutsch (Sie)