AI Personal Learning
und praktische Anleitung
CyberKnife-Zeichenspiegel

Archon: ein Entwicklungsrahmen für den autonomen Aufbau und die Optimierung von KI-Intelligenzen

Allgemeine Einführung

Archon ist das weltweit erste "Agenteer"-Projekt des Entwicklers Cole Medin (GitHub-Benutzername coleam00) - ein Open-Source-Framework, das sich auf die autonome Erstellung, Optimierung und Iteration von KI-Intelligenzen konzentriert. Es ist ein Open-Source-Framework, das sich auf den autonomen Aufbau und die Iteration von KI-Intelligenzen konzentriert. Es ist sowohl ein praktisches Werkzeug für Entwickler als auch eine Bildungsplattform, um die Entwicklung intelligenter Körpersysteme zu demonstrieren.Archon, derzeit in der Version V4, verwendet eine vollständig optimierte Streamlit-Oberfläche, um eine intuitive Verwaltungsschnittstelle zu bieten. Das in Python entwickelte Projekt integriert Technologien wie Pydantic AI, LangGraph und Supabase, um sich von der einfachen Generierung von Intelligenz bis hin zu komplexer Workflow-Kollaboration zu entwickeln. Archon demonstriert die drei Prinzipien der modernen KI-Entwicklung: intelligentes Denken, Wissenseinbettung und erweiterbare Architektur durch Planung, Feedback-Schleifen und Integration von Domänenwissen.

Archon ist, wie ich es gerne nenne, ein "Parasit" auf anderen Frameworks für die Entwicklung von Intelligenz. Archon kann andere Frameworks für die Entwicklung von Intelligenz aufbauen und optimieren, aber er ist auch selbst eine Intelligenz.

Archon: ein Entwicklungsrahmen für den autonomen Aufbau und die Optimierung von KI-Intelligenzen-1

 

Funktionsliste

  • Automatische Generierung von intelligenten KörpernGenerierung von kundenspezifischen KI-Intelligenz-Bodycodes auf der Grundlage von Benutzereingaben.
  • Crawling und Indizierung von DokumentenCrawling von Dokumenten wie Pydantic AI, Erzeugung von Vektoreinbettungen und Speicherung in Supabase.
  • RAG-SystemunterstützungNutzung von suchgestützten Generierungstechniken, um genaue Code-Vorschläge und Optimierungen zu liefern.
  • Streamlit UI ManagementKonfiguration von Umgebungsvariablen, Datenbanken und intelligenten Körperdiensten über eine visuelle Schnittstelle.
  • Multi-Intelligenz-Zusammenarbeit: Basierend auf LangGraph Ermöglichung koordinierter Arbeitsabläufe für Argumentation, Codierung und Aufgabenverteilung.
  • Lokal und Cloud-kompatibelUnterstützung für OpenAI, Anthropic, OpenRouter APIs oder nativ Ollama Modelle.
  • Docker Containerisierte Bereitstellung: Bietet den Hauptcontainer und MCP Container, um sicherzustellen, dass Produktionsumgebungen sofort einsatzbereit sind.
  • MCP-IntegrationUnterstützung für die Integration mit AI-IDEs (z. B. Windsurf, Cursor) zur Verwaltung von Dateien und Abhängigkeiten.
  • Unterstützung der GemeinschaftBereitstellung einer Plattform für die Kommunikation mit den Nutzern durch das oTTomator Think Tank Forum.

 

Hilfe verwenden

Archon ist ein funktionsreiches Open-Source-Framework, das Benutzern helfen soll, schnell KI-Intelligenzen zu entwickeln und zu verwalten. Hier finden Sie eine detaillierte Installations- und Nutzungsanleitung, damit Sie problemlos loslegen können.

Ablauf der Installation

Archon V4 unterstützt zwei Installationsmethoden: Docker (empfohlen) und lokale Python-Installation. Hier sind die Schritte:

Weg 1: Docker-Installation (empfohlen)

  1. Vorbereiten der Umgebung
    • Stellen Sie sicher, dass Docker und Git installiert sind.
    • Besorgen Sie sich ein Supabase-Konto (für Vektordatenbanken).
    • Bereiten Sie den OpenAI/Anthropic/OpenRouter-API-Schlüssel vor, oder führen Sie Ollama lokal aus.
  2. Klon-Lager
    Läuft im Terminal:

    git clone https://github.com/coleam00/archon.git
    cd archon
  1. Ausführen eines Docker-Skripts
    Führen Sie den folgenden Befehl aus, um den Container zu erstellen und zu starten:

    python run_docker.py
    
    • Das Skript erstellt automatisch zwei Container: den Archon-Hauptcontainer (auf dem die Streamlit-Benutzeroberfläche und die Graph-Dienste laufen) und den MCP-Container (der die Integration der KI-IDE unterstützt).
    • falls vorhanden .env Datei, werden die Umgebungsvariablen automatisch geladen.
  2. Zugangsschnittstelle
    Öffnen Sie Ihren Browser und besuchen Sie http://localhost:8501Rufen Sie dazu die Streamlit-Benutzeroberfläche auf.

Weg 2: Lokale Python-Installation

  1. Vorbereiten der Umgebung
    • Stellen Sie sicher, dass Python 3.11+ installiert ist.
    • Rufen Sie das Supabase-Konto und den API-Schlüssel ab.
  2. Klon-Lager
    git clone https://github.com/coleam00/archon.git
    cd archon
    
  3. Erstellen einer virtuellen Umgebung und Installieren von Abhängigkeiten
    python -m venv venv
    Quelle venv/bin/activate # Windows: venv\Scripts\activate
    pip install -r anforderungen.txt
    
  4. Streamlit UI starten
    streamlit ausführen streamlit_ui.py
    
  5. Zugangsschnittstelle
    Öffnen Sie Ihren Browser und besuchen Sie http://localhost:8501.

Konfiguration der Umgebungsvariablen

Wenn Sie Docker oder eine lokale Installation zum ersten Mal ausführen, müssen Sie Umgebungsvariablen konfigurieren. Erstellen Sie eine .env Datei mit Beispielinhalten:

OPENAI_API_KEY=Ihr_openai_api_key
SUPABASE_URL=Ihre_supabase_url
SUPABASE_SERVICE_KEY=Ihr_supabase_service_key
PRIMARY_MODEL=gpt-4o-mini
REASONER_MODEL=o3-mini

Diese Informationen sind auf dem Supabase Dashboard und beim API-Anbieter verfügbar.

Funktion Betriebsablauf

Nach der Installation bietet Streamlit UI fünf Hauptfunktionsmodule, die Sie Schritt für Schritt durch die Einrichtung und Nutzung führen.

1. die Umwelt

  • Verfahren::
    1. Gehen Sie auf die Registerkarte "Umgebung".
    2. Geben Sie den API-Schlüssel (z.B. OpenAI oder OpenRouter) und die Modelleinstellungen (z.B. gpt-4o-mini).
    3. Klicken Sie auf "Speichern" und die Konfiguration wird in der Datei env_vars.json.
  • zur Kenntnis nehmenWenn Sie Ollama lokal verwenden, müssen Sie sicherstellen, dass der Dienst auf dem localhost:11434UI-Streaming wird nur von OpenAI unterstützt.

2. datenbankeinstellungen (Datenbank)

  • Verfahren::
    1. Gehen Sie auf die Registerkarte "Datenbank".
    2. Geben Sie die Supabase-URL und den Dienstschlüssel ein.
    3. Klicken Sie auf "Datenbank initialisieren", das System wird die Datenbank automatisch erstellen. site_pages Tabelle.
    4. Überprüfen Sie den Verbindungsstatus, um den Erfolg zu bestätigen.
  • Tabellenstruktur::
    CREATE TABLE site_pages (
    id UUID PRIMARY KEY DEFAULT uuid_generate_v4(),
    url TEXT,
    url TEXT, chunk_number INTEGER, title TEXT, url_generate_v4(), url
    url TEXT, chunk_number INTEGER, title TEXT, summary TEXT, Titel der Seite
    Zusammenfassung TEXT, Inhalt TEXT, url TEXT, chunk_number INTEGER
    Inhalt TEXT, Metadaten JSONB, Metadaten TEXT, Metadaten TEXT
    Metadaten JSONB,
    Einbettung VECTOR(1536)
    ).
    

3. das Crawlen und Indizieren der Dokumentation (Dokumentation)

  • Verfahren::
    1. Gehen Sie auf die Registerkarte "Dokumentation".
    2. Geben Sie die URL des Zieldokuments ein (z. B. das Pydantic AI-Dokument).
    3. Klicken Sie auf "Start Crawling" und das System chunked die Dokumente, erzeugt Einbettungen und speichert sie in der Supabase.
    4. Sie können den Fortschritt der Indizierung in der Benutzeroberfläche sehen, wenn Sie fertig sind.
  • verwenden.für RAG Das System stellt die Wissensbasis zur Verfügung.

4) Dienst für intelligente Stellen (Agentendienst)

  • Verfahren::
    1. Gehen Sie auf die Registerkarte "Agentendienst".
    2. Klicken Sie auf Dienst starten, um den LangGraph-Workflow zu starten.
    3. Überwachen Sie den Dienststatus anhand von Protokollen.
  • FunktionalitätKoordination von Argumentation, Kodierung und Aufgabenverteilung, um sicherzustellen, dass die Kernlogik der Generierung von Intelligenz richtig funktioniert.

5. die Schaffung eines intelligenten Körpers (Chat)

  • Verfahren::
    1. Gehen Sie auf die Registerkarte "Chat".
    2. Geben Sie eine Anforderung ein, z. B. "Generieren Sie eine Intelligenz, die JSON-Dateien analysiert".
    3. Das System kombiniert das vom RAG-System abgerufene Wissen, um Codes zu generieren und sie anzuzeigen.
    4. Kopieren Sie den Code, um ihn lokal auszuführen, oder stellen Sie ihn über einen Dienst bereit.
  • typisches Beispiel::
    Eingabe: "Erstellen Sie einen intelligenten Körper, der das Wetter in Echtzeit abfragt".
    Beispielhafte Ausgabe:

    from pydantic_ai import Agent, OpenAIModel
    agent = Agent(OpenAIModel("gpt-4o-mini"), system_prompt="Echtzeit-Wetter abfragen")
    result = agent.run("Abfrage des heutigen Wetters in Peking")
    print(result.data)
    

Optional: MCP-Konfiguration

  • Verfahren::
    1. Gehen Sie auf die Registerkarte "MCP".
    2. Konfigurieren Sie die Integration mit einer KI-IDE wie z. B. Cursor.
    3. Starten Sie den MCP-Container und verbinden Sie sich mit dem Graph-Dienst.
  • verwenden.Unterstützung für automatische Dateierstellung und Abhängigkeitsmanagement in der IDE für Smartbody-Code.

Anwendungsbeispiel

Angenommen, Sie wollen eine "Log Analysis Intelligence" entwickeln:

  1. Geben Sie in Chat ein: "Generate a Pydantic AI intelligence that parses Nginx logs".
  2. Archon ruft die relevante Dokumentation ab und generiert Code:
from pydantic_ai import Agent, OpenAIModel
agent = Agent(OpenAIModel("gpt-4o-mini"), system_prompt="Parsing Nginx logs")
result = agent.run("Parsing access.log und Extraktion von IP-Adressen")
print(result.data)
  1. Speichern Sie den Code lokal und stellen Sie sicher, dass Sie den API-Schlüssel vor der Ausführung konfigurieren.

caveat

  • Kompatibilität der ModelleNur OpenAI unterstützt Streaming-Ausgaben von der Streamlit UI, andere Modelle (z.B. Ollama) unterstützen nur Non-Streaming.
  • NetzanforderungCrawlen von Dokumenten und Aufrufen von APIs erfordert ein stabiles Netzwerk.
  • Komponenten während der Prüfung anpassenWenn etwas schief läuft, überprüfen Sie das UI-Protokoll oder die Terminalausgabe.

Mit diesen Schritten können Sie die Fähigkeit von Archon, KI-Intelligenzen schnell zu generieren und zu verwalten, sowohl für das Lernen als auch für die tatsächliche Entwicklung voll ausnutzen.


CDN1
Darf nicht ohne Genehmigung vervielfältigt werden:Chef-KI-Austauschkreis " Archon: ein Entwicklungsrahmen für den autonomen Aufbau und die Optimierung von KI-Intelligenzen

Chef-KI-Austauschkreis

Der Chief AI Sharing Circle konzentriert sich auf das KI-Lernen und bietet umfassende KI-Lerninhalte, KI-Tools und praktische Anleitungen. Unser Ziel ist es, den Nutzern dabei zu helfen, die KI-Technologie zu beherrschen und gemeinsam das unbegrenzte Potenzial der KI durch hochwertige Inhalte und den Austausch praktischer Erfahrungen zu erkunden. Egal, ob Sie ein KI-Anfänger oder ein erfahrener Experte sind, dies ist der ideale Ort für Sie, um Wissen zu erwerben, Ihre Fähigkeiten zu verbessern und Innovationen zu verwirklichen.

Kontaktieren Sie uns
de_DE_formalDeutsch (Sie)