はじめに
Archonは、開発者のCole Medin氏(GitHubユーザー名 coleam00)によって構築された世界初の「Agenteer」プロジェクトで、AIインテリジェンスを自律的に構築、最適化、反復することに焦点を当てたオープンソースのフレームワークです。これは、AIインテリジェンスを自律的に構築し、反復することに焦点を当てたオープンソースのフレームワークだ。Archonは現在バージョンV4で、直感的な管理インターフェースを提供するために、完全に最適化されたStreamlit UIを使用しています。Pythonで開発されたこのプロジェクトは、Pydantic AI、LangGraph、Supabaseなどの技術を統合し、単純なインテリジェンス生成から複雑なワークフローコラボレーションへと進化しています。Archonは、最新のAI開発の3原則、すなわち、計画、フィードバックループ、ドメイン知識の統合による知的推論、知識の埋め込み、拡張可能なアーキテクチャを実証しています。
Archonは、私が他のインテリジェンス開発フレームワークの "寄生虫 "と呼びたいものだ。 Archonは他のインテリジェンス開発フレームワークを構築し、最適化することができるが、彼自身もインテリジェンスなのだ。
機能一覧
- インテリジェント・ボディの自動生成ユーザーの入力要件に基づいて、カスタマイズされたAIインテリジェンス本体コードを生成します。
- ドキュメントのクローリングと索引付けPydantic AIなどのドキュメントをクロールし、ベクトル埋め込みを生成し、Supabaseに格納する。
- RAGシステムサポート正確なコード提案と最適化を提供するために、検索を強化した生成技術を活用しています。
- ストリームリットUIマネジメント環境変数、データベース、インテリジェント・ボディ・サービスをビジュアル・インターフェースで設定。
- マルチインテリジェンス・コラボレーションをベースにしている。 ラングラフ 推論、コーディング、タスクルーティングのための協調ワークフローを可能にする。
- ローカルとクラウドに対応OpenAI、Anthropic、OpenRouter APIまたはネイティブのサポート オーラマ モデル
- Dockerコンテナ展開メインコンテナと エムシーピー 本番環境をすぐに使えるようにするためのコンテナ。
- MCPインテグレーション: AI IDE(例:Windsurf、Cursor)との統合をサポートし、ファイルや依存関係を管理。
- 地域支援oTTomator Think Tankフォーラムを通じて、ユーザーコミュニケーションのプラットフォームを提供します。
ヘルプの使用
Archonは機能豊富なオープンソースのフレームワークで、AIインテリジェンスを素早く開発・管理できるように設計されています。ここでは、簡単に使い始められるように、インストールと使い方のガイドを詳しく説明します。
設置プロセス
Archon V4 は Docker (推奨) と Python のローカルインストールという2つのインストール方法をサポートしています。以下はその手順です:
方法1:Dockerのインストール(推奨)
- 環境を整える
- DockerとGitがインストールされていることを確認する。
- Supabaseアカウントを取得する(ベクターデータベース用)。
- OpenAI/Anthropic/OpenRouterのAPIキーを用意するか、ローカルでOllamaを実行する。
- クローン倉庫
ターミナルで実行:git clone https://github.com/coleam00/archon.git cd archon
- Dockerスクリプトの実行
以下のコマンドを実行し、コンテナをビルドして起動する:python run_docker.py
- スクリプトは自動的に2つのコンテナをビルドします:メインのArchonコンテナ(Streamlit UIとGraphサービスを実行する)とMCPコンテナ(AI IDE統合をサポートする)です。
- もしあれば
環境
ファイルでは、環境変数が自動的にロードされる。
- アクセスインターフェイス
ブラウザを開き、次のサイトにアクセスする。http://localhost:8501
そのためには、Streamlit UIにアクセスする。
方法2:ローカルにPythonをインストールする
- 環境を整える
- Python 3.11+がインストールされていることを確認してください。
- SupabaseのアカウントとAPIキーを取得する。
- クローン倉庫
git clone https://github.com/coleam00/archon.git cd archon
- 仮想環境の作成と依存関係のインストール
python -m venv venv source venv/bin/activate # Windows: venvScriptscriptsactivate pip install -r requirements.txt
- ストリームリットUIを起動する
streamlit の実行 streamlit_ui.py
- アクセスインターフェイス
ブラウザを開き、次のサイトにアクセスする。http://localhost:8501
.
環境変数の設定
Dockerまたはローカル・インストールのいずれかを最初に実行するときは、環境変数を設定する必要がある。環境変数を作成する 環境
ファイルのサンプル・コンテンツをご覧ください:
OPENAI_API_KEY=your_openai_api_key
SUPABASE_URL=your_supabase_url
SUPABASE_SERVICE_KEY=your_supabase_service_key
PRIMARY_MODEL=gpt-4o-mini
REASONER_MODEL=o3-ミニ
この情報は、SupabaseのダッシュボードおよびAPIプロバイダーから入手できます。
機能 操作の流れ
インストール後、Streamlit UIは5つの主要な機能モジュールを提供し、セットアップと使用方法をステップバイステップで説明します。
1.環境
- 手続き::
- 環境」タブを開く。
- API キー(例:OpenAI または OpenRouter)とモデル設定(例:OpenRouter)を入力します。
gpt-4o-mini
). - Save "をクリックすると、コンフィギュレーションが
env_vars.json
.
- 銘記するローカルのOllamaを使用する場合は、サービスが
ローカルホスト:11434
UIストリーミングはOpenAIでのみサポートされています。
2.データベース設定(Database)
- 手続き::
- データベース」タブを開く。
- SupabaseのURLとサービスキーを入力する。
- データベースの初期化」をクリックすると、システムが自動的にデータベースを作成します。
サイト・ページ
表 - 接続ステータスを確認し、成功を確認する。
- テーブル構造::
CREATE TABLE site_pages ( id UUID PRIMARY KEY DEFAULT uuid_generate_v4()、 url TEXT、 url TEXT, chunk_number INTEGER, title TEXT, url_generate_v4(), url url TEXT, chunk_number INTEGER, title TEXT, summary TEXT, ページタイトル summary TEXT, content TEXT, url TEXT, chunk_number INTEGER content TEXT、metadata JSONB、metadata TEXT、metadata TEXT メタデータJSONB、 埋め込み VECTOR(1536) ).
3.ドキュメントのクローリングとインデックス作成(ドキュメンテーション)
- 手続き::
- Documentation "タブを開く。
- ターゲット文書のURL(例:Pydantic AI文書)を入力します。
- クロール開始」をクリックすると、システムはドキュメントをチャンクし、エンベッドを生成してSupabaseに保存する。
- インデックス作成が完了したら、UIで進捗状況を確認できます。
- 使用に対して ラグ システムは知識ベースを提供する。
4.インテリジェント・ボディ・サービス(エージェント・サービス)
- 手続き::
- エージェントサービス」タブに移動します。
- Start ServiceをクリックしてLangGraphワークフローを実行します。
- ログでサービスの状態を監視。
- 官能性インテリジェンス生成のコアロジックが適切に機能するように、推論、コーディング、タスクルーティングを調整する。
5.スマート・ボディの創造(チャット)
- 手続き::
- チャット」タブに行く。
- JSONファイルを分析するインテリジェンスを生成する」などの要件を入力します。
- このシステムは、RAGシステムによって検索された知識を組み合わせてコードを生成し、表示する。
- コードをコピーしてローカルで実行するか、サービス経由でデプロイする。
- 典型例::
入力:「リアルタイムの天気を問い合わせるスマートボディを生成する」。
出力例:from pydantic_ai import Agent, OpenAIModel agent = Agent(OpenAIModel("gpt-4o-mini"), system_prompt="Query real-time weather") result = agent.run("北京の今日の天気を取得") print(result.data)
オプション:MCPコンフィギュレーション
- 手続き::
- MCP」タブを開く。
- CursorのようなAI IDEとの統合を設定する。
- MCPコンテナを起動し、Graphサービスに接続する。
- 使用IDEでスマートボディ・コードの自動ファイル作成と依存性管理をサポート。
使用例
ログ分析インテリジェンス」を開発したいとする:
- チャットで「Nginxログを解析するPydantic AIインテリジェンスを生成する」と入力してください。
- Archonは関連ドキュメントを検索し、コードを生成する:
from pydantic_ai import Agent, OpenAIModel
agent = Agent(OpenAIModel("gpt-4o-mini"), system_prompt="Parsing Nginx logs")
result = agent.run("access.logの解析とIPアドレスの抽出")
print(result.data)
- コードをローカルに保存し、実行する前に必ずAPIキーを設定してください。
ほら
- モデルの互換性OpenAIのみがStreamlit UIからのストリーミング出力をサポートしています。
- ネットワーク要件ドキュメントをクロールしたりAPIを呼び出したりするには、安定したネットワークが必要です。
- テスト中にコンポーネントを調整する何か問題が発生したら、UIのログや端末の出力をチェックしてください。
これらのステップを踏むことで、学習用にも実際の開発用にも、AIインテリジェンスを素早く生成・管理できるArchonの機能をフルに活用することができます。