はじめに
AgenticSeekは、完全にネイティブに動作するオープンソースのAIアシスタントです。 ディープシーク R1モデルの開発。クラウドAPIを必要とせず、数百ドルの月額料金も発生しない。その目標は、映画『ジャービス』のようなインテリジェントなアシスタントになることであり、ユーザーのコンピューター上でコード作成、ファイル管理、ウェブ閲覧などのタスクを、データのプライバシーを確保しながら実行することができる。開発者 マーティン ルグランは次のように位置づけている。 マヌス ローカルで動作する100%に重点を置いた、AIに代わるローカルなツール。2025年3月現在、GitHubには181のスターと16のフォークがあり、コミュニティは活発な活動を続け、貢献者を歓迎している。
機能一覧
- 完全な現地オペレーションインターネット接続は不要で、すべての計算はユーザーのデバイス上で行われ、データの漏洩はありません。
- 音声対話音声入力コマンドと音声応答に対応し、操作の利便性を向上。
- ファイルシステム操作Bash を使ってローカルファイルをブラウズし、操作することができます。
- コード作成とデバッグPython、C、Golangなどのコード生成とバグ修正をサポート。
- じりつエラーほせいコマンドに失敗したり、コードエラーが発生したりすると、AIは自動的にリトライして修正する。
- インテリジェント・タスキングタスクの種類に応じて、適切な機能モジュールを自動的に選択します。
- マルチエージェントコラボレーション複雑なタスクは複数のエージェントに分割、計画、実行させることができる。
- ツールサポート検索、ファイル検索、その他のユーティリティを内蔵。
- メモリー機能対話の履歴とユーザーの好みを保存し、長い文脈のやりとりをサポートします。
- ウェブブラウザウェブページをナビゲートし、単独で情報を抽出することができる。
ヘルプの使用
AgenticSeekのインストールと使用には技術的な知識が必要ですが、手順は明確です。以下は、すぐに始められるようにするための詳細ガイドです。
設置プロセス
- 環境準備
- お使いのコンピュータがPython 3をサポートしていること、少なくとも8GBのRAMを推奨していること、GPUに8GB以上のビデオメモリが必要であることをご確認ください(14Bモデルでは12GBを推奨)。
- コードをダウンロードするためにGitをインストールする。
- Ollama(ローカルモデル実行ツール)をダウンロードしてインストールします。訪問 オーラマ 公式サイト
- AgenticSeekをダウンロード
- ターミナル(Windowsの場合はCMDまたはPowerShell、Mac/Linuxの場合はターミナル)を開く。
- clone projectコマンドを入力する:
git clone https://github.com/Fosowl/agenticSeek.git
- プロジェクト・カタログにアクセスする:
cd agenticSeek
- 仮想環境の構築
- コマンドを入力してスタンドアロン環境を作成する:
python3 -m venv agentic_seek_env
- 環境を活性化させる:
- ウィンドウズ
Agentic_seek_envScriptsactivate
- Mac/Linux:
ソース agentic_seek_env/bin/activate
- ウィンドウズ
- コマンドを入力してスタンドアロン環境を作成する:
- 依存関係のインストール
- 環境をアクティブにしたら、実行する:
pip install -r requirements.txt
- または自動インストールスクリプトを使用する(Mac/Linux):
./install.sh
- 環境をアクティブにしたら、実行する:
- モデルの設定とダウンロード
- Ollamaがインストールされていることを確認し、サービスを開始する:
オラマサーブ
- ダウンロード ディープシーク R1 モデル(14B推奨、低コンフィギュレーション・デバイスには7B):
オラマ・プル ディープシークR1:14b
- コンパイラ
config.ini
ローカルで動作するように設定されている:[MAIN] is_local = True プロバイダー名 = ollama プロバイダーモデル = deepseek-r1:14b
- Ollamaがインストールされていることを確認し、サービスを開始する:
- AgenticSeekを開始する
- インプット:
python main.py
- ターミナルのプロンプトが表示されるのは、正常に実行されたことを意味する。
- インプット:
機能 操作の流れ
音声対話
- オープン方法で
config.ini
セットアップ話す = 真
歌で応えるlisten = True
. - 利用する起動時に「Start Voice Mode」と言ってから、「Write code for me(コードを書いて)」など、声で質問してください。
- ポイントマイクとスピーカーが機能していることを確認しながら、AIが音声で応答します。
- 銘記する初回は音量の調整が必要な場合があり、下位機種では遅延が発生する場合があります。
ファイルシステム操作
- カタログの設定で
config.ini
で指定されている。ワーク・ディレクトリ
例/ユーザー/ユーザー名/ドキュメント
. - 利用する全テキストファイル一覧」と入力すると、AIが結果を返す。
- 高度な機能このファイルの中身を解析してください」と表示され、キーとなる情報が抽出されます。
- 技術新規フォルダの作成」などのBashコマンドがサポートされている。
コード作成とデバッグ
- 操作方法Pythonのソートアルゴリズムを書け」と入力すると、AIがコードを生成する。
- テスト中にコンポーネントを調整するコードにエラーがあれば、"このエラーを修正して "と言えば、AIがそれを解析して修正してくれる。
- 対応言語現在のところ、Python、C、Golangが含まれています。
ウェブブラウザ
- 利用する最新のAIニュースを探す」と入力すると、AIがページをナビゲートし、情報を照合する。
- 制約条件現在のところ、抽出されるのはテキストのみで、画像やビデオの解析はサポートされていません。
- 技術Deepseek R1のアップデートを検索する」などのキーワードを指定できます。
じりつエラーほせい
- 操作方法特別な設定は必要ない。コマンドに失敗した場合、AIが自動的に修復を試みる。
- 典型例もし「ファイルXを開く」という間違ったコマンドを入力すると、AIはそのファイルが存在しないことを示し、代替案を提案する。
遠隔操作(オプション)
- 取るローカル機器の性能が不十分な場合は、サーバーを使用してモデルを実行することができます。
- 動く::
- サーバー上でOllamaを起動し、IPを取得する。
192.168.1.100
). - サーバースクリプトを実行する:
python server_ollama.py
- ローカル変更
config.ini
::[MAIN] is_local = False プロバイダー名 = サーバー プロバイダーモデル = deepseek-r1:14b プロバイダーアドレス = 192.168.1.100:5000
- ローカルで走っている:
python main.py
- サーバー上でOllamaを起動し、IPを取得する。
ほら
- ハードウェア要件7Bモデルには8GB、14Bモデルには12GB(例:RTX 3060)、32Bモデルには24GB以上のビデオメモリが必要です。
- テスト中にコンポーネントを調整する起動に失敗した場合は、Ollamaが起動しているか、ターミナルのエラーログを確認してください。
- 更新通常運転
ギットプル
最新の機能を手に入れよう。 - ライセンスこのプロジェクトはオープンソースで、GPL-3.0の下でフリーです。
アプリケーションシナリオ
- プログラミング・エイド
AgenticSeekは、コードを生成し、エラーを修正し、コードの詳細を説明します。 - 文書管理
コンピュータのファイルは乱雑だ。AIはディレクトリを設定した後、ファイルの一覧表示、中身の抽出、バッチ操作まで行うことができる。 - 学習サポート
学生たちはこのソフトを使って、文書分析、情報検索、音声対話によるメモ取りなどを行い、効率化を図ることができる。 - プライバシーの義務
AgenticSeekは、機密データを取り扱う際の情報セキュリティを確保するため、インターネット接続なしでローカルに実行されます。
品質保証
- 本当に100%がローカルで動いているのか?
OllamaやServerモードを使用する場合、すべての処理はローカルで行われ、ローカル以外のオプション(OpenAIなど)はオプションでしかありません。 - 十分なハードウェアがない場合は?
7Bモデルを使用するか、リモートサーバー経由で上位モデルを実行する。 - 何か問題が起きたら?
Ollamaが起動していることを確認する。config.ini
の設定を変更します。それでも失敗する場合は、GitHubにissueを提出してください。 - マヌスAIより優れているものは?
クラウドサービスを使いたくない人のために、ローカルでの運用とプライバシー保護に重点を置いている。