AIパーソナル・ラーニング
と実践的なガイダンス
ビーンバッグ・マースコード1

AgenticSeek:完全にローカルで動作するタスク自動化のためのAIアシスタント

はじめに

AgenticSeekは、完全にネイティブに動作するオープンソースのAIアシスタントです。 ディープシーク R1モデルの開発。クラウドAPIを必要とせず、数百ドルの月額料金も発生しない。その目標は、映画『ジャービス』のようなインテリジェントなアシスタントになることであり、ユーザーのコンピューター上でコード作成、ファイル管理、ウェブ閲覧などのタスクを、データのプライバシーを確保しながら実行することができる。開発者 マーティン ルグランは次のように位置づけている。 マヌス ローカルで動作する100%に重点を置いた、AIに代わるローカルなツール。2025年3月現在、GitHubには181のスターと16のフォークがあり、コミュニティは活発な活動を続け、貢献者を歓迎している。

AgenticSeek:完全にローカルで動作するマヌスAI代替案-1


 

機能一覧

  • 完全な現地オペレーションインターネット接続は不要で、すべての計算はユーザーのデバイス上で行われ、データの漏洩はありません。
  • 音声対話音声入力コマンドと音声応答に対応し、操作の利便性を向上。
  • ファイルシステム操作Bash を使ってローカルファイルをブラウズし、操作することができます。
  • コード作成とデバッグPython、C、Golangなどのコード生成とバグ修正をサポート。
  • じりつエラーほせいコマンドに失敗したり、コードエラーが発生したりすると、AIは自動的にリトライして修正する。
  • インテリジェント・タスキングタスクの種類に応じて、適切な機能モジュールを自動的に選択します。
  • マルチエージェントコラボレーション複雑なタスクは複数のエージェントに分割、計画、実行させることができる。
  • ツールサポート検索、ファイル検索、その他のユーティリティを内蔵。
  • メモリー機能対話の履歴とユーザーの好みを保存し、長い文脈のやりとりをサポートします。
  • ウェブブラウザウェブページをナビゲートし、単独で情報を抽出することができる。

 

ヘルプの使用

AgenticSeekのインストールと使用には技術的な知識が必要ですが、手順は明確です。以下は、すぐに始められるようにするための詳細ガイドです。

設置プロセス

  1. 環境準備
    • お使いのコンピュータがPython 3をサポートしていること、少なくとも8GBのRAMを推奨していること、GPUに8GB以上のビデオメモリが必要であることをご確認ください(14Bモデルでは12GBを推奨)。
    • コードをダウンロードするためにGitをインストールする。
    • Ollama(ローカルモデル実行ツール)をダウンロードしてインストールします。訪問 オーラマ 公式サイト
  2. AgenticSeekをダウンロード
    • ターミナル(Windowsの場合はCMDまたはPowerShell、Mac/Linuxの場合はターミナル)を開く。
    • clone projectコマンドを入力する:
      git clone https://github.com/Fosowl/agenticSeek.git
      
    • プロジェクト・カタログにアクセスする:
      cd agenticSeek
      
  3. 仮想環境の構築
    • コマンドを入力してスタンドアロン環境を作成する:
      python3 -m venv agentic_seek_env
      
    • 環境を活性化させる:
      • ウィンドウズ
        Agentic_seek_envScriptsactivate
        
      • Mac/Linux:
        ソース agentic_seek_env/bin/activate
        
  4. 依存関係のインストール
    • 環境をアクティブにしたら、実行する:
      pip install -r requirements.txt
      
    • または自動インストールスクリプトを使用する(Mac/Linux):
      ./install.sh
      
  5. モデルの設定とダウンロード
    • Ollamaがインストールされていることを確認し、サービスを開始する:
      オラマサーブ
      
    • ダウンロード ディープシーク R1 モデル(14B推奨、低コンフィギュレーション・デバイスには7B):
      オラマ・プル ディープシークR1:14b
      
    • コンパイラ config.iniローカルで動作するように設定されている:
      [MAIN]
      is_local = True
      プロバイダー名 = ollama
      プロバイダーモデル = deepseek-r1:14b
      
  6. AgenticSeekを開始する
    • インプット:
      python main.py
      
    • ターミナルのプロンプトが表示されるのは、正常に実行されたことを意味する。

機能 操作の流れ

音声対話

  • オープン方法で config.ini セットアップ 話す = 真 歌で応える listen = True.
  • 利用する起動時に「Start Voice Mode」と言ってから、「Write code for me(コードを書いて)」など、声で質問してください。
  • ポイントマイクとスピーカーが機能していることを確認しながら、AIが音声で応答します。
  • 銘記する初回は音量の調整が必要な場合があり、下位機種では遅延が発生する場合があります。

ファイルシステム操作

  • カタログの設定で config.ini で指定されている。 ワーク・ディレクトリ例 /ユーザー/ユーザー名/ドキュメント.
  • 利用する全テキストファイル一覧」と入力すると、AIが結果を返す。
  • 高度な機能このファイルの中身を解析してください」と表示され、キーとなる情報が抽出されます。
  • 技術新規フォルダの作成」などのBashコマンドがサポートされている。

コード作成とデバッグ

  • 操作方法Pythonのソートアルゴリズムを書け」と入力すると、AIがコードを生成する。
  • テスト中にコンポーネントを調整するコードにエラーがあれば、"このエラーを修正して "と言えば、AIがそれを解析して修正してくれる。
  • 対応言語現在のところ、Python、C、Golangが含まれています。

ウェブブラウザ

  • 利用する最新のAIニュースを探す」と入力すると、AIがページをナビゲートし、情報を照合する。
  • 制約条件現在のところ、抽出されるのはテキストのみで、画像やビデオの解析はサポートされていません。
  • 技術Deepseek R1のアップデートを検索する」などのキーワードを指定できます。

じりつエラーほせい

  • 操作方法特別な設定は必要ない。コマンドに失敗した場合、AIが自動的に修復を試みる。
  • 典型例もし「ファイルXを開く」という間違ったコマンドを入力すると、AIはそのファイルが存在しないことを示し、代替案を提案する。

遠隔操作(オプション)

  • 取るローカル機器の性能が不十分な場合は、サーバーを使用してモデルを実行することができます。
  • 動く::
    1. サーバー上でOllamaを起動し、IPを取得する。 192.168.1.100).
    2. サーバースクリプトを実行する:
      python server_ollama.py
      
    3. ローカル変更 config.ini::
      [MAIN]
      is_local = False
      プロバイダー名 = サーバー
      プロバイダーモデル = deepseek-r1:14b
      プロバイダーアドレス = 192.168.1.100:5000
      
    4. ローカルで走っている:
      python main.py
      

ほら

  • ハードウェア要件7Bモデルには8GB、14Bモデルには12GB(例:RTX 3060)、32Bモデルには24GB以上のビデオメモリが必要です。
  • テスト中にコンポーネントを調整する起動に失敗した場合は、Ollamaが起動しているか、ターミナルのエラーログを確認してください。
  • 更新通常運転 ギットプル 最新の機能を手に入れよう。
  • ライセンスこのプロジェクトはオープンソースで、GPL-3.0の下でフリーです。

 

アプリケーションシナリオ

  1. プログラミング・エイド
    AgenticSeekは、コードを生成し、エラーを修正し、コードの詳細を説明します。
  2. 文書管理
    コンピュータのファイルは乱雑だ。AIはディレクトリを設定した後、ファイルの一覧表示、中身の抽出、バッチ操作まで行うことができる。
  3. 学習サポート
    学生たちはこのソフトを使って、文書分析、情報検索、音声対話によるメモ取りなどを行い、効率化を図ることができる。
  4. プライバシーの義務
    AgenticSeekは、機密データを取り扱う際の情報セキュリティを確保するため、インターネット接続なしでローカルに実行されます。

 

品質保証

  1. 本当に100%がローカルで動いているのか?
    OllamaやServerモードを使用する場合、すべての処理はローカルで行われ、ローカル以外のオプション(OpenAIなど)はオプションでしかありません。
  2. 十分なハードウェアがない場合は?
    7Bモデルを使用するか、リモートサーバー経由で上位モデルを実行する。
  3. 何か問題が起きたら?
    Ollamaが起動していることを確認する。 config.ini の設定を変更します。それでも失敗する場合は、GitHubにissueを提出してください。
  4. マヌスAIより優れているものは?
    クラウドサービスを使いたくない人のために、ローカルでの運用とプライバシー保護に重点を置いている。
無断転載を禁じます:チーフAIシェアリングサークル " AgenticSeek:完全にローカルで動作するタスク自動化のためのAIアシスタント

チーフAIシェアリングサークル

チーフAIシェアリングサークルは、AI学習に焦点を当て、包括的なAI学習コンテンツ、AIツール、実践指導を提供しています。私たちの目標は、高品質のコンテンツと実践的な経験の共有を通じて、ユーザーがAI技術を習得し、AIの無限の可能性を一緒に探求することです。AI初心者でも上級者でも、知識を得てスキルを向上させ、イノベーションを実現するための理想的な場所です。

お問い合わせ
ja日本語