AIパーソナル・ラーニング
と実践的なガイダンス
サイバーナイフ用ドローイングミラー

RLAMA: コマンドラインから操作するローカルドキュメントのインテリジェントなクイズのためのRAGシステム

はじめに

RLAMAは、DonTiziによって開発され、GitHubでホストされているドキュメント・インテリジェンスのためのRAG(Retrieval Augmentation Generation)システムであり、コマンドライン操作による機能性が中核となっている。ユーザーはローカルの オーラマ RLAMAは、フォルダ内のドキュメントをインテリジェントなQ&Aを備えたインタラクティブなナレッジベースに素早くインデックス化するモデルです。コードファイルであろうと、技術文書であろうと、オフィス文書であろうと、RLAMAはタスクに対応し、完全にローカルで動作するため、クラウドサービスを必要とせず、データのプライバシーを保護します。複数のファイル形式をサポートし、インストールが簡単なRLAMAは、特にコマンドライン操作に慣れている開発者や技術愛好家にとって、ローカライズされたドキュメント管理の強力な選択肢です。

RLAMA: コマンドライン操作のためのローカルドキュメントのインテリジェントなクイズ RAGシステム-1


 

機能一覧

  • コマンドラインでのRAGシステムの作成フォルダー文書をコマンドでインデックス化し、スマートクイズの知識ベースを生成します。
  • コマンドライン対話Q&Aターミナル・セッションを使用して、既存の ラグ システム内の文書の内容。
  • RAGシステム管理RAGシステムのリストアップや削除をコマンドで簡単に行うことができます。
  • ローカルモデルの統合Ollamaのローカルモデルにシームレスに接続し、完全なローカライズを維持。
  • バージョンとアップデートの管理バージョンをチェックしたり、システムを最新の状態にアップデートするには、このコマンドを使用する。
  • マルチフォーマット対応テキスト、コード、オフィス文書など幅広いフォーマットに対応。
  • コマンドラインアンインストールコマンドクリーンアップツールとデータを提供。

 

ヘルプの使用

設置プロセス

RLAMAはDocument Intelligence QuizをmacOS、Linux、Windows向けにコマンドラインで実装したもので、以下の手順が詳細に説明されています:

1.前提条件

  • OllamaをインストールするOllamaモデルはローカルで実行する必要があります。Ollamaのウェブサイトにアクセスし、ダウンロードとインストールを行ってください。 ollama run llama3(または他のモデル)の在庫状況、デフォルトアドレスを確認する。 http://localhost:11434.
  • ネットワーク接続インストールには、スクリプトや依存関係をダウンロードするためのインターネット接続が必要です。
  • オプションの依存関係より多くのフォーマット(例えば、.pdfや.docx)をサポートするためには、以下のコマンドを実行することをお勧めします。 install_deps.sh インストレーションツール(例 pdftotext).

2.コマンドラインスクリプトによるインストール(推奨)

それをターミナルに入力する:

curl -fsSL https://raw.githubusercontent.com/dontizi/rlama/main/install.sh | sh
  • スクリプトは自動的にダウンロードと設定を完了し、完了すると rlama --version バージョンを確認する(例 v0.1.0)成功の確認。

3.ソースコードの手動インストール(オプション)

カスタマイズが必要な場合

  • クローン倉庫
    git clone https://github.com/DonTizi/rlama.git  
    cd rlama
    
  • コンパイルとインストール(Go環境が必要):
    go build  
    go install
    
  • 実行ファイルをPATHに移動する(例えば /usr/local/bin)、実行する rlama --help 検証。

4.インストールの検証

走っている:

rlama --help

コマンドのリストを表示することは成功とみなされる。

主な機能

コマンドラインからRAGシステムを作成する

ドキュメントをスマートクイズの知識ベースに変換します。例えば、フォルダ ./docs 組み込む readme.md 歌で応える guide.pdf::

  1. Ollamaモデルが実行されることを確認する(例 ollama run llama3).
  2. コマンドを入力する:
    rlama rag llama3 mydocs ./docs
    
    • llama3モデル名
    • mydocsRAGシステム名。
    • ./docs文書パス。
  3. 出力例:
    Indexing documents in ./docs...  
    Processed: readme.md  
    Processed: guide.pdf  
    RAG system "mydocs" created successfully!
    

コマンドラインによるインタラクティブなQ&A

既存のRAGシステムを照会する:

  1. セッションを開始する:
    rlama run mydocs
    
  2. 質問を入力してください:
    如何安装 rlama?
    
  3. 答えを得る:
    可通过终端运行 `curl -fsSL https://raw.githubusercontent.com/dontizi/rlama/main/install.sh | sh` 安装。
    
  4. 輸入 exit 出口だ。

RAGシステムの管理

  • 上場制度::
    rlama list
    

    出力例:

    Available RAG systems:  
    - mydocs
    
  • システムの削除::
    rlama delete mydocs
    

    または確認をスキップする:

    rlama delete mydocs --force
    

バージョンとアップデート

  • チェック・バージョン::
    rlama --version
    

    もしかしたら rlama -v表示は以下の通り。 v0.1.0.

  • システムの更新::
    rlama update
    

    コカ --force 必須アップデート。

システムのアンインストール

  • 除去ツール::
    rlama uninstall
    
  • データのクリーニングデータは ~/.rlama走れ:
    rm -rf ~/.rlama
    

注目の機能

1.コマンドライン操作

rlamaの機能はすべてコマンドライン経由で実装されており、シンプルで効率的だ。例えば、コマンドライン rlama rag mistral docs ./project コマンドラインに熟練したユーザーに適した、フォルダ全体のインデックスを瞬時に作成します。

2.マルチフォーマットドキュメントサポート

複数のファイル形式に対応:

  • テキスト.txtそして.mdそして.htmlそして.jsonそして.csv その他
  • コード.goそして.pyそして.jsそして.javaそして.cpp その他
  • ドキュメンテーション.pdfそして.docxそして.pptxそして.xlsx その他
    うごきだす ./scripts/install_deps.sh サポート強化。例
rlama rag gemma code-docs ./src

3.局所的な操作

データはすべてローカルで処理されるため、クラウドは必要なく、機密文書に適している。例えば、会社の機密文書にインデックスを付けるなど:

rlama rag llama3 contracts ./legal

ヒントとトラブルシューティング

  • 精密コマンド完全なパラメータを入力してください。 rlama run mydocs 正確さを期すため、速記ではなく、「逐語」を用いる。
  • オラマ問題接続に失敗した場合は http://localhost:11434ランニング ollama ps ステータスを見る
  • フォーマット・サポート抽出に失敗した場合は install_deps.sh 依存関係をインストールします。
  • 不十分な回答文書がインデックスされていることを確認し、問題についてより具体的に説明してください。
  • アピるGitHubのIssuesにコマンドとバージョンを投稿することができます。

上記のコマンドを使えば、ユーザーはrlamaを素早くマスターし、ローカル・ドキュメントを管理し、インテリジェントなQ&Aを実施することができる。

無断転載を禁じます:チーフAIシェアリングサークル " RLAMA: コマンドラインから操作するローカルドキュメントのインテリジェントなクイズのためのRAGシステム
ja日本語