はじめに
Minimaは、完全にローカライズされたRAG(Retrieval Augmentation Generation)ツールを提供することを目的としたオープンソースプロジェクトです。ユーザーはMinimaを使用してローカルファイルと対話することができ、2つのモードをサポートしています:完全なローカルインストールとカスタムGPTモード。プロジェクトはDockerを使用してデプロイされ、PDF、XLS、DOCX、TXT、MD、CSVなど、幅広いファイル形式のインデックス作成とクエリをサポートしています。 MinimaはMozilla Public Licence v2.0 (MPLv2)の下でリリースされており、ユーザーがコードを自由に使用および変更できることを保証しています。
機能一覧
- ローカル・ドキュメント・ダイアログローカルインストールによるローカルファイルとの対話。
- カスタムGPTモードカスタムGPTモデルを使用してローカルファイルを照会します。
- マルチファイル・フォーマット対応PDF、XLS、DOCX、TXT、MD、CSVファイルのインデックス作成とクエリをサポートします。
- DockerのデプロイメントDockerによる迅速なデプロイと管理。
- 環境変数の設定.envファイルを通して環境変数を設定し、ファイルパスやモデルパラメータを柔軟に設定することができます。
- 再帰インデックスフォルダ内のすべてのサブフォルダとファイルの再帰的インデックスをサポートします。
ヘルプの使用
設置プロセス
- クローンプロジェクトGitHubからMinimaプロジェクトをローカルにクローンする。
git clone https://github.com/dmayboroda/minima.git
cd minima
- 環境変数の設定プロジェクトのルート・ディレクトリに.envファイルを作成し、.env.sampleファイルの内容を.envファイルにコピーして、関連する変数を設定する。
cp .env.sample .env
設定する変数は以下の通り:
ローカルファイルパス
インデックスを作成するフォルダのパスを指定します。埋め込みモデルID
使用する埋め込みモデルを指定する。エンベッディングサイズ
埋め込み次元を設定する。START_INDEXING
初期起動時の設定真の
でインデックス付けを開始する。ユーザーID
歌で応えるパスワード
カスタムGPTモードのユーザー認証。
- Dockerコンテナの起動::
- 完全にローカルなインストール:
バッシュ
docker compose -f docker-compose-ollama.yml --env-file .env up --build
- GPTモードをカスタマイズする:
バッシュ
docker compose --env-file .env up --build
- 完全にローカルなインストール:
使用プロセス
- ローカル・ドキュメント・ダイアログ::
- ローカルサーバーに接続する:
ws://localhost:8003/llm/
- ローカルファイルとダイアログを開始し、ファイルの内容を問い合わせる。
- カスタムGPTモード::
- Dockerコンテナを起動した後、ターミナルからOTPをコピーし、Minima GPTを使ってクエリーする。
- 質問をすると、ミニマはローカルファイルの内容に基づいて答えを提供する。
詳細な機能操作
- ドキュメントの索引付けコンテナを起動すると、Minimaは指定されたフォルダ内のすべてのファイルに自動的にインデックスを作成します。インデックス作成プロセスは再帰的で、サブフォルダ内のすべてのファイルにもインデックスが作成されます。
- 文書の内容を問い合わせるユーザーは、WebSocketを介してローカルサーバーに接続し、クエリーリクエストを送信することができます。
- 環境変数の設定ファイルパスの変更、モデルの埋め込みなど、.envファイルの変数を変更することで、Minimaの設定を柔軟に調整することができます。