はじめに
AkashChat は、Akash Network が開発・提供する分散型クラウドベースの AI チャットプラットフォームです。NVIDIA GPU の高性能コンピューティングパワーを活用し、複数のオープンソースのビッグ言語モデル(QwQ-32B、Llama 3.3 70B、Llama 3.1 405B、DeepSeek R1 671Bなど)を実行することで、高速で、自由で、プライバシーに配慮した会話体験をユーザーに提供します。AkashChatは、Akash Supercloudの分散型アーキテクチャに依存し、従来の中央集権型クラウドサービスの制限を打破しており、レスポンスが速いだけでなく、複数のAIモデルの切り替えにも対応しているため、効率的な会話ツールを必要とするユーザーに適している。
2つ目のおすすめはAkashChatです。チャット用の様々な大きなサイズの推論モデルにログインなしでアクセスでき、APIキーも無料で提供しているので、クライアント側で大きなモデルにアクセスしたいけどAPIにお金を払いたくないという人にとても親切です(組み込みモデルBAAI-bge-large-en-v1-5も無料で提供しています)。 ページアシスト+AkashChatpage Assist + AkashChatは、日常的な使用には非常に軽量です!
- Akash Application API Interface: https://chatapi.akash.network/
- ある ページアシスト でキーを設定する。
機能一覧
- マルチモデルの選択QwQ-32B、Llama 3.3 70B、DeepSeek R1 671B、Llama 3.1 405B、AkashGen(画像生成モデル)など、オープンソースのAIモデルをサポート。
- 高性能対話NVIDIA H100およびA100 GPUで最大27トークン/秒の応答速度。
- プライバシーチャットログは、クラウドにアップロードすることなくローカルに保存されるため、ユーザーデータの安全性が確保されます。
- 登録不要ウェブページを開くだけで、アカウントログインが不要で、操作が簡単で便利です。
- オープンソース・サポートコードは完全にオープンソースで、ユーザーは自分で機能をデプロイしたり、貢献したりすることができる。
- ユーザーフレンドリーなインターフェース直感的で、初心者とプロの両方のユーザーに適したモダンなチャットインターフェイスを提供します。
ヘルプの使用
アカシチャットの始め方
AkashChat はソフトウェアのインストールを必要とせず、ブラウザから https://chat.akash.network/即可使用 にアクセスするだけでご利用いただけます。以下では、アカシチャットをすぐに始め、その機能を最大限に活用するための詳しい手順をご紹介します。
ウェブサイトへのアクセス
- 最新のブラウザ(Chrome、Firefox、Edgeなど)を開く。
- アドレスバーに入力
https://chat.akash.network/
と入力してエンターキーを押す。 - ページが読み込まれると、ログインや登録が不要なクリーンでシンプルなチャットインターフェースが表示されます。
AIモデルの選択
AkashChatは様々なオープンソースのAIモデルをサポートしており、ユーザーは必要に応じて適切なモデルを選択することができます。操作手順は以下の通りです:
- チャットインターフェイスの上部またはサイドバー(正確な位置は最新のインターフェイスデザインによって変更される可能性があります)で、"モデル選択 "ドロップダウンメニューを見つけます。
- ドロップダウンメニューをクリックすると、現在サポートされているモデルのリストが表示されます:
- ラマ3.1 405B複雑な質問に答えるのに適しており、パワフルなパフォーマンスを発揮します。
- ミストラル-7Bレスポンスに優れ、日常会話に適した軽量モデル。
- QwQ-32B大型モデルを凌駕する最新の高性能モデル。
- ご希望のモデル名をクリックすると、システムが自動的に切り替わり、切り替えにかかる時間は通常数秒です。
質問を入力して回答を得る
- チャット画面のテキスト入力ボックスに、「今日の天気はどうですか」「短い文章を書いてください」など、質問したい内容を入力します。または「短い文章を書いてください」。
- エンターキーを押すか、送信ボタン(通常は矢印のアイコン)をクリックします。
- AIは数秒以内にレスポンスを生成し、ダイアログボックスに表示する。応答速度はモデルやネットワークの状況によって異なり、通常は27トークン/秒以内です。
チャットログの管理
アカッシュチャットのプライバシー設計はそのハイライトのひとつで、チャットのログはサーバーにアップロードされず、お客様のブラウザにローカルに保存されます。ログの管理方法はこちらです:
- 履歴を見る前のダイアログは、ページを開くたびに自動的に読み込まれます(同じブラウザを使用し、キャッシュがクリアされていない場合に限ります)。
- 記録の消去チャット履歴を消去する必要がある場合は、ブラウザの設定でキャッシュを消去するか、ブラウザの "No Trace Mode "を使用することで、記録の保存を避けることができます。
- ほらデバイスやブラウザを変更した場合、クラウドストレージにデータが依存しないため、以前のチャットを同期することはできません。
オープンソースの展開(上級ユーザー)
技術的なバックグラウンドを持つユーザーのために、AkashChat はローカルまたは Akash Network 自体にデプロイ可能なオープンソースコードを提供しています。手順は以下の通りです:
- コードを取得GitHubリポジトリ(https://github.com/akash-network/akash-chat)にアクセスし、"Clone "または "Download ZIP "をクリックしてソースコードをダウンロードする。ソースコードをダウンロードしてください。
- 依存関係のインストール::
- Node.jsとnpmがローカルにインストールされていることを確認する。
- ターミナルでプロジェクトフォルダーに移動し、以下を実行する。
npm i
必要な依存関係をインストールします。
- 設定環境::
- プロジェクトのルート・ディレクトリに
.env.local
ドキュメンテーション - 以下のコンフィギュレーションを入力してください(実際のニーズに合わせて調整してください):
DEFAULT_MODEL=ミストラル DEFAULT_SYSTEM_PROMPT=あなたは正確な情報を持つ親切なアシスタントです。 API_KEY=あなたのキー API_HOST=あなたのAPIエンドポイント(例:Ollamaのデプロイメントアドレス)
- プロジェクトのルート・ディレクトリに
- ランニング・プロジェクト::
- ターミナルで
npm run dev
ローカル開発サーバーが起動します。 - ブラウザを開き、次のサイトにアクセスする。
http://localhost:3000
自己デプロイ版を使うこともできる。
- ターミナルで
- アカシへの配備::
- Akash Provider Consoleを使用してプロジェクトをAkash Supercloudにデプロイします。詳細な手順については、Akash公式サイトのドキュメント(https://akash.network/)を参照してください。
注目の機能操作
- モデルを切り替えてさまざまなスタイルを体験例えば、ラマ3.1は綿密な分析に適しているが、ミストラル7Bはより簡潔で直接的だ。
- 迅速対応テスト複雑な質問(例:「量子力学について説明しなさい」)を入力し、回答の速度と質を観察する。
- プライバシーモードの使用データ流出が心配な場合は、ブラウザの「No Trace Window」機能を使って、痕跡を残さないようにすることができます。
ほら
- ネットワーク要件AkashChat はリアルタイムの計算に依存しているため、遅延が発生すると体験に影響を与える可能性があります。
- モデルの制約ドメイン固有の問題を扱うのが苦手なモデルもあるので、もっと頻繁にモデルを切り替えてみることをお勧めする。
- フィードバックもし問題が発生したり、機能の提案がある場合は、GitHubを通じてフィードバックを提出し、オープンソースコミュニティに参加して改良することができます。
無料モデルのリスト(チャット・インターフェースで提供されるモデルと正確には同等ではない)
チャット+コンプリート
ディープシーク-R1-ディスティル-ラマ-70B
ディープシーク-R1-ディスティル-クウェン-14B
ディープシーク-R1-ディスティル-クウェン-32B
Meta-Llama-3-1-8B-Instruct-FP8
Meta-Llama-3-1-405B-Instruct-FP8
Meta-Llama-3-2-3B-Instruct
Meta-Llama-3-3-70B-Instruct
埋め込み
BAAI-bge-large-en-v1-5